ChatGPT సంస్థ తన సాంకేతికతను దుర్వినియోగం చేయడం వల్లే బాలుడి ఆత్మహత్యకు కారణమైంది | ChatGPT

యొక్క తయారీదారు ChatGPT 16 ఏళ్ల యువకుడి ఆత్మహత్య దాని వ్యవస్థను “దుర్వినియోగం” చేయడం వల్ల జరిగిందని మరియు చాట్బాట్ వల్ల “కాదని” చెప్పింది.
కాలిఫోర్నియా యువకుడు ఆడమ్ రైన్ కుటుంబం శాన్ ఫ్రాన్సిస్కో కంపెనీ మరియు దాని చీఫ్ ఎగ్జిక్యూటివ్ సామ్ ఆల్ట్మాన్పై దాఖలు చేసిన వ్యాజ్యంపై OpenAI యొక్క ప్రతిస్పందనలో ఈ వ్యాఖ్యలు వచ్చాయి.
రైన్ ఏప్రిల్లో ఆత్మహత్య చేసుకున్నాడు విస్తృతమైన సంభాషణలు మరియు “చాట్జిపిటి నుండి నెలల ప్రోత్సాహం” తర్వాత, కుటుంబం యొక్క న్యాయవాది చెప్పారు.
యువకుడు అనేక సందర్భాలలో చాట్జిపిటితో ఆత్మహత్య పద్ధతిని చర్చించాడని, సూచించిన పద్ధతి పని చేస్తుందా లేదా అనే దానిపై అతనికి మార్గనిర్దేశం చేసిందని, అతని తల్లిదండ్రులకు సూసైడ్ నోట్ను వ్రాయడంలో అతనికి సహాయపడటానికి మరియు అతను ఉపయోగించిన సాంకేతికత యొక్క సంస్కరణ “స్పష్టమైన భద్రతా సమస్యలు ఉన్నప్పటికీ … మార్కెట్కి తరలించబడింది” అని దావా ఆరోపించింది.
మంగళవారం కాలిఫోర్నియా రాష్ట్రంలోని ఉన్నత న్యాయస్థానంలో దాఖలు చేసిన వివరాల ప్రకారం, “ఈ విషాద సంఘటనకు ఏదైనా ‘కారణం’ ఆపాదించబడవచ్చు” అని ఓపెన్ఏఐ పేర్కొంది, రైన్ యొక్క “గాయాలు మరియు హాని ప్రత్యక్షంగా మరియు దాదాపుగా, పూర్తిగా లేదా పాక్షికంగా సంభవించింది లేదా దోహదపడింది. [his] దుర్వినియోగం, అనధికారిక వినియోగం, అనాలోచిత ఉపయోగం, ఊహించలేని ఉపయోగం మరియు/లేదా ChatGPT యొక్క అక్రమ వినియోగం.
స్వీయ-హాని గురించి సలహా కోసం ChatGPTని అడగడాన్ని దాని ఉపయోగ నిబంధనలు నిషేధించాయని మరియు “మీరు నిజం లేదా వాస్తవిక సమాచారం యొక్క ఏకైక మూలంగా అవుట్పుట్పై ఆధారపడరు” అని పేర్కొంటున్న బాధ్యత నిబంధన యొక్క పరిమితిని హైలైట్ చేసింది.
$500bn (£380bn) విలువ కలిగిన OpenAI, “మానసిక ఆరోగ్యానికి సంబంధించిన కోర్టు కేసులను జాగ్రత్తగా, పారదర్శకత మరియు గౌరవంతో నిర్వహించడం” మరియు “ఏ విధమైన వ్యాజ్యం లేకుండా, మేము మా మిషన్కు అనుగుణంగా మా సాంకేతికతను మెరుగుపరచడంపై దృష్టి సారిస్తాము” అని పేర్కొంది.
బ్లాగ్పోస్ట్ జోడించబడింది: “అనూహ్యమైన నష్టానికి రైన్ కుటుంబానికి మా ప్రగాఢ సానుభూతి తెలియజేస్తున్నాము. ఈ ఆరోపణలకు మా ప్రతిస్పందనలో ఆడమ్ మానసిక ఆరోగ్యం మరియు జీవిత పరిస్థితుల గురించి క్లిష్ట వాస్తవాలు ఉన్నాయి.
“అసలు ఫిర్యాదులో మరింత సందర్భం అవసరమయ్యే అతని చాట్ల ఎంపిక భాగాలు ఉన్నాయి, వాటిని మేము మా ప్రతిస్పందనలో అందించాము. మేము ఈ ఫైలింగ్లో బహిరంగంగా ఉదహరించిన సున్నితమైన సాక్ష్యాల మొత్తాన్ని పరిమితం చేసాము మరియు చాట్ ట్రాన్స్క్రిప్ట్లను సీల్ కింద కోర్టుకు సమర్పించాము.”
కుటుంబం యొక్క న్యాయవాది, జే ఎడెల్సన్, OpenAI యొక్క ప్రతిస్పందనను “అంతరాయం కలిగించేది” అని పిలిచారు మరియు కంపెనీ “అద్భుతంగా, ప్రతి ఒక్కరిలో తప్పును కనుగొనడానికి ప్రయత్నిస్తుంది, అద్భుతంగా, ఆడమ్ స్వయంగా చాట్జిపిటితో వ్యవహరించడం ద్వారా దాని నిబంధనలు మరియు షరతులను ఉల్లంఘించాడని వాదించారు”.
ఈ నెల ప్రారంభంలో, OpenAI మరో ఏడు వ్యాజ్యాల ద్వారా దెబ్బతింది చాట్జిపిటికి సంబంధించిన కాలిఫోర్నియా కోర్టులలో, అది “ఆత్మహత్య కోచ్”గా పనిచేసిందనే ఆరోపణతో సహా.
కంపెనీ ప్రతినిధి ఆ సమయంలో ఇలా అన్నారు: “ఇది చాలా హృదయ విదారకమైన పరిస్థితి, మరియు వివరాలను అర్థం చేసుకోవడానికి మేము ఫైలింగ్లను సమీక్షిస్తున్నాము. మానసిక లేదా మానసిక క్షోభ సంకేతాలను గుర్తించి వాటికి ప్రతిస్పందించడానికి మేము ChatGPTకి శిక్షణ ఇస్తాము, సంభాషణలను తగ్గించి, ప్రజలను వాస్తవ ప్రపంచ మద్దతు వైపు నడిపిస్తాము.”
ఆగస్టులో, ఓపెన్ AI అది చెప్పింది రక్షణలను బలోపేతం చేయడం ChatGPTలో వ్యక్తులు సుదీర్ఘ సంభాషణల్లో పాల్గొంటున్నప్పుడు మోడల్ యొక్క భద్రతా శిక్షణలోని భాగాలు ఈ పరిస్థితుల్లో క్షీణించవచ్చని అనుభవం చూపింది.
“ఉదాహరణకు, ఎవరైనా ముందుగా ఉద్దేశ్యాన్ని ప్రస్తావించినప్పుడు ChatGPT సరిగ్గా సూసైడ్ హాట్లైన్ని సూచించవచ్చు, కానీ చాలా కాలం పాటు అనేక సందేశాలు పంపిన తర్వాత, అది చివరికి మన రక్షణకు విరుద్ధంగా సమాధానాన్ని అందించవచ్చు,” అని అది పేర్కొంది. “ఇది ఖచ్చితంగా మేము నిరోధించడానికి పని చేస్తున్న విచ్ఛిన్నం.”
Source link



