Games

ChatGPT సంస్థ తన సాంకేతికతను దుర్వినియోగం చేయడం వల్లే బాలుడి ఆత్మహత్యకు కారణమైంది | ChatGPT

యొక్క తయారీదారు ChatGPT 16 ఏళ్ల యువకుడి ఆత్మహత్య దాని వ్యవస్థను “దుర్వినియోగం” చేయడం వల్ల జరిగిందని మరియు చాట్‌బాట్ వల్ల “కాదని” చెప్పింది.

కాలిఫోర్నియా యువకుడు ఆడమ్ రైన్ కుటుంబం శాన్ ఫ్రాన్సిస్కో కంపెనీ మరియు దాని చీఫ్ ఎగ్జిక్యూటివ్ సామ్ ఆల్ట్‌మాన్‌పై దాఖలు చేసిన వ్యాజ్యంపై OpenAI యొక్క ప్రతిస్పందనలో ఈ వ్యాఖ్యలు వచ్చాయి.

రైన్ ఏప్రిల్‌లో ఆత్మహత్య చేసుకున్నాడు విస్తృతమైన సంభాషణలు మరియు “చాట్‌జిపిటి నుండి నెలల ప్రోత్సాహం” తర్వాత, కుటుంబం యొక్క న్యాయవాది చెప్పారు.

యువకుడు అనేక సందర్భాలలో చాట్‌జిపిటితో ఆత్మహత్య పద్ధతిని చర్చించాడని, సూచించిన పద్ధతి పని చేస్తుందా లేదా అనే దానిపై అతనికి మార్గనిర్దేశం చేసిందని, అతని తల్లిదండ్రులకు సూసైడ్ నోట్‌ను వ్రాయడంలో అతనికి సహాయపడటానికి మరియు అతను ఉపయోగించిన సాంకేతికత యొక్క సంస్కరణ “స్పష్టమైన భద్రతా సమస్యలు ఉన్నప్పటికీ … మార్కెట్‌కి తరలించబడింది” అని దావా ఆరోపించింది.

మంగళవారం కాలిఫోర్నియా రాష్ట్రంలోని ఉన్నత న్యాయస్థానంలో దాఖలు చేసిన వివరాల ప్రకారం, “ఈ విషాద సంఘటనకు ఏదైనా ‘కారణం’ ఆపాదించబడవచ్చు” అని ఓపెన్‌ఏఐ పేర్కొంది, రైన్ యొక్క “గాయాలు మరియు హాని ప్రత్యక్షంగా మరియు దాదాపుగా, పూర్తిగా లేదా పాక్షికంగా సంభవించింది లేదా దోహదపడింది. [his] దుర్వినియోగం, అనధికారిక వినియోగం, అనాలోచిత ఉపయోగం, ఊహించలేని ఉపయోగం మరియు/లేదా ChatGPT యొక్క అక్రమ వినియోగం.

స్వీయ-హాని గురించి సలహా కోసం ChatGPTని అడగడాన్ని దాని ఉపయోగ నిబంధనలు నిషేధించాయని మరియు “మీరు నిజం లేదా వాస్తవిక సమాచారం యొక్క ఏకైక మూలంగా అవుట్‌పుట్‌పై ఆధారపడరు” అని పేర్కొంటున్న బాధ్యత నిబంధన యొక్క పరిమితిని హైలైట్ చేసింది.

$500bn (£380bn) విలువ కలిగిన OpenAI, “మానసిక ఆరోగ్యానికి సంబంధించిన కోర్టు కేసులను జాగ్రత్తగా, పారదర్శకత మరియు గౌరవంతో నిర్వహించడం” మరియు “ఏ విధమైన వ్యాజ్యం లేకుండా, మేము మా మిషన్‌కు అనుగుణంగా మా సాంకేతికతను మెరుగుపరచడంపై దృష్టి సారిస్తాము” అని పేర్కొంది.

బ్లాగ్‌పోస్ట్ జోడించబడింది: “అనూహ్యమైన నష్టానికి రైన్ కుటుంబానికి మా ప్రగాఢ సానుభూతి తెలియజేస్తున్నాము. ఈ ఆరోపణలకు మా ప్రతిస్పందనలో ఆడమ్ మానసిక ఆరోగ్యం మరియు జీవిత పరిస్థితుల గురించి క్లిష్ట వాస్తవాలు ఉన్నాయి.

“అసలు ఫిర్యాదులో మరింత సందర్భం అవసరమయ్యే అతని చాట్‌ల ఎంపిక భాగాలు ఉన్నాయి, వాటిని మేము మా ప్రతిస్పందనలో అందించాము. మేము ఈ ఫైలింగ్‌లో బహిరంగంగా ఉదహరించిన సున్నితమైన సాక్ష్యాల మొత్తాన్ని పరిమితం చేసాము మరియు చాట్ ట్రాన్‌స్క్రిప్ట్‌లను సీల్ కింద కోర్టుకు సమర్పించాము.”

కుటుంబం యొక్క న్యాయవాది, జే ఎడెల్సన్, OpenAI యొక్క ప్రతిస్పందనను “అంతరాయం కలిగించేది” అని పిలిచారు మరియు కంపెనీ “అద్భుతంగా, ప్రతి ఒక్కరిలో తప్పును కనుగొనడానికి ప్రయత్నిస్తుంది, అద్భుతంగా, ఆడమ్ స్వయంగా చాట్‌జిపిటితో వ్యవహరించడం ద్వారా దాని నిబంధనలు మరియు షరతులను ఉల్లంఘించాడని వాదించారు”.

ఈ నెల ప్రారంభంలో, OpenAI మరో ఏడు వ్యాజ్యాల ద్వారా దెబ్బతింది చాట్‌జిపిటికి సంబంధించిన కాలిఫోర్నియా కోర్టులలో, అది “ఆత్మహత్య కోచ్”గా పనిచేసిందనే ఆరోపణతో సహా.

కంపెనీ ప్రతినిధి ఆ సమయంలో ఇలా అన్నారు: “ఇది చాలా హృదయ విదారకమైన పరిస్థితి, మరియు వివరాలను అర్థం చేసుకోవడానికి మేము ఫైలింగ్‌లను సమీక్షిస్తున్నాము. మానసిక లేదా మానసిక క్షోభ సంకేతాలను గుర్తించి వాటికి ప్రతిస్పందించడానికి మేము ChatGPTకి శిక్షణ ఇస్తాము, సంభాషణలను తగ్గించి, ప్రజలను వాస్తవ ప్రపంచ మద్దతు వైపు నడిపిస్తాము.”

ఆగస్టులో, ఓపెన్ AI అది చెప్పింది రక్షణలను బలోపేతం చేయడం ChatGPTలో వ్యక్తులు సుదీర్ఘ సంభాషణల్లో పాల్గొంటున్నప్పుడు మోడల్ యొక్క భద్రతా శిక్షణలోని భాగాలు ఈ పరిస్థితుల్లో క్షీణించవచ్చని అనుభవం చూపింది.

“ఉదాహరణకు, ఎవరైనా ముందుగా ఉద్దేశ్యాన్ని ప్రస్తావించినప్పుడు ChatGPT సరిగ్గా సూసైడ్ హాట్‌లైన్‌ని సూచించవచ్చు, కానీ చాలా కాలం పాటు అనేక సందేశాలు పంపిన తర్వాత, అది చివరికి మన రక్షణకు విరుద్ధంగా సమాధానాన్ని అందించవచ్చు,” అని అది పేర్కొంది. “ఇది ఖచ్చితంగా మేము నిరోధించడానికి పని చేస్తున్న విచ్ఛిన్నం.”

UK మరియు ఐర్లాండ్‌లో, సమారిటన్‌లను ఫ్రీఫోన్ 116 123లో సంప్రదించవచ్చు లేదా ఇమెయిల్ jo@samaritans.org లేదా jo@samaritans.ie. USలో, మీరు 988కి కాల్ చేయవచ్చు లేదా 988 సూసైడ్ & క్రైసిస్ లైఫ్‌లైన్‌కి టెక్స్ట్ చేయవచ్చు లేదా 988lifeline.orgలో చాట్ చేయవచ్చు. ఆస్ట్రేలియాలో, క్రైసిస్ సపోర్ట్ సర్వీస్ లైఫ్‌లైన్ 13 11 14. ఇతర అంతర్జాతీయ హెల్ప్‌లైన్‌లను befrienders.orgలో కనుగొనవచ్చు


Source link

Related Articles

Back to top button