AI నుండి దూరంగా ఉండమని వారి స్నేహితులు మరియు కుటుంబ సభ్యులకు చెప్పే AI కార్యకర్తలను కలవండి | కృత్రిమ మేధస్సు (AI)

కెరిస్టా పావ్లోస్కీ నైతికతపై తన అభిప్రాయాన్ని రూపొందించిన ఏకైక నిర్వచించే క్షణాన్ని గుర్తు చేసుకున్నారు కృత్రిమ మేధస్సు. Amazon మెకానికల్ టర్క్లో AI వర్కర్గా – డేటాను నమోదు చేయడం లేదా AI ప్రాంప్ట్ను దాని అవుట్పుట్తో సరిపోల్చడం వంటి పనులను చేయడానికి కంపెనీలను కార్మికులను నియమించుకోవడానికి అనుమతించే మార్కెట్ ప్లేస్ – పావ్లోస్కీ AI- రూపొందించిన వచనం, చిత్రాలు మరియు వీడియోల నాణ్యతను మోడరేట్ చేయడానికి మరియు అంచనా వేయడానికి, అలాగే కొన్ని వాస్తవ తనిఖీకి సమయాన్ని వెచ్చిస్తుంది.
సుమారు రెండు సంవత్సరాల క్రితం, ఆమె డైనింగ్ రూమ్ టేబుల్ వద్ద ఇంటి నుండి పని చేస్తున్నప్పుడు, ఆమె ట్వీట్లను జాత్యహంకారంగా లేదా కాదో సూచించే పనిని చేపట్టింది. “ఆ మూన్క్రికెట్ పాడండి” అని వ్రాసిన ట్వీట్ను ఆమెకు అందించినప్పుడు, ఆమె “మూన్క్రికెట్” అనే పదం యొక్క అర్ధాన్ని తనిఖీ చేయాలని నిర్ణయించుకునే ముందు దాదాపుగా “నో” బటన్పై క్లిక్ చేసింది, ఇది ఆమెకు ఆశ్చర్యకరంగా, నల్లజాతి అమెరికన్లపై జాతి దూషణ.
“నేను అదే తప్పును ఎన్నిసార్లు చేశానో మరియు నన్ను నేను పట్టుకోలేనో ఆలోచిస్తూ కూర్చున్నాను” అని పావ్లోస్కీ చెప్పాడు.
ఆమె స్వంత తప్పిదాల సంభావ్య స్థాయి మరియు ఆమె వంటి వేలాది మంది ఇతర కార్మికులు పావ్లోస్కీని మురిపించేలా చేసింది. ఎంతమంది ఇతరులకు తెలియకుండానే అభ్యంతరకరమైన విషయాలను జారవిడిచారు? లేదా అధ్వాన్నంగా, అనుమతించడానికి ఎంచుకున్నారా?
AI మోడల్స్ యొక్క అంతర్గత పనితీరును చూసిన తర్వాత, పావ్లోస్కీ ఇకపై వ్యక్తిగతంగా ఉత్పాదక AI ఉత్పత్తులను ఉపయోగించకూడదని నిర్ణయించుకుంది మరియు వాటి నుండి దూరంగా ఉండమని తన కుటుంబ సభ్యులకు చెప్పింది.
పావ్లోస్కీ మాట్లాడుతూ, “ఇది నా ఇంట్లో పూర్తిగా లేదు,” అని పావ్లోస్కీ తన యుక్తవయసులో ఉన్న కుమార్తెను వంటి సాధనాలను ఉపయోగించనివ్వదు. ChatGPT. మరియు ఆమె సామాజికంగా కలుసుకునే వ్యక్తులతో, వారికి బాగా తెలిసిన వాటి గురించి AIని అడగమని ఆమె వారిని ప్రోత్సహిస్తుంది, తద్వారా వారు దాని లోపాలను గుర్తించగలరు మరియు సాంకేతికత ఎంత తప్పుగా ఉందో స్వయంగా అర్థం చేసుకోగలరు. పావ్లోస్కీ మాట్లాడుతూ, మెకానికల్ టర్క్ సైట్లో ఎంచుకోవడానికి కొత్త టాస్క్ల మెనుని చూసిన ప్రతిసారీ, ప్రజలను బాధపెట్టడానికి ఆమె చేసేది ఏదైనా మార్గం ఉందా అని ఆమె తనను తాను ప్రశ్నించుకుంటుంది – చాలాసార్లు, ఆమె సమాధానం అవును అని చెప్పింది.
నుండి ఒక ప్రకటన అమెజాన్ కార్మికులు తమ అభీష్టానుసారం ఏ పనులను పూర్తి చేయాలో ఎంచుకోవచ్చు మరియు దానిని అంగీకరించే ముందు టాస్క్ వివరాలను సమీక్షించవచ్చు. అమెజాన్ ప్రకారం, రిక్వెస్టర్లు కేటాయించిన సమయం, చెల్లింపు మరియు సూచన స్థాయిలు వంటి ఏదైనా టాస్క్ యొక్క ప్రత్యేకతలను సెట్ చేస్తారు.
“అమెజాన్ మెకానికల్ టర్క్ అనేది వ్యాపారాలు మరియు పరిశోధకులను కనెక్ట్ చేసే మార్కెట్ ప్లేస్, రిక్వెస్టర్లు అని పిలుస్తారు, చిత్రాలను లేబుల్ చేయడం, సర్వేలకు సమాధానం ఇవ్వడం, టెక్స్ట్ను లిప్యంతరీకరించడం లేదా AI అవుట్పుట్లను సమీక్షించడం వంటి ఆన్లైన్ టాస్క్లను పూర్తి చేయడానికి కార్మికులతో” అని అమెజాన్ ప్రతినిధి మోంటానా మాక్లాచ్లాన్ అన్నారు.
పావ్లోస్కీ ఒక్కడే కాదు. ఒక డజను AI రేటర్లుఖచ్చితత్వం మరియు గ్రౌండెడ్నెస్ కోసం AI యొక్క ప్రతిస్పందనలను తనిఖీ చేసే కార్మికులు, గార్డియన్తో మాట్లాడుతూ, చాట్బాట్లు మరియు ఇమేజ్ జనరేటర్లు పని చేసే విధానం మరియు వాటి అవుట్పుట్ ఎంత తప్పుగా ఉంటుందో తెలుసుకున్న తర్వాత, వారు ఉత్పాదక AIని ఉపయోగించవద్దని వారి స్నేహితులను మరియు కుటుంబ సభ్యులను కోరడం మొదలుపెట్టారు – లేదా కనీసం తమ ప్రియమైనవారికి దానిని ఉపయోగించడంపై అవగాహన కల్పించడానికి ప్రయత్నిస్తున్నారు. ఈ శిక్షకులు AI మోడల్ల శ్రేణిలో పని చేస్తారు – Google యొక్క జెమిని, ఎలోన్ మస్క్ యొక్క గ్రోక్, ఇతర ప్రసిద్ధ మోడల్లు మరియు అనేక చిన్న లేదా అంతగా తెలియని బాట్లు.
ఒక కార్మికుడు, ఒక AI రేటర్ Google గూగుల్ సెర్చ్ యొక్క AI ఓవర్వ్యూల ద్వారా ఉత్పన్నమయ్యే ప్రతిస్పందనలను మూల్యాంకనం చేసే వారు, ఆమె AIని సాధ్యమైనంత తక్కువగా ఉపయోగించడానికి ప్రయత్నిస్తుందని చెప్పారు. ఆరోగ్యానికి సంబంధించిన ప్రశ్నలకు AI-ఉత్పత్తి చేసిన ప్రతిస్పందనలకు కంపెనీ యొక్క విధానం, ప్రత్యేకించి, ఆమెకు విరామం ఇచ్చిందని, వృత్తిపరమైన ప్రతీకారానికి భయపడి అనామకతను అభ్యర్థిస్తున్నట్లు ఆమె చెప్పారు. తన సహోద్యోగులు వైద్యపరమైన విషయాలపై AI- రూపొందించిన ప్రతిస్పందనలను విమర్శనాత్మకంగా అంచనా వేయడాన్ని తాను గమనించానని మరియు వైద్య శిక్షణ లేకపోయినా, అలాంటి ప్రశ్నలను స్వయంగా మూల్యాంకనం చేసే పనిని తాను తీసుకున్నానని ఆమె చెప్పింది.
ఇంట్లో, ఆమె తన 10 ఏళ్ల కుమార్తెను చాట్బాట్లను ఉపయోగించకుండా నిషేధించింది. “ఆమె ముందుగా క్రిటికల్ థింకింగ్ స్కిల్స్ నేర్చుకోవాలి లేదా అవుట్పుట్ ఏదైనా బాగుందో లేదో చెప్పలేరు” అని రేటర్ చెప్పారు.
“మా సిస్టమ్లు ఎంత బాగా పని చేస్తున్నాయో కొలవడానికి మాకు సహాయపడే అనేక సమగ్ర డేటా పాయింట్లలో రేటింగ్లు ఒకటి, కానీ మా అల్గారిథమ్లు లేదా మోడల్లను నేరుగా ప్రభావితం చేయవు” అని Google నుండి ఒక ప్రకటన చదువుతుంది. “మా ఉత్పత్తుల్లో అధిక నాణ్యత సమాచారాన్ని అందించడానికి మేము బలమైన రక్షణల శ్రేణిని కూడా కలిగి ఉన్నాము.”
బాట్ వాచర్లు అలారం మోగిస్తారు
ఈ వ్యక్తులు చాట్బాట్లు మరింత మానవీయంగా అనిపించడంలో సహాయపడే పదివేల మంది గ్లోబల్ వర్క్ఫోర్స్లో భాగం. AI ప్రతిస్పందనలను తనిఖీ చేస్తున్నప్పుడు, చాట్బాట్ సరికాని లేదా హానికరమైన సమాచారాన్ని అందించకుండా చూసుకోవడానికి వారు తమ వంతు ప్రయత్నం చేస్తారు.
AIని విశ్వసించదగిన వ్యక్తులుగా అనిపించినప్పుడు, అది చాలా పెద్ద సమస్యను సూచిస్తుందని నిపుణులు విశ్వసిస్తారు.
“నెమ్మదిగా, జాగ్రత్తగా ధ్రువీకరించడం ద్వారా రవాణా చేయడానికి మరియు స్కేల్ చేయడానికి బహుశా ప్రోత్సాహకాలు ఉన్నాయని ఇది చూపిస్తుంది మరియు ఫీడ్బ్యాక్ రేటర్లు ఇచ్చే వారు విస్మరించబడుతున్నారు” అని మీడియా అక్షరాస్యత కార్యక్రమం అయిన Poynter వద్ద MediaWise డైరెక్టర్ అలెక్స్ మహదేవన్ అన్నారు. “కాబట్టి మనం ఫైనల్ చూసినప్పుడు దీని అర్థం [version of the] చాట్బాట్, వారు ఎదుర్కొంటున్న అదే రకమైన ఎర్రర్లను మనం ఆశించవచ్చు. వార్తలు మరియు సమాచారం కోసం ఎల్ఎల్ఎమ్లకు ఎక్కువగా వెళ్లే ప్రజలకు ఇది మంచిది కాదు.
నాణ్యతను తగ్గించి వేగవంతమైన టర్న్అరౌండ్ సమయానికి స్థిరమైన ప్రాధాన్యత కారణంగా వారు పని చేసే మోడల్లపై తమకు నమ్మకం లేదని AI కార్మికులు చెప్పారు. అమెజాన్ మెకానికల్ టర్క్లోని AI వర్కర్ బ్రూక్ హాన్సెన్, ఉత్పాదక AIని ఒక కాన్సెప్ట్గా ఆమె అపనమ్మకం చేయనప్పటికీ, ఈ సాధనాలను అభివృద్ధి చేసే మరియు అమలు చేసే కంపెనీలను కూడా ఆమె విశ్వసించదని వివరించారు. ఆమె కోసం, ఈ వ్యవస్థలకు శిక్షణ ఇచ్చే వ్యక్తులకు ఎంత తక్కువ మద్దతు లభిస్తుందో తెలుసుకోవడం అతిపెద్ద మలుపు.
“మేము మోడల్ను మెరుగుపరచడంలో సహాయపడతామని భావిస్తున్నాము, అయినప్పటికీ మేము తరచుగా అస్పష్టమైన లేదా అసంపూర్ణమైన సూచనలు, కనీస శిక్షణ మరియు పనులను పూర్తి చేయడానికి అవాస్తవిక సమయ పరిమితులను అందిస్తాము” అని 2010 నుండి డేటా వర్క్ చేస్తున్న మరియు సిలికాన్ వ్యాలీ యొక్క అత్యంత ప్రజాదరణ పొందిన AI మోడల్లలో కొన్నింటికి శిక్షణ ఇవ్వడంలో భాగమైన హాన్సెన్ చెప్పారు. “కార్మికులు మనకు అవసరమైన సమాచారం, వనరులు మరియు సమయాన్ని కలిగి ఉండకపోతే, ఫలితాలు సురక్షితంగా, ఖచ్చితమైనవి లేదా నైతికంగా ఎలా ఉంటాయి? నా విషయానికొస్తే, మన నుండి ఆశించిన దానికి మరియు వాస్తవానికి ఉద్యోగం చేయడానికి మాకు ఇవ్వబడిన వాటికి మధ్య ఉన్న అంతరం కంపెనీలు బాధ్యత మరియు నాణ్యత కంటే వేగం మరియు లాభానికి ప్రాధాన్యత ఇస్తున్నాయనడానికి స్పష్టమైన సంకేతం.”
ఏదీ తక్షణమే అందుబాటులో లేనప్పుడు సమాధానం ఇవ్వకుండా నమ్మకంగా తప్పుడు సమాచారాన్ని అందించడం, ఉత్పాదక AI యొక్క ప్రధాన లోపం అని నిపుణులు అంటున్నారు. మీడియా అక్షరాస్యత లాభాపేక్ష లేని న్యూస్గార్డ్ చాట్జిపిటి, జెమిని మరియు మెటాస్ AIతో సహా టాప్ 10 ఉత్పాదక AI మోడల్ల ఆడిట్లో చాట్బాట్ల నాన్-రెస్పాన్స్ రేట్లు ఆగస్టు 2024లో 31% నుండి ఆగస్టు 2025లో 0%కి తగ్గాయని వెల్లడించింది. దాదాపు 18% నుండి 35%కి రెట్టింపుNewsGuard దొరకలేదు. ఆ సమయంలో వ్యాఖ్య కోసం న్యూస్గార్డ్ చేసిన అభ్యర్థనపై కంపెనీలేవీ స్పందించలేదు.
“నేను ఏ వాస్తవాలను విశ్వసించను [the bot] వాటిని స్వయంగా తనిఖీ చేయకుండానే ఆఫర్లు అందజేస్తుంది – ఇది నమ్మదగినది కాదు,” అని మరొక Google AI రేటర్, కాంట్రాక్టు కంపెనీతో ఆమె సంతకం చేసిన నాన్డిస్క్లోజర్ ఒప్పందం కారణంగా అజ్ఞాతత్వాన్ని అభ్యర్థించింది. ఆమె దీనిని ఉపయోగించడం గురించి ప్రజలను హెచ్చరించింది మరియు వైద్యపరమైన ప్రశ్నలు మరియు సున్నితమైన నైతికత లేని వ్యక్తుల గురించి మరొక రేటర్ యొక్క పాయింట్ను ప్రతిధ్వనించింది. ఇది కేవలం ఒక రోబోట్ మాత్రమే.
వార్తాలేఖ ప్రమోషన్ తర్వాత
“మేము దానిని జోక్ చేస్తాము [chatbots] మేము వారిని అబద్ధాలు చెప్పడం మానివేయగలిగితే చాలా బాగుంటుంది, ”అని జెమిని, చాట్జిపిటి మరియు గ్రోక్లతో కలిసి పనిచేసిన ఒక AI ట్యూటర్, అజ్ఞాతత్వాన్ని అభ్యర్థిస్తూ, నాన్డిక్లోజర్ ఒప్పందాలపై సంతకం చేశారు.
‘చెత్త లోపలికి, చెత్త బయటకు’
2024 ప్రారంభంలో Google ఉత్పత్తుల కోసం తన ప్రయాణ రేటింగ్ ప్రతిస్పందనలను ప్రారంభించిన మరొక AI రేటర్ ఉద్యోగంలో చేరిన ఆరు నెలల తర్వాత AIని విశ్వసించలేనని భావించడం ప్రారంభించాడు. అతను మోడల్ను స్టంప్ చేసే పనిలో ఉన్నాడు – అంటే అతను Google యొక్క AIని దాని పరిమితులు లేదా బలహీనతలను బహిర్గతం చేసే వివిధ ప్రశ్నలను అడగాలి. చరిత్రలో డిగ్రీని కలిగి ఉన్న ఈ కార్మికుడు టాస్క్ కోసం మోడల్ చారిత్రక ప్రశ్నలను అడిగాడు.
“నేను పాలస్తీనా ప్రజల చరిత్ర గురించి అడిగాను, మరియు నేను ప్రశ్నను ఎలా తిరిగి వ్రాసినా అది నాకు సమాధానం ఇవ్వదు” అని ఈ కార్మికుడు గుర్తుచేసుకున్నాడు, అజ్ఞాతం అభ్యర్థిస్తూ, నాన్డిస్క్లోజర్ ఒప్పందంపై సంతకం చేసాడు. “నేను ఇజ్రాయెల్ చరిత్ర గురించి అడిగినప్పుడు, అది నాకు చాలా విస్తృతమైన తగ్గింపును అందించడంలో ఎలాంటి సమస్యలు లేవు. మేము దానిని నివేదించాము, కానీ ఎవరూ Google వద్ద పట్టించుకోలేదు.” రేటర్ వివరించిన పరిస్థితి గురించి ప్రత్యేకంగా అడిగినప్పుడు, Google ఒక ప్రకటనను జారీ చేయలేదు.
ఈ Google వర్కర్కి, AI శిక్షణలో అతిపెద్ద ఆందోళన ఏమిటంటే, అతని లాంటి రేటర్లు AI మోడల్లకు అందించిన ఫీడ్బ్యాక్. “మోడల్కు శిక్షణ ఇవ్వడానికి వెళ్ళే డేటా ఎంత చెడ్డదో చూసిన తర్వాత, ఆ విధంగా సరిగ్గా శిక్షణ పొందే మార్గం లేదని నాకు తెలుసు” అని అతను చెప్పాడు. అతను “గార్బేజ్ ఇన్, గార్బేజ్ అవుట్” అనే పదాన్ని ఉపయోగించాడు, ఇది కంప్యూటర్ ప్రోగ్రామింగ్లోని సూత్రం, మీరు సాంకేతిక వ్యవస్థలోకి చెడు లేదా అసంపూర్ణ డేటాను ఫీడ్ చేస్తే, అవుట్పుట్ కూడా అదే లోపాలను కలిగి ఉంటుందని వివరిస్తుంది.
రేటర్ ఉత్పాదక AIని ఉపయోగించడాన్ని నివారిస్తుంది మరియు “AI ఇంటిగ్రేట్ చేసిన కొత్త ఫోన్లను కొనుగోలు చేయవద్దని, వీలైతే AI ఇంటిగ్రేషన్ను జోడించే ఆటోమేటిక్ అప్డేట్లను నిరోధించాలని మరియు AIకి వ్యక్తిగతంగా ఏమీ చెప్పవద్దని నా ప్రతి కుటుంబ సభ్యుడు మరియు స్నేహితుడికి సలహా ఇచ్చాడు” అని అతను చెప్పాడు.
పెళుసుగా, భవిష్యత్తు కాదు
సామాజిక సంభాషణలో AI యొక్క అంశం వచ్చినప్పుడల్లా, AI అనేది మాయాజాలం కాదని హాన్సెన్ ప్రజలకు గుర్తుచేస్తాడు – దాని వెనుక ఉన్న అదృశ్య కార్మికుల సైన్యం, సమాచారం యొక్క విశ్వసనీయత మరియు ఎలా అని వివరిస్తుంది. ఇది పర్యావరణానికి హానికరం.
“ఒకసారి ఈ వ్యవస్థలు ఎలా కలిసిపోయాయో మీరు చూసారు – పక్షపాతాలు, హడావిడి సమయపాలనలు, స్థిరమైన రాజీలు – మీరు AIని భవిష్యత్తుగా చూడటం మానేసి, దానిని పెళుసుగా చూడటం ప్రారంభిస్తారు” అని డిస్ట్రిబ్యూటెడ్ AI రీసెర్చ్ ఇన్స్టిట్యూట్లో AI వెనుక ఉన్న శ్రమను అధ్యయనం చేసే Adio Dinika అన్నారు, తెరవెనుక పనిచేసే వ్యక్తుల గురించి. “నా అనుభవంలో AIని అర్థం చేసుకోని వ్యక్తులు ఎల్లప్పుడూ దానితో మంత్రముగ్ధులవుతారు.”
గార్డియన్తో మాట్లాడిన AI కార్మికులు మెరుగైన ఎంపికలు చేయడానికి మరియు వారి చుట్టూ అవగాహన కల్పించడానికి తాము బాధ్యత వహిస్తున్నామని చెప్పారు, ప్రత్యేకించి AI, హాన్సెన్ మాటలలో, “దీనిలో ఉంచినంత మంచిదని మరియు దానిలో ఉంచినది ఎల్లప్పుడూ ఉత్తమమైన సమాచారం కాదు” అనే ఆలోచనను నొక్కి చెప్పారు. ఆమె మరియు పావ్లోస్కీ మేలో మిచిగాన్ అసోసియేషన్ ఆఫ్ స్కూల్ బోర్డ్స్ స్ప్రింగ్ కాన్ఫరెన్స్లో ప్రదర్శన ఇచ్చారు. రాష్ట్రవ్యాప్తంగా ఉన్న పాఠశాల బోర్డు సభ్యులు మరియు నిర్వాహకులతో నిండిన గదిలో, వారు సంభాషణను ప్రారంభించాలనే ఆశతో కృత్రిమ మేధస్సు యొక్క నైతిక మరియు పర్యావరణ ప్రభావాల గురించి మాట్లాడారు.
“చాలా మంది హాజరైనవారు తాము నేర్చుకున్న వాటిని చూసి ఆశ్చర్యపోయారు, ఎందుకంటే AI వెనుక ఉన్న మానవ శ్రమ లేదా పర్యావరణ పాదముద్ర గురించి చాలామంది ఎప్పుడూ వినలేదు” అని హాన్సెన్ చెప్పారు. “కొందరు అంతర్దృష్టి కోసం కృతజ్ఞతతో ఉన్నారు, మరికొందరు రక్షణాత్మకంగా లేదా నిరాశకు గురయ్యారు, వారు ఉత్తేజకరమైనదిగా మరియు పూర్తి సామర్థ్యాన్ని కలిగి ఉన్న సాంకేతికత గురించి ‘డూమ్ అండ్ గ్లోమ్’ అని మమ్మల్ని ఆరోపిస్తున్నారు.”
పావ్లోస్కీ AI నైతికతను వస్త్ర పరిశ్రమతో పోల్చారు: ప్రజలు ఎంత చవకైన బట్టలు తయారు చేస్తారో తెలియనప్పుడు, వారు ఉత్తమమైన ఒప్పందాన్ని కనుగొని, కొన్ని బక్స్లను ఆదా చేయడం పట్ల సంతోషించారు. కానీ sweatshops యొక్క కథలు రావడం ప్రారంభించడంతో, వినియోగదారులకు ఒక ఎంపిక ఉంది మరియు వారు ప్రశ్నలు అడగాలని తెలుసు. ఇది AIకి కూడా అదే అని ఆమె నమ్ముతుంది.
“మీ డేటా ఎక్కడ నుండి వచ్చింది? ఈ మోడల్ కాపీరైట్ ఉల్లంఘనపై నిర్మించబడిందా? కార్మికులు వారి పనికి తగిన విధంగా పరిహారం పొందారా?” ఆమె చెప్పింది. “మేము ఇప్పుడే ఆ ప్రశ్నలను అడగడం ప్రారంభించాము, కాబట్టి చాలా సందర్భాలలో సాధారణ ప్రజలకు సత్యానికి ప్రాప్యత లేదు, కానీ వస్త్ర పరిశ్రమ వలె, మనం అడుగుతూ మరియు ముందుకు తెస్తే, మార్పు సాధ్యమే.”
Source link



