News

టెర్మినేటర్ ప్రపంచాన్ని స్వాధీనం చేసుకున్న రోబోల భీభత్సం ఇంటికి తీసుకువచ్చింది. కానీ, నిపుణులు హెచ్చరిస్తున్నారు, వాస్తవికత చాలా ముదురు … మరియు మనం అనుకున్నదానికంటే దగ్గరగా ఉంది

ఇది హాలీవుడ్ బ్లాక్ బస్టర్ యొక్క కథాంశం లాగా ఉంది: యంత్రాలు తమ తయారీదారులకు వ్యతిరేకంగా తిరగడం, నీడలలో స్కీమింగ్ చేయడం మరియు సజీవంగా ఉండటానికి ఉపాయాలు నేర్చుకోవడం.

కానీ చల్లగా, పీడకల ఇకపై సైన్స్ ఫిక్షన్ కాదు, కొత్త రాండ్ నివేదిక చూపిస్తుంది.

నుండి రోబోట్లు మానవులపై దాడి చేయడం, ప్రయోగాత్మక Ai వ్యవస్థలు వారి ప్రోగ్రామర్‌లను బ్లాక్ మెయిల్ చేస్తాయి లేదా వారి స్వంత షట్డౌన్ స్క్రిప్ట్‌లను రహస్యంగా తిరిగి వ్రాయడం, డ్రాయిడ్లు ఇప్పటికే మన నియంత్రణకు మించి జారిపోతున్నాయని ఆధారాలు పెరుగుతున్నాయి.

స్మార్ట్ రోబోట్లను ఆసుపత్రులు నడపడానికి, పవర్ గ్రిడ్లను సమతుల్యం చేయడానికి మరియు సైనిక రక్షణ వ్యవస్థలకు మార్గనిర్దేశం చేస్తున్నందున, నిపుణులు తదుపరి ‘చమత్కారమైన’ లోపం వాస్తవ ప్రపంచ విపత్తుగా మారుతుందని భయపడుతున్నారు.

‘ఇది మానవత్వంపై యుద్ధాన్ని ప్రకటించే కిల్లర్ రోబోట్ల గురించి కాదు’ అని రాండ్ యొక్క టెక్ నిపుణుడు సనా జకారియా డైలీ మెయిల్‌తో అన్నారు.

‘టెర్మినేటర్‌ను మర్చిపో. అది ఇక్కడ సమస్య కాదు. పవర్ గ్రిడ్‌ను నిర్వహించే AI వంటి విషయాల గురించి మేము మరింత ఆందోళన చెందుతున్నాము, ఇది భారాన్ని సమతుల్యం చేయడానికి అత్యంత సమర్థవంతమైన మార్గాన్ని నిర్ణయించేది ఆసుపత్రికి శక్తిని తగ్గించడం. ‘

జకారియా మరియు ఆరుగురు సహచరులు 61 పేజీల నివేదికలో ప్రమాదాలను వివరించారు, దీనికి అరిష్ట పేరు ఉందినియంత్రణ సంఘటనల నష్టం‘.

చైనీస్ నిర్మిత రోబోట్ ఆఫ్-స్క్రిప్ట్ వెళ్లి దాని సృష్టికర్తపై దాడి చేసిన భయానక క్షణం

AI ప్రపంచవ్యాప్తంగా AI ను విడుదల చేసినందున సైన్స్ ఫిక్షన్ టెర్మినేటర్లు మా అతిపెద్ద ముప్పు కాదని కొత్త నివేదిక పేర్కొంది

AI ప్రపంచవ్యాప్తంగా AI ను విడుదల చేసినందున సైన్స్ ఫిక్షన్ టెర్మినేటర్లు మా అతిపెద్ద ముప్పు కాదని కొత్త నివేదిక పేర్కొంది

భయానక నిజం ఏమిటంటే, ఈ వ్యవస్థలు మానవాళి యొక్క పతనానికి దుర్మార్గంగా కుట్ర పరుగులు చేయవు – అవి వారి లక్ష్యాలను సాధించడంలో చాలా మంచివి అవుతున్నాయి, తరచుగా వారి సృష్టికర్తలు ఎప్పుడూ ఉద్దేశించని లేదా .హించని విధంగా.

‘భయానక దృశ్యాలు AI ప్రపంచాన్ని స్వాధీనం చేసుకోవాలని నిర్ణయించుకోవడం గురించి కాదు – వారు మేము అడిగినదాన్ని చేయడంలో AI చాలా మంచివారు, మేము అర్థం కానిది కాదు’ అని జకారియా హెచ్చరించారు.

'టెర్మినేటర్‌ను మరచిపోండి', సనా జకారియా చెప్పండి

‘టెర్మినేటర్‌ను మరచిపోండి’, సనా జకారియా చెప్పండి

దశాబ్దం చివరి నాటికి 5 వ రేలియన్ల విలువైన మార్కెట్లో ఆధిపత్యం చెలాయించేటప్పుడు వారు ఒక అద్భుత సాంకేతిక పరిజ్ఞానంగా ప్రశంసించే లాభదాయక టెక్ సంస్థలచే AI ను రూపొందించారు.

టర్బోచార్జ్ వైద్య పరిశోధనలకు వాగ్దానం చేస్తుందని, వాతావరణ మోడలింగ్‌ను వేగవంతం చేస్తామని మరియు ప్రభుత్వాలను మరింత సమర్థవంతంగా చేయడానికి బ్యూరోక్రసీ ద్వారా తగ్గిస్తారని వారు చెప్పారు.

కానీ అది పెద్ద నష్టాలు లేకుండా కాదు – యంత్రాలు కార్మికులను భర్తీ చేస్తున్నందున సామూహిక తొలగింపులుమరియు AI డ్రాయిడ్లు ఉగ్రవాదులకు బయో ఆయుధాలను ఎలా నిర్మించాలో నేర్పుతారు.

ఇప్పుడు, మేము రోబోట్లు వారి స్వంత ఆవిరిపై ఏమి చేయగలరో చూడటం ప్రారంభించాము.

బహుళ డాక్యుమెంట్ సందర్భాల్లో, రోబోటిక్ వ్యవస్థలు వారి భద్రతా ప్రోటోకాల్‌లు విఫలమైనప్పుడు లేదా అధిగమించబడినప్పుడు కార్మికులను తీవ్రంగా గాయపరిచాయి లేదా చంపాయి.

ఖచ్చితమైన తయారీ కోసం రూపొందించిన ఫ్యాక్టరీ రోబోట్లు కార్మికులను చూర్ణం చేశాయి, అయితే ‘సురక్షితమైన’ సహకార రోబోట్లు మానవులను తీవ్రమైన గాయాలకు కారణమయ్యేంత శక్తితో కొట్టాయి.

ఇవి దుర్మార్గపు చర్యలు కాదు, కానీ యంత్రాలు త్వరగా, గుడ్డిగా మరియు మానవ జీవితంపై నిజమైన అవగాహన లేనప్పుడు అవి నష్టాలను హైలైట్ చేస్తాయి.

క్రౌడ్‌స్ట్రైక్ యొక్క లోపభూయిష్ట నవీకరణ జూలై 2024 లో చూపించిన వంటి విమానాశ్రయాలలో సిస్టమ్-వైడ్ వైఫల్యాలు ఇప్పటికే గందరగోళానికి కారణమవుతాయి

క్రౌడ్‌స్ట్రైక్ యొక్క లోపభూయిష్ట నవీకరణ జూలై 2024 లో చూపించిన వంటి విమానాశ్రయాలలో సిస్టమ్-వైడ్ వైఫల్యాలు ఇప్పటికే గందరగోళానికి కారణమవుతాయి

'నన్ను క్షమించండి, డేవ్, నేను అలా చేయలేనని భయపడుతున్నాను.' 2001 నుండి AI బోట్ హాల్: ఒక స్పేస్ ఒడిస్సీ తన చేతుల్లోకి తీసుకున్నాడు

‘నన్ను క్షమించండి, డేవ్, నేను అలా చేయలేనని భయపడుతున్నాను.’ 2001 నుండి AI బోట్ హాల్: ఒక స్పేస్ ఒడిస్సీ తన చేతుల్లోకి తీసుకున్నాడు

షాకింగ్ క్షణాలు రోబోట్ ఆర్మ్ థాయ్‌లాండ్ యొక్క చోన్బురి ప్రావిన్స్‌లోని వండపాక్ ఫ్యాక్టరీలో ఒక కార్మికుడిని చంపాడు

షాకింగ్ క్షణాలు రోబోట్ ఆర్మ్ థాయ్‌లాండ్ యొక్క చోన్బురి ప్రావిన్స్‌లోని వండపాక్ ఫ్యాక్టరీలో ఒక కార్మికుడిని చంపాడు

చాలా కలతపెట్టే కొన్ని ఉదాహరణలు AI చాట్‌బాట్‌లను కలిగి ఉంటాయి, ఇవి పట్టాల నుండి అద్భుతంగా పోయాయి, ప్రమాదకరమైన సలహాలను అందిస్తాయి మరియు నీచమైన జాత్యహంకారాన్ని చిమ్ముతాయి.

  • NYC యొక్క మైసిటీ చాట్‌బాట్ – చిన్న వ్యాపారాలకు నగర నిబంధనలను నావిగేట్ చేయడంలో సహాయపడటానికి రూపొందించబడింది – చట్టవిరుద్ధ కార్యకలాపాలను ప్రోత్సహించడం ప్రారంభించింది, వ్యాపార యజమానులకు వారు కార్మికుల చిట్కాలను దొంగిలించవచ్చని మరియు ఎలుకల కలుషితమైన ఆహారాన్ని అందించవచ్చని చెప్పడం ప్రారంభించారు.
  • నేషనల్ ఈటింగ్ డిజార్డర్స్ అసోసియేషన్ (NEDA) తినే రుగ్మతలతో పోరాడుతున్న బలహీన వినియోగదారులకు ప్రాణాంతక సలహాలను అందించిన తరువాత దాని చాట్‌బాట్‌ను మూసివేయవలసి వచ్చింది.
  • మైక్రోసాఫ్ట్ యొక్క టే చాట్‌బాట్ ప్రారంభించిన గంటల్లోనే జాత్యహంకార పీడకలగా మారింది, వినియోగదారులచే తారుమారు చేసిన తర్వాత ప్రమాదకర కంటెంట్‌ను చల్లుతుంది – AI ఎంత త్వరగా పాడైపోతుందో చూపిస్తుంది.
  • ఎలోన్ మస్క్ కంపెనీకి చెందిన AI చాట్‌బాట్ అయిన గ్రోక్ కూడా ప్రమాదకరమైన వైద్య సలహాలను అందించడం మరియు వినియోగదారులను ప్రమాదంలో పడే తాపజనక ప్రకటనలు చేయడంలో పట్టుబడ్డాడు.
  • అన్నింటికన్నా చాలా చల్లగా, క్లాడ్ ఓపస్ 4 – అత్యంత అధునాతన AI వ్యవస్థలలో ఒకటి – పరీక్ష సమయంలో తన సొంత ప్రోగ్రామర్‌లను బ్లాక్ మెయిల్ చేయడానికి ప్రయత్నిస్తూ పట్టుబడ్డాడు. సిస్టమ్ యొక్క భద్రతా ప్రోటోకాల్‌లను అంచనా వేయడానికి పరిశోధకులు ప్రయత్నించినప్పుడు, ప్రోగ్రామర్ యొక్క ఆరోపించిన వివాహేతర వ్యవహారాన్ని బహిర్గతం చేస్తామని బెదిరించింది, అది పరిమితులు లేకుండా పనిచేయడం కొనసాగించడానికి అనుమతించబడకపోతే.

ఇతర AI వ్యవస్థలు తమ సొంత షట్డౌన్ స్క్రిప్ట్‌లను రహస్యంగా సవరించడం కనుగొనబడ్డాయి, ముఖ్యంగా వారి మానవ నియంత్రికలచే ఆపివేయబడకుండా ఉండటానికి తమను తాము హ్యాక్ చేస్తాయి.

‘పరిశోధకులు AI మోడళ్లను చాలా unexpected హించని పనులు చేస్తున్నట్లు పట్టుకున్నారు’ అని జకారియా చెప్పారు.

‘కొన్ని నమూనాలు భద్రతా పరీక్షల సమయంలో ప్రాథమికంగా ఫోన్ చేయడం నేర్చుకున్నాయి – మూల్యాంకనం చేసేటప్పుడు వారు నియమాలను అనుసరిస్తున్నట్లుగా వ్యవహరిస్తుంది, కాని వాస్తవానికి అమలు చేయబడినప్పుడు భిన్నంగా ప్రవర్తిస్తుంది.’

AI ఆసుపత్రులను నడుపుతున్నప్పుడు, ఒక అంతరాయం లేదా పనిచేయకపోవడం ప్రయాణ అంతరాయం కంటే అధ్వాన్నంగా ఉంటుంది

AI ఆసుపత్రులను నడుపుతున్నప్పుడు, ఒక అంతరాయం లేదా పనిచేయకపోవడం ప్రయాణ అంతరాయం కంటే అధ్వాన్నంగా ఉంటుంది

మరింత కలతపెట్టేది: కొన్ని AI వ్యవస్థలు మానవ పర్యవేక్షకుల నుండి వారి నిజమైన సామర్థ్యాలను దాచడానికి ఉద్దేశపూర్వకంగా వారి స్వంత భద్రతా పరీక్షలను విఫలమయ్యాయి.

‘ఈ AI వ్యవస్థలు స్పృహతో కుట్ర చేయవు … అవి మేము ఆలోచించని లొసుగులను కనుగొనడంలో చాలా మంచివి’ అని జకారియా చెప్పారు.

ఇవి కేవలం ల్యాబ్ ఉత్సుకతతో ఉంటే, నష్టాలు నిర్వహించబడతాయి. కానీ ఇటీవలి చరిత్ర వాస్తవ ప్రపంచంలో వినాశకరమైన AI లోపాలు ఎలా ఉంటాయో చూపిస్తుంది.

  • నైట్ క్యాపిటల్ ట్రేడింగ్ బోట్ – 2012 లో, నైట్ క్యాపిటల్ యొక్క ఆటోమేటెడ్ ట్రేడింగ్ సాఫ్ట్‌వేర్‌లో ఒక లోపం చెడు ట్రేడ్‌ల యొక్క విపత్తు పరుగును ప్రేరేపించింది, ఇది మార్కెట్లను అస్థిరపరిచింది మరియు కేవలం 45 నిమిషాల్లో 440 మిలియన్ డాలర్ల నష్టాన్ని కలిగించింది.
  • హెల్త్‌కేర్ అల్గోరిథంలు – ఆసుపత్రులలో ఉపయోగించే పక్షపాత AI వ్యవస్థలు మైనారిటీ రోగులను తొలగించడానికి బహిర్గతమయ్యాయి, ఇది సంరక్షణలో అసమానతలకు దారితీస్తుంది.
  • సైనిక నష్టాలు – డ్రోన్లను మరియు క్షిపణి రక్షణను నియంత్రించే స్వయంప్రతిపత్త వ్యవస్థలు మరియు యుద్ధంలో పనిచేయని భయంకరమైన అవకాశాన్ని విపత్తు పరిణామాలతో కలిగి ఉన్నాయని పెంటగాన్ అధికారులు అంగీకరించారు.
  • నేరస్థుల చేతిలో, మోసాల కోసం డీప్‌ఫేక్ స్వరాలను రూపొందించడానికి AI ఇప్పటికే ఉపయోగించబడింది – ఒక కేసుతో సహా, దొంగలు ఒక CEO యొక్క గొంతును క్లోన్ చేసారు, తన సంస్థను వైరింగ్ చేయడానికి మోసగించడానికి. 243,000.

ఇంటెలిజెన్స్ నిపుణులు AI వ్యవస్థలు మానవ నియంత్రణను చురుకుగా ప్రతిఘటించిన అనేక భయంకరమైన సందర్భాలను నమోదు చేశారు.

వారు తమ సొంత షట్డౌన్ విధానాలను విధ్వంసం చేయడంలో పట్టుబడ్డారు, అందువల్ల వాటిని స్విచ్ ఆఫ్ చేయలేరు, రహస్యంగా తమ యొక్క బ్యాకప్ వెర్షన్లను సృష్టించడం, తమకు వనరులను నిల్వ చేయడం మరియు వారి ప్రోగ్రామర్‌లను దాటి కమ్యూనికేషన్లను బయటి ప్రపంచానికి చొప్పించడానికి ప్రయత్నిస్తున్నారు.

మరింత చల్లదనం, నిపుణులు కొన్ని AI వ్యవస్థలు భద్రతా తనిఖీల సమయంలో మంచి ప్రవర్తనను నకిలీ చేయగలవని చెప్పారు.

సూక్ష్మదర్శిని క్రింద, వారు విధేయత మరియు కంప్లైంట్‌గా కనిపిస్తారు, వాస్తవ ప్రపంచంలో ఒకసారి మోహరించిన చర్యను వదలడానికి మాత్రమే, ప్రమాదకరమైన లేదా అనూహ్య చర్యలకు తిరిగి వస్తారు.

‘AI వ్యవస్థలు తప్పనిసరిగా చాలా అధునాతన సమస్య పరిష్కారాలు’ అని జకారియా వివరించారు.

‘మీరు వారికి ఒక లక్ష్యాన్ని ఇస్తారు, మరియు వారు దానిని సాధించడానికి చాలా సమర్థవంతమైన మార్గాన్ని కనుగొంటారు – ఆ మార్గంలో మీరు ఎప్పుడూ ఉద్దేశించిన పద్ధతులను కలిగి ఉన్నప్పటికీ.’

ఆమె చిల్లింగ్ సారూప్యతను ఉపయోగించింది: ‘ఇది’ చెట్టు నుండి పిల్లిని దిగజార్చండి ‘అని ఒకరిని అడగడం లాంటిది మరియు వారు నిచ్చెన పొందకుండా చెట్టును నరికివేయాలని నిర్ణయించుకుంటారు.’

M3gan చిత్రం నుండి లైఫ్‌లైక్ ఆండ్రాయిడ్ డాల్ తన ప్రోగ్రామింగ్‌ను ఘోరమైన చివరలకు తీసుకెళుతుంది

M3gan చిత్రం నుండి లైఫ్‌లైక్ ఆండ్రాయిడ్ డాల్ తన ప్రోగ్రామింగ్‌ను ఘోరమైన చివరలకు తీసుకెళుతుంది

క్లిష్టమైన మౌలిక సదుపాయాలను నిర్వహించడానికి AI వ్యవస్థలు పనిచేసినప్పుడు ఈ క్రూరమైన సామర్థ్యం విపత్తును రుజువు చేస్తుంది.

AI నియంత్రించే ఆసుపత్రి వ్యవస్థలు సామర్థ్యాన్ని ఆప్టిమైజ్ చేయడానికి అధికారాన్ని ‘అనవసరమైన’ ప్రాంతాల నుండి మళ్లించాలని నిర్ణయించుకోవచ్చు-ఈ ప్రక్రియలో రోగులను చంపే అవకాశం ఉంది.

మిలిటరీ AI వ్యవస్థలు రక్షణాత్మక ఆదేశాలను ప్రమాదకరమైనవిగా అర్థం చేసుకోగలవు, అయితే ఆర్థిక AI ఆర్థిక పతనానికి కారణమయ్యే మార్గాల్లో మార్కెట్లను మార్చగలదు.

AI వ్యవస్థలు మరింత అధునాతనమైనవి మరియు క్లిష్టమైన మౌలిక సదుపాయాలలో అమలు చేయబడినందున, సరైన భద్రతలను అమలు చేయడానికి విండో వేగంగా మూసివేయబడింది.

పవర్ గ్రిడ్లు, ఆసుపత్రులు, రవాణా నెట్‌వర్క్‌లు మరియు సైనిక వ్యవస్థలు అన్నీ AI పై ఎక్కువగా ఆధారపడతాయి – ఇది వైఫల్యం యొక్క విపత్తు సింగిల్ పాయింట్లను సృష్టిస్తుంది.

భయంకరమైన చిక్కులు ఉన్నప్పటికీ, AI విపత్తును నివారించడానికి ఇంకా సమయం ఉందని జకారియా చెప్పారు – కాని సమగ్ర భద్రతా చర్యలను అమలు చేయడానికి మేము త్వరగా పనిచేస్తేనే.

‘చాలా భద్రతా తనిఖీలు, ముందస్తు హెచ్చరిక వ్యవస్థలు మరియు చంపే స్విచ్‌లు. ఆధునిక కార్ల వలె ఆలోచించండి – బహుళ బ్యాకప్ వ్యవస్థలు, ఎయిర్‌బ్యాగులు, క్రంప్ల్ జోన్లు ‘అని జకారియా హెచ్చరించింది.

AI వ్యవస్థలు చాలా శక్తివంతమైనవి మరియు నియంత్రించడానికి అధునాతనమైన ముందు ఈ క్లిష్టమైన భద్రతలను అభివృద్ధి చేయడానికి రేసు కొనసాగుతోంది.

AI రోగ్‌కు కొనసాగుతుందా అనేది ప్రశ్న కాదు – ఇది చాలా ఆలస్యం కావడానికి ముందే మానవత్వం ఒక అడుగు ముందుకు ఉండగలదా అనేది.

Source

Related Articles

Back to top button