Games

దుర్వినియోగ చిత్రాలను సృష్టించే AI సాధనాల సామర్థ్యాన్ని పరీక్షించడానికి టెక్ కంపెనీలు మరియు UK పిల్లల భద్రతా ఏజెన్సీలు | కృత్రిమ మేధస్సు (AI)

కృత్రిమ మేధస్సు సాధనాలు ఉత్పత్తి చేయగలవో లేదో పరీక్షించే అధికారం టెక్ కంపెనీలు మరియు పిల్లల రక్షణ ఏజెన్సీలకు ఇవ్వబడుతుంది పిల్లల దుర్వినియోగ చిత్రాలు కొత్త UK చట్టం ప్రకారం.

AI- ఉత్పత్తి చేయబడిన పిల్లల లైంగిక వేధింపుల మెటీరియల్ నివేదికలు అని సేఫ్టీ వాచ్‌డాగ్ వెల్లడించడంతో ఈ ప్రకటన చేయబడింది [CSAM] గత సంవత్సరంలో 2024లో 199 నుండి 2025లో 426కి రెండింతలు పెరిగాయి.

మార్పు ప్రకారం, ప్రభుత్వం నియమించబడిన AI కంపెనీలు మరియు పిల్లల భద్రతా సంస్థలకు AI నమూనాలను – ChatGPT వంటి చాట్‌బాట్‌ల కోసం అంతర్లీన సాంకేతికత మరియు Google యొక్క Veo 3 వంటి ఇమేజ్ జనరేటర్‌లను పరిశీలించడానికి అనుమతిని ఇస్తుంది మరియు వాటిని నిరోధించడానికి వారికి రక్షణలు ఉన్నాయని నిర్ధారించుకోండి. పిల్లల లైంగిక వేధింపుల చిత్రాలను సృష్టించడం.

AI మరియు ఆన్‌లైన్ భద్రత మంత్రి కనిష్క నారాయణ్, ఈ చర్య “అంతిమంగా దుర్వినియోగం జరగకముందే ఆపడం” అని అన్నారు, “నిపుణులు, కఠినమైన పరిస్థితులలో, ఇప్పుడు AI మోడల్‌లలో ప్రమాదాన్ని ముందుగానే గుర్తించగలరు.”

CSAMని సృష్టించడం మరియు కలిగి ఉండటం చట్టవిరుద్ధం కాబట్టి మార్పులు ప్రవేశపెట్టబడ్డాయి, అంటే AI డెవలపర్‌లు మరియు ఇతరులు పరీక్షా విధానంలో భాగంగా అలాంటి చిత్రాలను సృష్టించలేరు. ఇప్పటి వరకు, అధికారులు AI- రూపొందించిన CSAMని ఆన్‌లైన్‌లో అప్‌లోడ్ చేసే వరకు వేచి ఉండాల్సి వచ్చింది. ఈ చట్టం మూలం వద్ద ఆ చిత్రాలను సృష్టించడాన్ని నిరోధించడంలో సహాయం చేయడం ద్వారా ఆ సమస్యను అధిగమించడానికి ఉద్దేశించబడింది.

నేరం మరియు పోలీసింగ్ బిల్లుకు సవరణలుగా ప్రభుత్వం ఈ మార్పులను ప్రవేశపెడుతోంది, ఇది చట్టాన్ని కూడా ప్రవేశపెడుతోంది. AI మోడల్‌లను కలిగి ఉండటం, సృష్టించడం లేదా పంపిణీ చేయడంపై నిషేధం పిల్లల లైంగిక వేధింపుల మెటీరియల్‌ని రూపొందించడానికి రూపొందించబడింది.

ఈ వారం నారాయణ్ పిల్లల కోసం హెల్ప్‌లైన్ అయిన చైల్డ్‌లైన్ యొక్క లండన్ స్థావరాన్ని సందర్శించారు మరియు AI ఆధారిత దుర్వినియోగ నివేదికను కలిగి ఉన్న కౌన్సెలర్‌లకు చేసిన కాల్ యొక్క మాక్-అప్‌ను విన్నారు. కాల్ సహాయం కోరుతున్న యువకుడి పాత్రను చిత్రీకరించింది అతను బ్లాక్ మెయిల్ చేయబడ్డాడు AI ఉపయోగించి నిర్మించబడిన తన యొక్క లైంగిక డీప్‌ఫేక్ ద్వారా.

“పిల్లలు ఆన్‌లైన్‌లో బ్లాక్‌మెయిల్‌ను ఎదుర్కొంటున్నారని నేను విన్నప్పుడు, అది నాలో విపరీతమైన కోపం మరియు తల్లిదండ్రులలో సరైన కోపం కలిగిస్తుంది” అని అతను చెప్పాడు.

CSAMను ఆన్‌లైన్‌లో పర్యవేక్షిస్తున్న ఇంటర్నెట్ వాచ్ ఫౌండేషన్, AI- రూపొందించిన దుర్వినియోగ మెటీరియల్ నివేదికలు – బహుళ చిత్రాలను కలిగి ఉండే వెబ్‌పేజీ వంటివి – ఈ సంవత్సరం ఇప్పటివరకు రెట్టింపు కంటే ఎక్కువ పెరిగాయి. కేటగిరీ A మెటీరియల్ యొక్క సందర్భాలు – దుర్వినియోగం యొక్క అత్యంత తీవ్రమైన రూపం – 2,621 చిత్రాలు లేదా వీడియోల నుండి 3,086కి పెరిగింది.

2025లో 94% చట్టవిరుద్ధమైన AI చిత్రాలను కలిగి ఉన్న బాలికలు అత్యధికంగా లక్ష్యంగా చేసుకున్నారు, అయితే నవజాత శిశువుల నుండి రెండేళ్ల వయస్సు గల వారి వర్ణనలు 2024లో ఐదు నుండి 2025లో 92కి పెరిగాయి.

ఇంటర్నెట్ వాచ్ ఫౌండేషన్ యొక్క చీఫ్ ఎగ్జిక్యూటివ్ కెర్రీ స్మిత్, చట్ట మార్పు “AI ఉత్పత్తులు విడుదలయ్యే ముందు సురక్షితంగా ఉన్నాయని నిర్ధారించుకోవడానికి ఒక ముఖ్యమైన దశ” అని అన్నారు.

“AI సాధనాలు దీన్ని తయారు చేశాయి, కాబట్టి ప్రాణాలతో బయటపడినవారిని కొన్ని క్లిక్‌లతో మళ్లీ బాధితులుగా మార్చవచ్చు, నేరస్థులకు అపరిమిత మొత్తంలో అధునాతనమైన, ఫోటోరియలిస్టిక్ పిల్లల లైంగిక వేధింపుల మెటీరియల్‌ని తయారు చేయగల సామర్థ్యాన్ని ఇస్తుంది” అని ఆమె చెప్పారు. “బాధితుల బాధలను మరింతగా మార్చే పదార్థం, మరియు పిల్లలను, ముఖ్యంగా బాలికలను ఆన్‌లైన్‌లో మరియు ఆఫ్‌లైన్‌లో తక్కువ సురక్షితంగా చేస్తుంది.”

AI ప్రస్తావించబడిన కౌన్సెలింగ్ సెషన్‌ల వివరాలను కూడా చైల్డ్‌లైన్ విడుదల చేసింది. సంభాషణలలో పేర్కొన్న AI హానిలు: బరువు, శరీరం మరియు రూపాన్ని రేట్ చేయడానికి AIని ఉపయోగించడం; దుర్వినియోగం గురించి సురక్షితమైన పెద్దలతో మాట్లాడకుండా పిల్లలను నిరోధించే చాట్‌బాట్‌లు; AI- రూపొందించిన కంటెంట్‌తో ఆన్‌లైన్‌లో బెదిరింపులకు గురవుతున్నారు; మరియు AI-నకిలీ చిత్రాలను ఉపయోగించి ఆన్‌లైన్ బ్లాక్‌మెయిల్.

ఈ సంవత్సరం ఏప్రిల్ మరియు సెప్టెంబర్ మధ్య, చైల్డ్‌లైన్ 367 కౌన్సెలింగ్ సెషన్‌లను అందించింది, ఇక్కడ AI, చాట్‌బాట్‌లు మరియు సంబంధిత నిబంధనలు ప్రస్తావించబడ్డాయి, గత ఏడాది ఇదే కాలంలో నాలుగు రెట్లు ఎక్కువ. 2025 సెషన్‌లలో AI ప్రస్తావనలలో సగం మానసిక ఆరోగ్యం మరియు శ్రేయస్సుకు సంబంధించినవి, సపోర్ట్ మరియు AI థెరపీ యాప్‌ల కోసం చాట్‌బాట్‌లను ఉపయోగించడంతో సహా.


Source link

Related Articles

Back to top button