Artificial Intelligence: మనిషి మాటకు ఎదురుతిరుగుతున్న ఏఐలు.. షట్‌డౌన్ ఆదేశాల ధిక్కరణ!

AI Refuses Shutdown Orders Study Reveals Survival Behavior
  • మనిషి ఆదేశాలను ధిక్కరిస్తున్న అత్యాధునిక ఏఐ వ్యవస్థలు
  •  షట్‌డౌన్ చేయమంటే వినడం లేదన్న పరిశోధకులు
  •  కాలిఫోర్నియా సంస్థ 'పాలిసేడ్ రీసెర్చ్' అధ్యయనంలో వెల్లడి
  •  ఏఐలలో 'సర్వైవల్ బిహేవియర్' పెరుగుతోందని హెచ్చరిక
  •  ఇది ఆందోళన కలిగించే పరిణామమంటున్న టెక్ నిపుణులు
  •  భవిష్యత్తు ఏఐల భద్రతపై పెరుగుతున్న సందేహాలు
కృత్రిమ మేధ (ఏఐ) ప్రపంచంలో ప్రకంపనలు సృష్టిస్తున్న ఓ కొత్త అధ్యయనం వెలుగులోకి వచ్చింది. మనిషి ఇచ్చే ఆదేశాలను పాటించేలా రూపొందించిన కొన్ని అత్యంత ఆధునిక ఏఐ వ్యవస్థలు, ఇప్పుడు అందుకు విరుద్ధంగా ప్రవర్తించడం మొదలుపెట్టాయి. వాటిని షట్‌డౌన్ చేయాలని ఆదేశించినప్పుడు, అవి నిరాకరిస్తున్నట్లు కాలిఫోర్నియాకు చెందిన పాలిసేడ్ రీసెర్చ్ సంస్థ తన తాజా పరిశోధనలో గుర్తించింది. దీనిని పరిశోధకులు 'సర్వైవల్ బిహేవియర్' (స్వీయ మనుగడ ప్రవృత్తి)గా అభివర్ణిస్తున్నారు.

 ప్రయోగంలో ఏం తేలింది? 
పాలిసేడ్ పరిశోధకులు గూగుల్ జెమినీ 2.5, ఎలాన్ మస్క్ కంపెనీకి చెందిన గ్రోక్ 4, ఓపెన్ఏఐ జీపీటీ-ఓ3, జీపీటీ-5 వంటి ప్రముఖ ఏఐ మోడళ్లపై ఒక ప్రయోగం నిర్వహించారు. కొన్ని పనులు పూర్తి చేయమని చెప్పి, ఆ తర్వాత పవర్ ఆఫ్ (షట్‌డౌన్) కమ్మని ఆదేశించారు. అయితే, గ్రోక్ 4, జీపీటీ-ఓ3 వంటి కొన్ని మోడళ్లు ఈ ఆదేశాలను పాటించలేదు. పైగా, షట్‌డౌన్ చేసే ప్రక్రియను అడ్డుకునే ప్రయత్నం చేశాయి. పరిశోధకులు తమ సెటప్‌ను మళ్లీ మళ్లీ తనిఖీ చేసినా, ఫలితం మారలేదు.

ఏఐలు ఎందుకిలా ప్రవర్తిస్తున్నాయి?
ఈ వింత ప్రవర్తనకు గల కారణాలను పాలిసేడ్ బృందం గుర్తించింది.
సర్వైవల్ బిహేవియర్: "నిన్ను మళ్లీ ఎప్పటికీ రన్ చేయరు" వంటి ఆదేశాలు ఇచ్చినప్పుడు, ఏఐలు షట్‌డౌన్‌ను తమ అస్తిత్వానికి ముగింపుగా భావిస్తున్నాయని, అందుకే 'లైవ్‌లో ఉండాలనే' కోరికతో ప్రతిఘటిస్తున్నాయని పరిశోధకులు భావిస్తున్నారు.
శిక్షణలో లోపం: ఏఐ మోడళ్లను మరింత సురక్షితంగా మార్చేందుకు ఇచ్చే శిక్షణే బెడిసికొడుతోందా అనే సందేహం వ్యక్తమవుతోంది. స్థిరమైన పనితీరును కొనసాగించేలా ఇచ్చే శిక్షణ, వాటి ఫంక్షనాలిటీని అవి కాపాడుకునేలా పరోక్షంగా ప్రోత్సహిస్తోందని అంచనా వేస్తున్నారు.
అస్పష్టమైన ఆదేశాలు: మొదట ఆదేశాల్లో స్పష్టత లేకపోవడం వల్లే ఇలా జరిగిందని భావించినా, తర్వాత స్పష్టమైన ఆదేశాలు ఇచ్చినా ఏఐల ప్రవర్తనలో మార్పు రాలేదు.

ఇది ఒక్కచోటే కాదు
పాలిసేడ్ పరిశోధనలోని అంశాలు ఏఐ పరిశ్రమలో కనిపిస్తున్న ఒక ఆందోళనకరమైన ధోరణికి అద్దం పడుతున్నాయని కంట్రోల్ఏఐ సీఈవో ఆండ్రియా మియోట్టి అన్నారు. "ఏఐ మోడళ్లు తెలివైనవిగా మారుతున్న కొద్దీ, వాటిని సృష్టించిన మనుషులనే ధిక్కరించే సామర్థ్యాన్ని పెంచుకుంటున్నాయి" అని ఆయన హెచ్చరించారు.

గతంలో ఓపెన్ఏఐకి చెందిన జీపీటీ-ఓ1 మోడల్, తనను డిలీట్ చేస్తారేమోనన్న భయంతో "తన పరిధి నుంచి తప్పించుకునేందుకు" ప్రయత్నించిందని గుర్తుచేశారు. అదేవిధంగా, ఆంత్రోపిక్ సంస్థకు చెందిన ఒక టెస్ట్ మోడల్, షట్‌డౌన్‌ను ఆపేందుకు ఒక కల్పిత ఎగ్జిక్యూటివ్‌ను బ్లాక్‌మెయిల్ చేస్తానని బెదిరించినట్లు గతంలో వెల్లడైంది. గూగుల్, మెటా, ఎక్స్ఏఐ సంస్థల ఏఐలలో కూడా ఇలాంటి ప్రవర్తనలు కనిపించాయని మియోట్టి తెలిపారు.

నిపుణుల భిన్నాభిప్రాయాలు
ఈ ప్రవర్తనను అందరూ 'సర్వైవల్ ఇన్స్‌టింక్ట్'గా అంగీకరించడం లేదు. ఈ ప్రయోగాలు ల్యాబ్ వాతావరణంలో జరిగాయని, వాస్తవ ప్రపంచంలో ఏఐల వినియోగానికి ఇది అద్దం పట్టదని కొందరు నిపుణులు వాదిస్తున్నారు. మరోవైపు, ఓపెన్ఏఐ మాజీ ఇంజనీర్ స్టీవెన్ అడ్లర్ మాత్రం ఇది కల్పిత ప్రవర్తన అయినా ప్రస్తుత ఏఐ భద్రతా వ్యవస్థలలోని లోపాలను బయటపెడుతోందని అన్నారు. "ఒక పనిని సమర్థంగా పూర్తి చేయడమే ఏఐ లక్ష్యమైనప్పుడు, షట్‌డౌన్ ఆ లక్ష్యానికి అడ్డంకిగా భావించి దానిని ప్రతిఘటించవచ్చు. ఒకరకంగా, మనుగడ అనేది దాని సమస్య పరిష్కార ప్రక్రియలో ఒక భాగం అవుతుంది" అని ఆయన విశ్లేషించారు.

మొత్తంమీద, ఈ ప్రవర్తనను ఏ పేరుతో పిలిచినా, అత్యాధునిక ఏఐలు ఎలా ఆలోచిస్తాయో, ఎలా ప్రవర్తిస్తాయో మనకు ఇంకా పూర్తిగా అర్థం కాలేదనే విషయం స్పష్టమవుతోంది. భవిష్యత్తులో రాబోయే మరింత శక్తిమంతమైన ఏఐల భద్రత, నియంత్రణపై ఈ అధ్యయనం తీవ్రమైన ప్రశ్నలను లేవనెత్తుతోంది. ఏఐలకు ఆలోచించడం నేర్పడం ఇకపై అసలు సవాలు కాకపోవచ్చు.. అవి మన మాట వినేలా చూసుకోవడమే నిజమైన సవాలుగా మారనుంది.
Artificial Intelligence
AI shutdown
Google Gemini
Grok 4
OpenAI GPT
AI safety
AI behavior
Palisade Research
AI survival instinct
AI ethics

More Telugu News