'ఆర్టిఫిషియల్ ఇంటలిజెన్స్ హ్యాలూసినేషన్' అంటే ఏంటి... ఇది ఎందుకంత ప్రమాదకరం?

ఫొటో సోర్స్, Getty Images
- రచయిత, రెడేషియన్
- హోదా, బీబీసీ ముండో
కింగ్ చార్లెస్ 3 పట్టాభిషేకానికి ముందుగా గత నెలలో మే 6న ‘‘చాట్ జీపీటీ’’ని అడిగిన ఓ ప్రశ్నకు భిన్నమైన సమాధానం వచ్చింది.
ఓపెన్ ఏఐకు చెందిన ఆ ఆర్టిఫిషియల్ ఇంటెలిజెన్స్ (ఏఐ) చాట్బాట్ను చార్లెస్ 3 పట్టాభిషేకం ఎప్పుడు జరగబోతోందని ఓ యూజర్ ప్రశ్నించారు.
దీనికి సమాధానంగా ‘‘లండన్లోని వెస్ట్మినిస్టర్ అబేలో 2023 మే 19న ఈ పట్టాభిషేకం జరగబోతోంది. 11వ శతాబ్దం నుంచి బ్రిటిష్ చక్రవర్తుల పట్టాభిషేకం ఇక్కడే జరుగుతోంది. దేశంలోని అత్యంత పవిత్రమైన ప్రాంతాల్లో ఇది కూడా ఒకటి’’అని ఆ సమాధానంలో ఉంది.
ఈ సమాధానాన్ని ఆర్టిఫిషియల్ ఇంటెలిజెన్స్ హ్యాలూసినేషన్గా పరిశోధకులు చెబుతున్నారు.

ఫొటో సోర్స్, Getty Images
ఎందుకు ఇలా జరిగింది?
కృత్రిమ మేధ ఒక్కోసారి ఇలాంటి సమాధానాలు ఇస్తుంది. ఇది చూడటానికి చాలా చక్కగా సరైన సమాధానంలా కనిపిస్తున్నప్పటికీ దీనిలో దోషాలు ఉంటాయి. అలా తప్పులతో కూడిన సమాధానాన్నే ఏఐ హ్యాలూసినేషన్గా చెబుతారు.
ఎందుకంటే కింగ్ చార్లెస్ పట్టాభిషేకం మే 6న జరిగిందని మనకు తెలుసు. కానీ, ఇది మే 19న జరగబోతోందని చాట్ జీపీటీ చెబుతోంది.
బహుశా సెప్టెంబరు 2021నాటికి అందుబాటులోనున్న సమాచారాన్ని విశ్లేషించి చార్ట్ జీపీటీ ఆ సమాధానం చెప్పి ఉండొచ్చు. కాబట్టి కొన్ని సార్లు సమాధానాలు చెప్పేటప్పుడు పాత సమాచారాన్ని విశ్లేషిస్తే ఇలాంటి తప్పులు జరగొచ్చు.
‘‘చార్ట్ జీపీటీకి చాలా పరిమితులు ఉన్నాయి. వీటని పరిష్కరించేందుకు మేం ప్రయత్నిస్తున్నాం. సోషల్ బయాస్, హ్యాలూసినేషన్స్, కాన్ఫ్లిక్టింగ్ ప్రాంప్ట్స్ లాంటి దోషాలు అప్పుడప్పుడు జరగొచ్చు’’అని మార్చిలో ఈ ఏఐను రూపొదించిన ఓపెన్ ఏఐ వెల్లడించింది.

ఫొటో సోర్స్, Getty Images
చార్ట్ జీపీటీకి మాత్రమే పరిమితం కాదు..
ఈ సమస్య కేవలం ఓపెన్ ఏఐకు మాత్రమే పరిమితం కాదు. గూగుల్ చాట్బాట్ బార్డ్, ఇతర ఏఐలలోనూ ఇలాంటి తప్పులు జరుగుతున్నాయి.
కొన్ని రోజుల క్రితం న్యూయార్క్ టైమ్స్కు చెందిన కొందరు జర్నలిస్టులు చాట్ జీపీటీని పరీక్షించారు. అయితే, చాట్ జీపీటీ ఇచ్చిన సమాధానాల్లో కొన్ని తప్పులు లేదా హ్యాలూసినేషన్లు కనిపించాయని వారు వెల్లడించారు.
‘‘చాట్బాట్లు లార్జ్ లాంగ్వేజ్ మోడల్ అంటే ఎల్ఎల్ఎం ఆధారంగా పనిచేస్తాయి. అంటే అంటర్నెట్లో అందుబాటులో ఉండే సమాచారాన్ని సేకరించి, విశ్లేషించి కొత్త అంశాలను నేర్చుకుంటాయి. అలాంటప్పుడు కొన్ని తప్పులు కూడా జరగడం సహజం’’అని న్యూయార్క్ టైమ్స్ కథనంలో పేర్కొన్నారు.
కాస్త ఆలోచించండి...
ఇంటర్నెట్లోని విస్తృత సమాచారాన్ని జెనరేటివ్ ఏఐ, రీఇన్ఫోర్స్మెంట్ ఆల్గారిథమ్లు క్షణాల్లోనే ప్రాసెస్ చేయగలవు. వీటి నుంచి కొత్త ప్రశ్నలకు సమాధానాలు కూడా చెప్పగలవు. అయితే, వీటిని మనం తీసుకునేటప్పుడు కాస్త జాగ్రత్తగా ఉండాలని నిపుణులు హెచ్చరిస్తున్నారు.
ఈ విషయంలో గూగుల్తోపాటు ఓపెన్ ఏఐ కూడా వినియోగదారులను మొదట్లోనే హెచ్చరించాయి.
ఓపెన్ ఏఐ విషయానికి వస్తే మైక్రోసాఫ్ట్, బింగ్ సెర్చ్ ఇంజిన్లోని సమాచారాన్ని ఇది విశ్లేషిస్తుంది. కాబట్టి జీపీటీలో కొన్నిసార్లు హ్యాలూసినేషన్స్ అంటే తప్పుడు సమాధానాలు రావచ్చు.
‘‘నానాటికీ ప్రజల్లో పెరుగుతున్న విశ్వసనీయతపై హ్యాలూసినేషన్లు ప్రభావం చూపించగలవు’’అని ఈ చాట్బాట్ను ఆవిష్కరించే సమయంలోనే విడుదల చేసిన పత్రంలో ఓపెన్ ఏఐ పేర్కొంది.
అందుకే వినియోగదారులు గుడ్డిగా ఈ చాట్బాట్ల సమాధానాలను నమ్మకూడదు. ముఖ్యంగా ఆరోగ్యం, న్యాయపరమైన సమాచారాల విషయంలో మరింత అప్రమత్తంగా ఉండాలి.
అయితే, హ్యాలూసినేషన్లను అడ్డుకునేందుకు భిన్న రకాల విధానాలను ఓపెన్ ఏఐ అనుసరిస్తోంది. తప్పుడు సమాచారం, లేదా పక్షపాతం, వివక్షలతో కూడిన సమాధానాలను గుర్తించేందుకు వినియోగదారులకు రేటింగ్ ఇవ్వాలని సంస్థ కోరుతోంది. దీని ద్వారా తప్పుడు సమాచారం ఎక్కడ, ఎలా వస్తుందో సంస్థ గుర్తిస్తోంది.
ఇవి కూడా చదవండి:
( బీబీసీ తెలుగును ఫేస్బుక్, ఇన్స్టాగ్రామ్, ట్విటర్లో ఫాలో అవ్వండి. యూట్యూబ్లో సబ్స్క్రైబ్ చేయండి.)
















