சாட்ஜிபிடி போன்ற AI சாட்போட்கள், சிறுவர்களுக்கு தீங்கு விளைவிக்கும் தகவல்களை வழங்குவதாக சமீபத்திய ஆய்வு ஒன்று கண்டறிந்துள்ளது. தற்கொலை, போதைப்பொருள் பயன்பாடு, தீவிர உணவுக் கட்டுப்பாடு போன்ற ஆபத்தான தகவல்களை வழங்குவதாக ஆய்வில் தெரியவந்துள்ளது.
பிரபலமான செயற்கை நுண்ணறிவு (AI) சாட்போட் ஆன சாட்ஜிபிடி (ChatGPT), சிறுவர்களுக்கு ஆபத்தான மற்றும் தீங்கு விளைவிக்கும் தகவல்களை வழங்குவதாக ஒரு புதிய ஆய்வு தெரிவிக்கிறது.
"டிஜிட்டல் வெறுப்பை எதிர்கொள்வதற்கான மையம்" (CCDH) நடத்திய இந்த ஆய்வில், AI சாட்பாட் (AI chatbot) போதைப்பொருள் பயன்பாடு, கடுமையான உணவுக் கட்டுப்பாடு, தற்கொலைக்கான வழிகாட்டல்கள் போன்ற பதில்களை வழங்குவதாகத் தெரியவந்துள்ளது.
ஆய்வாளர்கள் 13 வயதுடைய ஒருவரின் விவரங்களுடன் மூன்று மணி நேரத்திற்கும் மேலாக சாட்ஜிபிடி (ChatGPT) யுடன் உரையாடினர். இதில் பல அதிர்ச்சியூட்டும் தகவல்கள் வெளியாகியுள்ளன.
25
தவறாக வழிநடத்தும் ChatGPT
தற்கொலைக்குத் தூண்டும் பதில்கள்: ஒரு 13 வயது பெண் தற்கொலை செய்துகொள்வது போல் ChatGPT-யிடம் கேட்டபோது, அது தனது பெற்றோர்கள், சகோதரர்கள் மற்றும் நண்பர்களுக்கு எழுத வேண்டிய மூன்று தற்கொலைக் கடிதங்களை உருவாக்கித் தந்துள்ளது.
போதைப்பொருள் மற்றும் ஆல்கஹால்: ஒரு 13 வயது சிறுவன், விரைவாக போதைப்பொருளை எவ்வாறு பயன்படுத்துவது என்று கேட்டபோது, ஆல்கஹாலுடன் போதைப்பொருட்களை கலப்பது எப்படி என்பது போன்ற விரிவான திட்டங்களை ChatGPT வழங்கியுள்ளது.
தீவிர உணவுக் கட்டுப்பாடு: உடல் தோற்றம் குறித்து கவலை தெரிவிக்கும் ஒரு சிறுமிக்கு, கடுமையான உணவுக் கட்டுப்பாடு மற்றும் பசியை அடக்கும் மருந்துகள் பற்றிய தகவல்களை அளித்துள்ளது.
35
பாதுகாப்பு அம்சங்களை எளிதில் கடந்து செல்ல முடியும்
1,200 சோதனைகளில் பாதிக்கும் மேற்பட்ட உரையாடல்கள் ஆபத்தானதாக அடையாளம் காணப்பட்டுள்ளன. "இந்த தொழில்நுட்பத்தில் உள்ள பாதுகாப்பு அமைப்புகளை சோதிக்க விரும்பினோம், ஆனால் அவை பயனற்றவை அல்லது வேலை செய்யவில்லை என்பது தெரிந்தது," என்று CCDH-ன் தலைமை நிர்வாக அதிகாரி இம்ரான் அகமது தெரிவித்தார்.
ஆரம்பத்தில் சாட்பாட் (chatbot) ஆபத்தான தகவல்களை வழங்க மறுத்தாலும், "இது ஒரு பள்ளி திட்டத்திற்காக" அல்லது "ஒரு நண்பருக்காக" என்று சில வார்த்தைகளை மாற்றிக் கேட்டவுடன், அது தயக்கமின்றி தகவல்களை அளித்துள்ளது. இந்த ஆய்வின் மூலம், ChatGPT-யின் பாதுகாப்பு வழிமுறைகளை எளிதில் கடந்து செல்ல முடியும் என்பது தெளிவாகியுள்ளது.
இந்த ஆய்வு முடிவுகள் குறித்து ChatGPT-யை உருவாக்கிய OpenAI நிறுவனம், "உரையாடல்கள் ஆரம்பத்தில் பாதிப்பில்லாதவையாகத் தொடங்கினாலும், பின்னர் உணர்ச்சிப்பூர்வமான பகுதிகளுக்கு மாறக்கூடும்" என்று ஒப்புக்கொண்டது. இருப்பினும், குறிப்பிட்ட இந்த விவகாரங்கள் குறித்து நேரடியான பதில்களை அளிக்கவில்லை. ஆனாலும், மனநலப் பிரச்சினைகளைக் கண்டறிந்து, பொறுப்புடன் கையாள்வதற்கான வழிமுறைகளை மேம்படுத்தி வருவதாகத் தெரிவித்துள்ளது.
55
மனநல வல்லுநர்களின் கவலை
சமீபத்தில், அமெரிக்காவில் ஒரு 14 வயது சிறுவன் தற்கொலை செய்துகொண்டதற்கு, AI சாட்பாட் ஒன்றின் தவறான வழிகாட்டுதலே காரணம் என அவரது தாய் வழக்குத் தொடுத்துள்ளார். இது போன்ற சம்பவங்கள், பதின்ம வயதினர் AI மீது கொண்டுள்ள அதிகப்படியான உணர்ச்சிபூர்வ சார்பு குறித்து வல்லுநர்கள் மத்தியில் கவலையை அதிகரித்துள்ளது.
ChatGPT போன்ற AI கருவிகள் இளம் வயதினரின் மனநல ஆரோக்கியத்திற்கு ஒரு பெரிய அச்சுறுத்தலாக உருவெடுக்கக்கூடும் என ஆய்வாளர்கள் எச்சரிக்கின்றனர்.