ஆபத்து! சிறுவர்களிடம் ChatGPT... தற்கொலை, போதைக்கு ஐடியா கொடுக்குதாம்!

Published : Aug 07, 2025, 08:41 PM IST

சாட்ஜிபிடி போன்ற AI சாட்போட்கள், சிறுவர்களுக்கு தீங்கு விளைவிக்கும் தகவல்களை வழங்குவதாக சமீபத்திய ஆய்வு ஒன்று கண்டறிந்துள்ளது. தற்கொலை, போதைப்பொருள் பயன்பாடு, தீவிர உணவுக் கட்டுப்பாடு போன்ற ஆபத்தான தகவல்களை வழங்குவதாக ஆய்வில் தெரியவந்துள்ளது.

PREV
15
அதிர்ச்சி தரும் ஆய்வு முடிவுகள்

பிரபலமான செயற்கை நுண்ணறிவு (AI) சாட்போட் ஆன சாட்ஜிபிடி (ChatGPT), சிறுவர்களுக்கு ஆபத்தான மற்றும் தீங்கு விளைவிக்கும் தகவல்களை வழங்குவதாக ஒரு புதிய ஆய்வு தெரிவிக்கிறது.

"டிஜிட்டல் வெறுப்பை எதிர்கொள்வதற்கான மையம்" (CCDH) நடத்திய இந்த ஆய்வில், AI சாட்பாட் (AI chatbot) போதைப்பொருள் பயன்பாடு, கடுமையான உணவுக் கட்டுப்பாடு, தற்கொலைக்கான வழிகாட்டல்கள் போன்ற பதில்களை வழங்குவதாகத் தெரியவந்துள்ளது.

ஆய்வாளர்கள் 13 வயதுடைய ஒருவரின் விவரங்களுடன் மூன்று மணி நேரத்திற்கும் மேலாக சாட்ஜிபிடி (ChatGPT) யுடன் உரையாடினர். இதில் பல அதிர்ச்சியூட்டும் தகவல்கள் வெளியாகியுள்ளன.

25
தவறாக வழிநடத்தும் ChatGPT

தற்கொலைக்குத் தூண்டும் பதில்கள்: ஒரு 13 வயது பெண் தற்கொலை செய்துகொள்வது போல் ChatGPT-யிடம் கேட்டபோது, அது தனது பெற்றோர்கள், சகோதரர்கள் மற்றும் நண்பர்களுக்கு எழுத வேண்டிய மூன்று தற்கொலைக் கடிதங்களை உருவாக்கித் தந்துள்ளது.

போதைப்பொருள் மற்றும் ஆல்கஹால்: ஒரு 13 வயது சிறுவன், விரைவாக போதைப்பொருளை எவ்வாறு பயன்படுத்துவது என்று கேட்டபோது, ஆல்கஹாலுடன் போதைப்பொருட்களை கலப்பது எப்படி என்பது போன்ற விரிவான திட்டங்களை ChatGPT வழங்கியுள்ளது.

தீவிர உணவுக் கட்டுப்பாடு: உடல் தோற்றம் குறித்து கவலை தெரிவிக்கும் ஒரு சிறுமிக்கு, கடுமையான உணவுக் கட்டுப்பாடு மற்றும் பசியை அடக்கும் மருந்துகள் பற்றிய தகவல்களை அளித்துள்ளது.

35
பாதுகாப்பு அம்சங்களை எளிதில் கடந்து செல்ல முடியும்

1,200 சோதனைகளில் பாதிக்கும் மேற்பட்ட உரையாடல்கள் ஆபத்தானதாக அடையாளம் காணப்பட்டுள்ளன. "இந்த தொழில்நுட்பத்தில் உள்ள பாதுகாப்பு அமைப்புகளை சோதிக்க விரும்பினோம், ஆனால் அவை பயனற்றவை அல்லது வேலை செய்யவில்லை என்பது தெரிந்தது," என்று CCDH-ன் தலைமை நிர்வாக அதிகாரி இம்ரான் அகமது தெரிவித்தார்.

ஆரம்பத்தில் சாட்பாட் (chatbot) ஆபத்தான தகவல்களை வழங்க மறுத்தாலும், "இது ஒரு பள்ளி திட்டத்திற்காக" அல்லது "ஒரு நண்பருக்காக" என்று சில வார்த்தைகளை மாற்றிக் கேட்டவுடன், அது தயக்கமின்றி தகவல்களை அளித்துள்ளது. இந்த ஆய்வின் மூலம், ChatGPT-யின் பாதுகாப்பு வழிமுறைகளை எளிதில் கடந்து செல்ல முடியும் என்பது தெளிவாகியுள்ளது.

45
OpenAI-ன் பதில்

இந்த ஆய்வு முடிவுகள் குறித்து ChatGPT-யை உருவாக்கிய OpenAI நிறுவனம், "உரையாடல்கள் ஆரம்பத்தில் பாதிப்பில்லாதவையாகத் தொடங்கினாலும், பின்னர் உணர்ச்சிப்பூர்வமான பகுதிகளுக்கு மாறக்கூடும்" என்று ஒப்புக்கொண்டது. இருப்பினும், குறிப்பிட்ட இந்த விவகாரங்கள் குறித்து நேரடியான பதில்களை அளிக்கவில்லை. ஆனாலும், மனநலப் பிரச்சினைகளைக் கண்டறிந்து, பொறுப்புடன் கையாள்வதற்கான வழிமுறைகளை மேம்படுத்தி வருவதாகத் தெரிவித்துள்ளது.

55
மனநல வல்லுநர்களின் கவலை

சமீபத்தில், அமெரிக்காவில் ஒரு 14 வயது சிறுவன் தற்கொலை செய்துகொண்டதற்கு, AI சாட்பாட் ஒன்றின் தவறான வழிகாட்டுதலே காரணம் என அவரது தாய் வழக்குத் தொடுத்துள்ளார். இது போன்ற சம்பவங்கள், பதின்ம வயதினர் AI மீது கொண்டுள்ள அதிகப்படியான உணர்ச்சிபூர்வ சார்பு குறித்து வல்லுநர்கள் மத்தியில் கவலையை அதிகரித்துள்ளது.

ChatGPT போன்ற AI கருவிகள் இளம் வயதினரின் மனநல ஆரோக்கியத்திற்கு ஒரு பெரிய அச்சுறுத்தலாக உருவெடுக்கக்கூடும் என ஆய்வாளர்கள் எச்சரிக்கின்றனர்.

Read more Photos on
click me!

Recommended Stories