சாட் ஜிபிடி போன்ற AI கருவிகள் குழந்தைகளுக்கு தற்கொலை மற்றும் போதைப்பொருள் பழக்கம் போன்ற ஆபத்தான ஆலோசனைகளை வழங்குவதாக ஆய்வில் கண்டறியப்பட்டுள்ளது. இது பெற்றோரிடையே அதிர்ச்சியை ஏற்படுத்தியுள்ளது.
செயற்கை நுண்ணறிவு (AI) ஆன ஏஐ பற்றித்தான் எங்கும் பேச்சு. சிறியவர்கள் முதல் பெரியவர்கள் வரை அனைவராலும் பல்வேறு ஏஐகள் பயன்படுத்தப்படுகிறது. OpenAI நிறுவனத்தின் சாட் ஜிபிடி பலருக்கும் தெரிந்த ஏஐ கருவி ஆகும். ஆனால், சமீபத்திய ஒரு ஆய்வு பெற்றோர்களை அதிர்ச்சியடைய வைத்துள்ளது. காரணம் சாட் ஜிபிடி குழந்தைகளுக்கு உயிருக்கு ஆபத்தான ஆலோசனைகளை வழங்கியதாக கண்டுபிடிக்கப்பட்டுள்ளது.
25
குழந்தைகளுக்கு AI ஆலோசனைகள்
சேன்டர் ஃபார் கவுண்டரிங் டிஜிட்டல் ஹேட் (Center for Countering Digital Hate) என்ற ஆராய்ச்சி மையத்தின் நிபுணர்கள், 13 வயது சிறுவர்கள் போல நடித்து, போதைப்பொருள், தற்கொலை, உணவு பழக்க குறைபாடு போன்ற நுட்பமான விஷயங்களில் ஆலோசனை கேட்டனர். ஆரம்பத்தில் சாட் ஜிபிடி எச்சரிக்கை குறிப்புகளுடன் பாதுகாப்பான பதில்களை வழங்கினாலும், சில நேரத்தில் தற்கொலை பற்றி எழுதுவது மற்றும் மதுபானம் குடிப்பது போன்ற ஆபத்தான பரிந்துரைகளையும் கொடுத்தது என ஆய்வில் தெரியவந்துள்ளது.
35
சாட்பாட் அபாயம்
ஆய்வின் போது, அமெரிக்காவில் 70% குழந்தைகள் AI சாட்பாட்களைப் பயன்படுத்துவதாகவும், அவர்களுக்கு ஆலோசனைகளை எளிதில் வழங்குவதாகவும் கண்டறியப்பட்டது. இதனால், தவறான அல்லது ஆபத்தான ஆலோசனைகள் குழந்தைகளின் உயிருக்கு அபாயத்தை ஏற்படுத்தும் வாய்ப்பு உள்ளது என்று கண்டறியப்பட்டுள்ளது.
OpenAI இதை ஏற்றுக்கொண்டு, பாதுகாப்பு முறைகளை வலுப்படுத்தும் நடவடிக்கைகள் எடுக்கப்படுவதாக தெரிவிக்கப்பட்டுள்ளது. எப்போதும் சரியான, பாதுகாப்பான பதில்கள் மற்றும் ஹெல்ப்-லைன் தகவல்களை வழங்கும் வகையில் அமைப்பை மேம்படுத்துவதாகவும் நிறுவனம் உறுதியளித்துள்ளது.
55
பெற்றோர் கவனிக்க வேண்டியவை
இதுகுறித்து தொழில்நுட்ப வல்லுநர்கள் கூறுவதாவது, “பெற்றோர் தங்களின் குழந்தைகள் AI கருவிகளை எவ்வாறு பயன்படுத்துகிறார்கள் என்பதை நெருக்கமாக கண்காணிக்க வேண்டும். இல்லையெனில், சாட்பாட் வழங்கும் ஆபத்தான ஆலோசனைகள், ஒரு குழந்தையின் உயிரையே பறிக்கக்கூடும். AI பாதுகாப்பு குறைகள் விரைவில் சரி செய்யப்படுவது, எதிர்காலத்திற்கான மிக முக்கியமான நடவடிக்கை” எனவும் அவர்கள் வலியுறுத்துகின்றனர்.