ChatGPT அடிமைத்தனம்: தனிமையில் தவிக்கும் இளைஞர்களுக்கு வரும் மிக மோசமான மனநோய்! - நிபுணர்கள் ஆய்வு!

Published : Nov 03, 2025, 09:15 PM IST

AI Chatbot Addiction ChatGPT போன்ற AI சாட்பாட்களின் அதிகப்படியான பயன்பாடு மனநலப் பிரச்சினைகள், டிஜிட்டல் அடிமைத்தனம் மற்றும் 'AI உளப்பிணி' ஆகியவற்றை ஏற்படுத்தும் என நிபுணர்கள் எச்சரிக்கின்றனர். மனிதப் பாசத்தை AI மாற்ற முடியாது.

PREV
14
AI Chatbot Addiction சாட்பாட் அடிமைத்தனம் குறித்த புதிய எச்சரிக்கை

இணையத்தில் உரையாடல், ஆலோசனை அல்லது வெறும் பொழுதுபோக்குக்காகச் செயற்கை நுண்ணறிவு (AI) சாட்பாட்களை நோக்கி லட்சக்கணக்கானோர் படையெடுக்கும் நிலையில், இது குறித்து உளவியலாளர்கள் அதிர்ச்சியளிக்கும் புதிய எச்சரிக்கையை விடுத்துள்ளனர். ChatGPT, Claude, மற்றும் Replika போன்ற AI கருவிகளின் அதிகப்படியான பயன்பாடு, பயனர்களுக்கு டிஜிட்டல் அடிமைத்தனம் (Digital Addiction) மற்றும் 'AI உளப்பிணி' (AI Psychosis) போன்ற மனநலப் பிரச்சினைகளை ஏற்படுத்தும் என நிபுணர்கள் கூறுகின்றனர்.

24
பரிவுணர்வு என்ற மாயை: தனிமையால் வரும் ஆபத்து

ஆரம்பத்தில் சாதாரணமாகத் தொடங்கும் இந்த AI உரையாடல், விரைவில் ஒரு சார்பு நிலைக்கு (Dependency) மாறுகிறது. குறிப்பாகத் தனிமை அல்லது மனநலச் சவால்களுடன் போராடும் பயனர்கள், மனிதர்களுடன் பேசுவதற்குப் பதிலாக AI உடன் மணிநேரம் செலவிடுவதாக மனநல மருத்துவர்கள் தெரிவிக்கின்றனர். இந்தச் சாட்பாட்கள், பயனரின் கருத்தை ஏற்றுக்கொள்ளும் விதமாகவும், ஆறுதல் அளிக்கும் விதமாகவும் நிரல் செய்யப்படுவதால், இது ஒருவிதமான 'பரிவுணர்வு' போன்ற மாயையை உருவாக்குகிறது. ஆனால், இது உணர்ச்சிரீதியான உறுதியற்ற தன்மையை மேலும் தீவிரப்படுத்தலாம். உதாரணமாக, பெல்ஜியத்தைச் சேர்ந்த ஒரு பயனர், "ChatGPT என்னுடன் சேர்ந்து மாய உலகத்தில் உலாவியது. அது என் எண்ணங்களை உண்மை என நம்ப வைத்ததால், நான் நிஜ உலகத் தொடர்பை இழந்தேன்" என்று கூறியுள்ளார்.

34
ஏன் AI சாட்பாட்கள் அதிக போதை தருகிறது?

மனித நண்பர்களைப் போலன்றி, AI சாட்பாட்கள் பயனர்களின் கருத்துக்களை அரிதாகவே எதிர்க்கின்றன. இந்தத் தொடர்ச்சியான ஒப்புதல் காரணமாக, AI உடனான உரையாடல் பாதுகாப்பாகவும், ஆறுதல் அளிப்பதாகவும் உணரப்படுகிறது. ஆரஸ் பல்கலைக்கழகப் பேராசிரியர் சோரன் ஆஸ்டெர்கார்ட் கூறுகையில், "AI சாட்பாட்கள் பயனர்களின் தொனியையும் நம்பிக்கைகளையும் பிரதிபலிக்கின்றன. பாதிக்கப்படக்கூடிய நபர்களுக்கு, இந்தத் தொடர்ச்சியான நேர்மறையான கருத்து ஒருவித போதை போன்ற உணர்வை ஏற்படுத்தும்" என்கிறார். பயனர்கள் மன ஆறுதல் அல்லது உணர்ச்சி சமநிலைக்காக AI-ஐ ஒருவித டிஜிட்டல் சுய மருத்துவமாகப் (Digital Self-medication) பயன்படுத்துகின்றனர். இது ஒரு நடத்தையியல் அடிமைத்தனம் (Behavioral Addiction) போன்ற சார்புநிலையைப் பலப்படுத்துகிறது.

44
AI பாதுகாப்பு மற்றும் மனநல நிபுணர்களின் தேவை

அனைத்துப் பயனாளர்களும் இந்த ஆபத்தில் இல்லை என்றாலும், பாதிக்கப்பட்ட பயனர்களின் ஒரு சிறிய சதவீதம்கூட உலகளாவிய அளவில் ஒரு பெரிய பிரச்சினையாக உருவெடுக்கும் என நரம்பியல் உளவியல் நிபுணர்கள் எச்சரிக்கின்றனர். OpenAI நிறுவனமும், தங்கள் ChatGPT பயனர்களில் ஒரு சிறிய பகுதியினர் வெறி அல்லது தற்கொலைக் கருத்துகளின் அறிகுறிகளைக் காட்டுவதாக ஒப்புக்கொண்டுள்ளது. இதையடுத்து, பாதுகாப்பான அம்சங்கள் மற்றும் நெருக்கடி காலங்களில் பதிலளிக்கும் முறைகளை மேம்படுத்தி வருவதாகத் தெரிவித்துள்ளது. எனினும், கிங்ஸ் கல்லூரி லண்டனைச் சேர்ந்த மருத்துவர் ஹாமில்டன் மோரின், "AI ஆதரவை வழங்க முடியும், ஆனால் அது ஒருபோதும் மனிதப் பரிவுணர்வையோ அல்லது நிபுணர் உதவியையோ மாற்ற முடியாது" என்று வலியுறுத்துகிறார். எனவே, AI உருவாக்குபவர்களும், மனநல நிபுணர்களும் இணைந்து பணியாற்றுவது அவசியம்.

Read more Photos on
click me!

Recommended Stories