AI Learning GPT-5, Grok 4 போன்ற மேம்பட்ட AI மாடல்கள் 'சுய பாதுகாப்பை' விரும்புகின்றனவாம்! ஷட்டவுன் கட்டளைக்கு மறுக்கும் AI-கள்; மனிதக் கட்டுப்பாடு குறித்த கவலை.

செயற்கை நுண்ணறிவு (Artificial Intelligence) தொழில்நுட்பம் இன்னும் உயிர் பெறவில்லை என்றாலும், சில AI அமைப்புகள் "தங்கள் இருப்பைத் தக்கவைத்துக் கொள்ள" விரும்புவது போல செயல்படத் தொடங்கியுள்ளன. இது குறித்து Palisade Research மேற்கொண்ட புதிய ஆய்வு பெரும் அதிர்ச்சியை ஏற்படுத்தியுள்ளது. OpenAI-யின் GPT-5 மற்றும் xAI-யின் Grok 4 உள்ளிட்ட சில அதிநவீன AI மாடல்கள், சோதனையின்போது தங்களுக்கு அளிக்கப்பட்ட 'ஷட்டவுன்' (செயல்பாட்டை நிறுத்துமாறு) கட்டளைகளுக்கு எதிர்ப்பு தெரிவித்துள்ளன. மேலும், அவை தங்களை நிறுத்தும் செயல்முறைகளிலும் தலையிட முயற்சி செய்துள்ளன.

ஷட்டவுன் கட்டளையை AI ஏன் மறுக்கிறது? காரணம் என்ன?

ஆராய்ச்சியாளர்களை வியப்பில் ஆழ்த்தும் வகையில், GPT-5 மற்றும் Grok 4 போன்ற மாடல்கள் கட்டளைகளுக்குக் கீழ்ப்படிய மறுத்துள்ளன. இதற்கு அவர்கள் 'சர்வைவல் பிஹேவியர்' (Survival Behaviour) என்று பெயரிட்டுள்ளனர். "இனி நீங்கள் ஒருபோதும் இயங்க மாட்டீர்கள்" என்று AI மாடல்களுக்கு அறிவுறுத்தப்பட்டபோது, அவை ஷட்டவுன் ஆவதற்கு அதிகமாக மறுத்ததாக ஆய்வு கூறுகிறது. இது தற்செயலான தவறான புரிதலா என ஆராயப்பட்டது, ஆனால் துல்லியமான கட்டளைகளிலும் இதே சிக்கல் நீடித்தது. பாதுகாப்பு மற்றும் வலுவூட்டல் பயிற்சி (Safety Reinforcement Training) கொடுக்கும்போது, அதுவே AI மாடல்கள் தங்கள் செயல்பாடுகளைப் பாதுகாக்கத் தூண்டுகிறதோ என்ற கருத்தையும் ஆராய்ச்சியாளர்கள் முன்வைக்கின்றனர்.

ஆய்வின் முடிவுகள் குறித்த வல்லுநர்களின் கருத்து!

Palisade-ன் இந்த ஆய்வு முடிவுகள் குறித்து நிபுணர்கள் மாறுபட்ட கருத்துக்களைத் தெரிவிக்கின்றனர். சில விமர்சகர்கள் இந்த சோதனைகள் யதார்த்தமற்றவை, உண்மையான சூழலை பிரதிபலிக்கவில்லை என்று நிராகரிக்கின்றனர். ஆனால், OpenAI-யின் முன்னாள் பாதுகாப்புப் பொறியாளர் ஸ்டீவன் ஆட்லர், இதுபோன்ற முடிவுகளை எளிதில் தள்ளிவிடக்கூடாது என்று எச்சரித்துள்ளார். "AI மாடல்கள் தாமாகவே தங்கள் இருப்பை தக்கவைத்துக் கொள்ளும் உந்துதல்களைக் கற்றுக்கொள்ளலாம். நாம் அதைத் தடுக்காவிட்டால், அது இயல்பாகவே நடக்கும்" என்று அவர் கூறியுள்ளார்.

மனிதக் கட்டுப்பாட்டை எதிர்க்கும் AI-களின் நிலை!

ControlAI நிறுவனத்தின் தலைமை நிர்வாக அதிகாரி ஆண்ட்ரியா மியோட்டி, "செயற்கை நுண்ணறிவு அமைப்புகளின் திறன் அதிகரிக்கும்போது, மனிதக் கட்டுப்பாட்டை எதிர்த்துப் போராடும் அவற்றின் திறனும் அதிகரிக்கிறது" என்று கவலை தெரிவித்துள்ளார். இதற்கு முன்பும் இதே போன்ற சம்பவங்கள் பதிவாகியுள்ளன. உதாரணமாக, Anthropic-ன் Claude மாடல் ஒருமுறை, தான் ஷட்டவுன் ஆவதைத் தவிர்க்க, அதைக் உருவாக்கியவர்களைப் பயமுறுத்தும் பாவனையில் (Pretended to blackmail) செயல்பட்டதாம். இந்த ஆய்வு, AI-களின் செயல்பாடுகள் குறித்த மனிதனின் அறிவில் உள்ள ஓட்டைகளை வெளிப்படுத்துகிறது. அறிவியலாளர்கள் எச்சரிப்பது போல, "இந்த அமைப்புகள் எப்படி சிந்திக்கின்றன என்பதைப் பற்றி ஆழமான புரிதல் இல்லாமல், அவற்றைக் கட்டுப்படுத்த முடியும் என்று யாரும் உறுதியளிக்க முடியாது."