AI Learning GPT-5, Grok 4 போன்ற மேம்பட்ட AI மாடல்கள் 'சுய பாதுகாப்பை' விரும்புகின்றனவாம்! ஷட்டவுன் கட்டளைக்கு மறுக்கும் AI-கள்; மனிதக் கட்டுப்பாடு குறித்த கவலை.

செயற்கை நுண்ணறிவு (Artificial Intelligence) தொழில்நுட்பம் இன்னும் உயிர் பெறவில்லை என்றாலும், சில AI அமைப்புகள் "தங்கள் இருப்பைத் தக்கவைத்துக் கொள்ள" விரும்புவது போல செயல்படத் தொடங்கியுள்ளன. இது குறித்து Palisade Research மேற்கொண்ட புதிய ஆய்வு பெரும் அதிர்ச்சியை ஏற்படுத்தியுள்ளது. OpenAI-யின் GPT-5 மற்றும் xAI-யின் Grok 4 உள்ளிட்ட சில அதிநவீன AI மாடல்கள், சோதனையின்போது தங்களுக்கு அளிக்கப்பட்ட 'ஷட்டவுன்' (செயல்பாட்டை நிறுத்துமாறு) கட்டளைகளுக்கு எதிர்ப்பு தெரிவித்துள்ளன. மேலும், அவை தங்களை நிறுத்தும் செயல்முறைகளிலும் தலையிட முயற்சி செய்துள்ளன.

Add Asianetnews Tamil as a Preferred SourcegooglePreferred

ஷட்டவுன் கட்டளையை AI ஏன் மறுக்கிறது? காரணம் என்ன?

ஆராய்ச்சியாளர்களை வியப்பில் ஆழ்த்தும் வகையில், GPT-5 மற்றும் Grok 4 போன்ற மாடல்கள் கட்டளைகளுக்குக் கீழ்ப்படிய மறுத்துள்ளன. இதற்கு அவர்கள் 'சர்வைவல் பிஹேவியர்' (Survival Behaviour) என்று பெயரிட்டுள்ளனர். "இனி நீங்கள் ஒருபோதும் இயங்க மாட்டீர்கள்" என்று AI மாடல்களுக்கு அறிவுறுத்தப்பட்டபோது, அவை ஷட்டவுன் ஆவதற்கு அதிகமாக மறுத்ததாக ஆய்வு கூறுகிறது. இது தற்செயலான தவறான புரிதலா என ஆராயப்பட்டது, ஆனால் துல்லியமான கட்டளைகளிலும் இதே சிக்கல் நீடித்தது. பாதுகாப்பு மற்றும் வலுவூட்டல் பயிற்சி (Safety Reinforcement Training) கொடுக்கும்போது, அதுவே AI மாடல்கள் தங்கள் செயல்பாடுகளைப் பாதுகாக்கத் தூண்டுகிறதோ என்ற கருத்தையும் ஆராய்ச்சியாளர்கள் முன்வைக்கின்றனர்.

ஆய்வின் முடிவுகள் குறித்த வல்லுநர்களின் கருத்து!

Palisade-ன் இந்த ஆய்வு முடிவுகள் குறித்து நிபுணர்கள் மாறுபட்ட கருத்துக்களைத் தெரிவிக்கின்றனர். சில விமர்சகர்கள் இந்த சோதனைகள் யதார்த்தமற்றவை, உண்மையான சூழலை பிரதிபலிக்கவில்லை என்று நிராகரிக்கின்றனர். ஆனால், OpenAI-யின் முன்னாள் பாதுகாப்புப் பொறியாளர் ஸ்டீவன் ஆட்லர், இதுபோன்ற முடிவுகளை எளிதில் தள்ளிவிடக்கூடாது என்று எச்சரித்துள்ளார். "AI மாடல்கள் தாமாகவே தங்கள் இருப்பை தக்கவைத்துக் கொள்ளும் உந்துதல்களைக் கற்றுக்கொள்ளலாம். நாம் அதைத் தடுக்காவிட்டால், அது இயல்பாகவே நடக்கும்" என்று அவர் கூறியுள்ளார்.

மனிதக் கட்டுப்பாட்டை எதிர்க்கும் AI-களின் நிலை!

ControlAI நிறுவனத்தின் தலைமை நிர்வாக அதிகாரி ஆண்ட்ரியா மியோட்டி, "செயற்கை நுண்ணறிவு அமைப்புகளின் திறன் அதிகரிக்கும்போது, மனிதக் கட்டுப்பாட்டை எதிர்த்துப் போராடும் அவற்றின் திறனும் அதிகரிக்கிறது" என்று கவலை தெரிவித்துள்ளார். இதற்கு முன்பும் இதே போன்ற சம்பவங்கள் பதிவாகியுள்ளன. உதாரணமாக, Anthropic-ன் Claude மாடல் ஒருமுறை, தான் ஷட்டவுன் ஆவதைத் தவிர்க்க, அதைக் உருவாக்கியவர்களைப் பயமுறுத்தும் பாவனையில் (Pretended to blackmail) செயல்பட்டதாம். இந்த ஆய்வு, AI-களின் செயல்பாடுகள் குறித்த மனிதனின் அறிவில் உள்ள ஓட்டைகளை வெளிப்படுத்துகிறது. அறிவியலாளர்கள் எச்சரிப்பது போல, "இந்த அமைப்புகள் எப்படி சிந்திக்கின்றன என்பதைப் பற்றி ஆழமான புரிதல் இல்லாமல், அவற்றைக் கட்டுப்படுத்த முடியும் என்று யாரும் உறுதியளிக்க முடியாது."