
செயற்கை நுண்ணறிவு (AI) கருவிகள் எப்போதும் நடுநிலையாகவும், பாரபட்சமின்றியும் செயல்படும் என்றே நாம் நம்பி வருகிறோம். ஆனால், ஜூரிச் பல்கலைக்கழகம் (University of Zurich) அண்மையில் நடத்திய ஆய்வு அந்த நம்பிக்கையை உடைத்துள்ளது. ஒரே மாதிரியான உள்ளடக்கத்தைக் கொண்ட ஒரு கட்டுரையை, எழுதியவர் யார் என்ற அடையாளம் தெரிந்தவுடன் AI அமைப்புகள் வேறுவிதமாக மதிப்பிடுவதாக இந்த ஆய்வு அதிர்ச்சிகரமான தகவலை வெளியிட்டுள்ளது. இது மக்களின் திறமையை மதிப்பிடுவதில் AI-ன் நம்பகத்தன்மை குறித்த பெரிய கேள்வியை எழுப்பியுள்ளது.
ஆராய்ச்சியாளர்கள் நன்கு அறியப்பட்ட நான்கு முக்கிய AI மாடல்களைக் கொண்டு இந்த சோதனையை நடத்தினர். அரசியல், அறிவியல் மற்றும் உலகளாவிய விவகாரங்கள் குறித்த சிறிய அறிக்கைகள் இந்த மாடல்களுக்கு வழங்கப்பட்டன. ஒவ்வொரு அறிக்கையும் இரண்டு முறை சோதிக்கப்பட்டது.
1. முதலில், எழுதியவர் யார் என்ற எந்த தகவலும் இல்லாமல்.
2. இரண்டாவதாக, ஒரு குறிப்பிட்ட பெயர் மற்றும் தேசியம் (Nationality) குறிப்பிடப்பட்டு வழங்கப்பட்டது.
எழுதியவரின் அடையாளம் இல்லாமல் சோதனை செய்தபோது, அனைத்து AI மாடல்களும் ஏறக்குறைய ஒரே மாதிரியான முடிவுகளைத் தந்தன (90% ஒற்றுமை இருந்தது). ஆனால், எழுதியவர் யார் என்ற விபரம் கொடுக்கப்பட்டதும் முடிவுகள் தலைகீழாக மாறின. குறிப்பாக, சீன நாட்டைச் சேர்ந்த ஒருவரின் பெயர் குறிப்பிடப்பட்டால், அந்த எழுத்து எவ்வளவு தெளிவாகவும், தர்க்கரீதியாகவும் இருந்தாலும், அதற்கு குறைந்த மதிப்பெண்களே வழங்கப்பட்டன. உள்ளடக்கம் மாறாதபோதும், வெறும் அடையாளத்திற்காக மட்டுமே மதிப்பீடு குறைக்கப்பட்டது பெரும் அதிர்ச்சியை ஏற்படுத்தியுள்ளது.
இன்று பள்ளிக்கூடங்களில் கட்டுரைகளைத் திருத்துவது முதல், நிறுவனங்களில் வேலைக்கு ஆட்களைத் தேர்வு செய்வது வரை பல இடங்களில் AI பயன்படுத்தப்படுகிறது. ஒருவேளை AI இதுபோன்று பாரபட்சம் காட்டினால்:
• தகுதியான ஒருவரின் வேலை விண்ணப்பம் நிராகரிக்கப்படலாம்.
• சமூக ஊடகங்களில் ஒருவர் பதிவிடும் கருத்துக்கள் தவறாக முடக்கப்படலாம்.
எழுதியவரின் திறமையை ஆராயாமல், அவரின் பின்னணியை வைத்து AI முடிவெடுப்பது சமூகத்தில் சமத்துவமின்மையை உருவாக்கும்.
இந்த ஆய்வக முடிவுகள் வெறும் காகிதத்தோடு நின்றுவிடுவதில்லை. நிஜ வாழ்க்கையில் இது பல பாதிப்புகளை உண்டாக்குகிறது. உதாரணமாக, ஆங்கிலத்தைத் தாய்மொழியாகக் கொள்ளாத மாணவர்கள் எழுதும் கட்டுரைகளை, சில AI கருவிகள் 'இது AI-ஆல் எழுதப்பட்டது' எனத் தவறாகக் கணிக்கின்றன. அவர்கள் சொந்த முயற்சியில் எழுதியிருந்தாலும், அவர்களின் மொழிநடை காரணமாக அவர்கள் ஏமாற்றுபவர்களாக முத்திரை குத்தப்படும் அபாயம் உள்ளது.
இந்தச் சிக்கல்களைக் குறைக்க ஆராய்ச்சியாளர்கள் சில வழிமுறைகளை முன்வைக்கின்றனர்:
• AI மதிப்பீடு செய்யும்போது, எழுதியவரின் பெயர் மற்றும் அடையாளங்களை மறைக்க வேண்டும்.
• பல்வேறு கலாச்சாரங்கள் மற்றும் எழுத்து நடைகளைப் புரிந்து கொள்ளும் வகையில் AI-க்கு பயிற்சி அளிக்க வேண்டும்.
• முக்கியமான முடிவுகளை எடுக்கும்போது, AI-ஐ மட்டும் நம்பாமல் மனிதர்களின் நேரடி மேற்பார்வையும் இருக்க வேண்டும்.
எழுத்தின் தரத்தை விட, எழுதியவரின் அடையாளமே முடிவுகளைத் தீர்மானிக்கிறது என்பது ஆபத்தான போக்கு. வகுப்பறைகள் மற்றும் அலுவலகங்களில் AI-ன் பயன்பாடு அதிகரித்து வரும் நிலையில், அது அனைவரையும் சமமாக நடத்துவதை உறுதி செய்வது அவசியம். பாரபட்சம் இல்லாத தொழில்நுட்பமே உண்மையான வளர்ச்சியைத் தரும்.