இதுக்கெல்லாம் ஒரு முடிவு இல்லையா? எல்லை மீறும் AI அட்டூழியம்.. ராணி எலிசபெத் வீடியோவை பார்த்து கொந்தளிக்கும் மக்கள்!

Published : Dec 29, 2025, 10:22 PM IST

AI Deepfake ராணி எலிசபெத், மைக்கேல் ஜாக்சன் போன்ற இறந்த பிரபலங்களை AI மூலம் வீடியோவாக மாற்றுவதற்கு உலகளவில் கடும் எதிர்ப்பு கிளம்பியுள்ளது. முழு விவரம் உள்ளே.

PREV
16
AI Deepfake வினோதமான AI வீடியோக்கள்

இறந்தவர்களை மீண்டும் உயிருடன் பார்ப்பது போலவும், அவர்கள் இதுவரை செய்யாத செயல்களைச் செய்வது போலவும் சித்தரிக்கும் செயற்கை நுண்ணறிவு (AI) வீடியோக்கள் தற்போது இணையத்தில் காட்டுத்தீயாகப் பரவி வருகின்றன. இது வேடிக்கையாகத் தோன்றினாலும், பலத்த கண்டனங்களையும் விவாதங்களையும் கிளப்பியிருக்கிறது.

சற்று கற்பனை செய்து பாருங்கள், மறைந்த இங்கிலாந்து மகாராணி எலிசபெத் சீஸ் பப்ஸ் (Cheese puffs) சாப்பிட்டு ரசிக்கிறார்; போப்பாண்டவர் ஸ்கேட்டிங் செய்கிறார்; சதாம் உசேன் மல்யுத்த வீரரைப் போல சண்டையிடுகிறார். இவை அனைத்தும் நிஜம் அல்ல, ஆனால் பார்ப்பதற்கு நிஜம் போலவே இருக்கும் ‘டீப் ஃபேக்’ (Deepfake) வீடியோக்கள். ஓபன் ஏஐ (OpenAI) நிறுவனத்தின் ‘சோரா’ (Sora) போன்ற செயலிகள் மூலம் உருவாக்கப்படும் இந்த வீடியோக்கள், இறந்தவர்களின் கௌரவத்தைச் சிதைப்பதாகக் குற்றச்சாட்டுகள் எழுந்துள்ளன.

26
வரலாற்றுத் தலைவர்கள் முதல் பாப் பாடகர்கள் வரை

கடந்த செப்டம்பர் மாதம் அறிமுகப்படுத்தப்பட்ட ஓபன் ஏஐ-யின் புதிய செயலி மூலம், வின்ஸ்டன் சர்ச்சில் முதல் பாப் உலகின் முடிசூடா மன்னன் மைக்கேல் ஜாக்சன் மற்றும் எல்விஸ் பிரெஸ்லி வரை பலரையும் வீடியோ கேம் கதாபாத்திரங்கள் போல மாற்றி வருகின்றனர். ஒரு டிக்டாக் வீடியோவில், ராணி எலிசபெத் ஸ்கூட்டரில் வந்து மல்யுத்த வீரர் மீது பாய்வது போலவும், ஃபேஸ்புக் வீடியோ ஒன்றில் அவர் சூப்பர் மார்க்கெட்டில் பொருட்கள் வாங்குவது போலவும் சித்தரிக்கப்பட்டுள்ளது.

36
எல்லை மீறும் தொழில்நுட்பம்

எல்லா வீடியோக்களும் சிரிப்பை வரவழைப்பதில்லை. மார்ட்டின் லூதர் கிங் ஜூனியர் போன்ற மரியாதைக்குரிய தலைவர்களைத் தவறாகச் சித்தரிக்கும் வீடியோக்களும் வெளியாகின. அவர் குரங்கு போல சத்தமிடுவது போன்றும், அவர் பேசாத விஷயங்களைப் பேசுவது போன்றும் வீடியோக்கள் உருவாக்கப்பட்டன. இது பெரும் சர்ச்சையை ஏற்படுத்தியதையடுத்து, மார்ட்டின் லூதர் கிங் தொடர்பான வீடியோக்களை உருவாக்கத் தடை விதிக்கப்படுவதாக ஓபன் ஏஐ நிறுவனம் அறிவித்தது.

46
குடும்பத்தினர் கடும் வேதனை

“இது மன உளைச்சலை ஏற்படுத்துகிறது” என்று மறைந்த நடிகர் ராபின் வில்லியம்ஸின் மகள் செல்டா வில்லியம்ஸ் வேதனையுடன் தெரிவித்துள்ளார். “என் தந்தையின் உருவத்தை வைத்து AI வீடியோக்கள் அனுப்புவதை நிறுத்துங்கள்” என்று அவர் இன்ஸ்டாகிராமில் கெஞ்சும் நிலைக்குத் தள்ளப்பட்டுள்ளார். இதேபோல், ஜார்ஜ் கார்லின் மற்றும் மால்கம் எக்ஸ் ஆகியோரின் குடும்பத்தினரும், தங்கள் தந்தையரின் உருவங்கள் அனுமதியின்றிப் பயன்படுத்தப்படுவதற்குத் தங்கள் கண்டனத்தைப் பதிவு செய்துள்ளனர்.

56
நிறுவனத்தின் பதில் என்ன?

இதுகுறித்து ஓபன் ஏஐ செய்தித் தொடர்பாளர் கூறுகையில், வரலாற்றுத் தலைவர்களைச் சித்தரிப்பதில் கருத்து சுதந்திரம் இருப்பதாகக் கருதினாலும், பொது நபர்கள் மற்றும் அவர்களது குடும்பத்தினருக்குத் தங்கள் உருவத்தைக் கட்டுப்படுத்தும் உரிமை இருக்க வேண்டும் என்றார். சமீபத்தில் இறந்தவர்களின் குடும்பத்தினர் கோரிக்கை விடுத்தால், அவர்களின் உருவம் பயன்படுத்தப்படுவதைத் தடுக்க முடியும் என்றும் அவர் கூறியுள்ளார்.

66
நிபுணர்களின் எச்சரிக்கை

“இறந்த குடும்ப உறுப்பினரின் வீடியோ திடீரென்று உங்களுக்கு வந்தால் அது எவ்வளவு அதிர்ச்சியாக இருக்கும் என்பதை யோசித்துப் பாருங்கள்” என்கிறார் அயர்லாந்து பல்கலைக்கழகப் பேராசிரியர் கான்ஸ்டன்ஸ் டி செயிண்ட் லாரன்ட். ஓபன் ஏஐ சில கட்டுப்பாடுகளை விதித்தாலும், வேறு ஏதேனும் ஒரு புதிய AI மாடல் இந்தக் கட்டுப்பாடுகளை மீறக்கூடும் என்று நிபுணர்கள் எச்சரிக்கின்றனர். இது உண்மையான செய்திகளின் மீதான நம்பிக்கையை மக்களிடம் குறைத்துவிடும் என்றும் அவர்கள் கவலை தெரிவிக்கின்றனர்.

ஸ்மார்ட்போன்கள் மற்றும் AI முதல் சைபர் பாதுகாப்பு, அறிவியல் முன்னேற்றங்கள் வரை — சமீபத்திய தொழில்நுட்ப (Technology News in Tamil) அப்டேட்களை தொடர்ச்சியாக பெறுங்கள். டிஜிட்டல் டிரெண்ட்ஸ் குறித்து நிபுணர்களின் கருத்துகள், விரிவான தகவல்கள் மற்றும் பிரேக்கிங் நியூஸை வழங்கும் ஒரே தளம் ஏஷ்யாநெட் தமிழ் நியூஸ்.புதிய கேஜெட் ரிலீஸ் ஆனதா? புதிய ஸ்டார்ட்அப்புகள் வந்தவையா? எதிர்காலத்தை மாற்றக்கூடிய எந்த டெக் பாலிஸி வந்துள்ளது? இவை அனைத்திற்கும் சிறு சிறு தகவல்கள் இங்கு கிடைக்கும். டெக் விளக்கக் குறிப்புகள் மற்றும் கேஜெட் டெமோ வீடியோக்களையும் நீங்கள் பார்க்கலாம்.

Read more Photos on
click me!

Recommended Stories