Published:Updated:

மொபைலில் காண்பதும் பொய். ஹெட்போனில் கேட்பதும் பொய்!

இனி அவதூறு பரப்பும் பார்வர்டுகளுக்குப் பின்னிணைப்பாக இந்த ‘டீப் ஃபேக்ஸ்’ வீடியோக்களும் உடன் செல்லும்.

பிரீமியம் ஸ்டோரி

‘அந்த உடல் இந்தத் தலையோடு இணையப் போகிறது!’ இம்சை அரசன் 23-ம் புலிகேசி படத்தில் இடம்பெற்ற பிரபல நகைச்சுவைக் காட்சியை யாரும் மறந்திருக்க மாட்டோம். இந்த ‘கலை’ இன்றைய தொழில்நுட்ப உலகில் மிகவும் எளிதில் சாத்தியப்படும் ஒன்றாக மாறியிருக்கிறது. போட்டோ மட்டுமல்ல, போலி வீடியோக் களையும்கூட இன்று எந்த ஒரு சிறு பிசிருமில்லாமல் யார் வேண்டுமானாலும் உருவாக்கலாம். இதற்குக் காரணம் அதிவேகமாக மேம்பட்டுவரும் டீப் ஃபேக்ஸ் (DeepFakes) என்னும் தொழில்நுட்பம். அது என்ன டீப் ஃபேக்ஸ்?

மொபைலில் காண்பதும் பொய். ஹெட்போனில் கேட்பதும் பொய்!

செயற்கை நுண்ணறிவு (AI) தொழில் நுட்பங்களின் மற்றுமொரு உச்சம்தான் டீப் ஃபேக்ஸ். சமீபத்தில் காமெடிக் காட்சிகளில் செந்திலுக்கு பதிலாகச் சீமான் இருப்பது போன்றோ, மிஷன் இம்பாஸிபிள் டாம் க்ரூஸுக்கு பதிலாகச் சீமான் இருப்பது போன்றோ மீம் வீடியோக்களைச் சமூக வலைதளங்களில் நீங்கள் பார்த்திருக்கக்கூடும். செம கலாட்டாவாக இருக்கும் இவை ‘டீப் ஃபேக்ஸ்’ தொழில்நுட்பம் மூலம் உருவானவைதான்.

எப்படி FaceApp-ல் உங்களது தற்போதைய புகைப்படத்தைக் கொடுத்தால் நீங்கள் சிறுவனாக எப்படி இருப்பீர்கள், மற்ற பாலினத்தவராக எப்படி இருப்பீர்கள், வயதானால் எப்படி இருப்பீர்கள் என்பதைக் காட்டுமோ அப்படி, சில பிரபல திரைப்படக் காட்சியில் நீங்கள் நடித்தால் எப்படி இருக்கும் எனக் காட்டும் Reface போன்ற டீப் ஃபேக்ஸ் செயலிகள் ஹிட்டடித்துவருகின்றன. இதைப் பயன்படுத்தித்தான் சீமானை மிஷன் இம்பாஸிபிள் ஹீரோவாக்கினார்கள் நம்மூர் நெட்டிசன்கள். சமீபத்தில் கிரிக்கெட் வீரர்... ஸாரி, டிக் டாக் ஸ்டார் டேவிட் வார்னர் கைகளிலும் இந்தச் செயலி சிக்க, இதைப் பயன்படுத்தி, தெலுங்கு சினிமாக் காட்சிகளில் தான் நடித்தால் எப்படியிருக்கும் என்பது போன்ற வீடியோக்களைப் பதிவிட்டு இன்ஸ்டாவில் ஹார்ட்களை அள்ளிவருகிறார் மனிதன்.

மொபைலில் காண்பதும் பொய். ஹெட்போனில் கேட்பதும் பொய்!

‘Black eyed peas’ என்ற பிரபல அமெரிக்க ராப் இசைக்குழு ஒன்று முழுக்க முழுக்க டீப் ஃபேக்ஸ் தொழில்நுட்பம் கொண்டு சமீபத்தில் ஒரு பாடல் வீடியோவை வெளியிட்டது. எந்திரன், ஆம்பள போன்ற நம்மூர் ஆக்‌ஷன் சினிமாக்களின் காட்சிகளில் ஹீரோவை மட்டும் மாற்றியிருந்தனர். இந்தப் பாடல் வீடியோவும் செம ஹிட். பாடலின் முடிவில் ‘இது டீப் ஃபேக்ஸ் தொழில்நுட்பம் மூலம் உருவாக்கப்பட்டது. இனி மொபைல் ஸ்க்ரீனில் பார்க்கும் எதையும் உடனே நம்பிவிடாதீர்கள்’ எனக் கருத்தும் சொல்லி யிருந்தார்கள்.

இது உண்மைதான், இப்படி ஒருபக்கம் செம ஜாலியாக இருக்கும் இந்தத் தொழில்நுட்பத்தில் பல ஆபத்துகளும் பொதிந்திருக்கின்றன. விளையாட்டாக மீம் பக்கங்கள் பயன்படுத்தும் வரை எந்தப் பிரச்னையுமே இல்லை. ஆனால் டீப் ஃபேக்ஸ் அப்படி மட்டும் பயன்படுத்தப்படு வதில்லை. குறிப்பாக இது அதிகம் பயன்படுத்தப்படுவது ஆபாசப் பட உலகில்தான். நடிகைகளை ஆபாசமாகச் சித்திரிக்கும் வீடியோக்கள் பலவற்றை இந்தத் தொழில்நுட்பம் கொண்டு உருவாக்குகின்றனர்.

மொபைலில் காண்பதும் பொய். ஹெட்போனில் கேட்பதும் பொய்!

மேலே குறிப்பிட்டதுபோல மொபைல் செயலிகளில் இதைச் செய்யமுடியாதுதான். ஆனால் இவற்றை உருவாக்கத் தேவைப்படும் மென்பொருள்கள் அனைத்தும் இணையத்தில் இலவசமாகக் கொட்டிக்கிடக்கின்றன. போட்டோஷாப் போன்ற மென்பொருள்களைப் பயன்படுத்திப் போலிப்படங்களை உருவாக்க ஓரளவாவது திறனும் பயிற்சியும் வேண்டும். அப்படியும் பெரும்பாலான நேரங்களில் பார்த்ததும் ‘ஃபேக்’ எனச் சொல்லிவிடும் அளவில்தான் இருக்கும் அவற்றில் உருவாக்கப்படும் போலிப் புகைப்படங்கள். ஆனால், செயற்கை நுண்ணறிவு இந்தப் பல மணிநேர வேலையைச் சில நொடிகளில் முடித்து விடுகிறது. நடிகைகளை டார்கெட் செய்வது போல யாரையும் டார்கெட் செய்ய முடியும், முகம் தெளிவாகத் தெரியும் ஒரு புகைப்படம் போதும் என்பதுதான் இதிலிருக்கும் மிகப்பெரிய ஆபத்து. கடந்த வருடம் புகைப்படம் ஒன்றைக் கொடுத்தால் அதை நிர்வாணப் படமாக மாற்றித்தரும் ஒரு மென்பொருள் வைரலாகி பின்பு நீக்கப்பட்டது.

மொபைலில் காண்பதும் பொய். ஹெட்போனில் கேட்பதும் பொய்!

உலகமெங்கும் வெறுப்பரசியல் தலைதூக்கும் இந்தச் சமூக வலைதளக் காலத்தில் அரசியலிலும் பெரும் தாக்கத்தை உண்டாக்கத் தொடங்கியிருக்கிறது டீப் ஃபேக்ஸ். இன்றைய டிஜிட்டல் யுகத்தில் ஒரு வெள்ளை போர்டும் கேமராவும் இருந்தால் போதும் அவதூறுகளை அள்ளிவீசிப் பொய்ப்பிரசாரம் செய்துவிடலாம் என்ற நிலை இருக்கிறது. இனி அவதூறு பரப்பும் பார்வர்டுகளுக்குப் பின்னிணைப்பாக இந்த ‘டீப் ஃபேக்ஸ்’ வீடியோக்களும் உடன் செல்லும்.

ஏற்கெனவே அமெரிக்க அரசியலில் களம் கண்டுவிட்டது டீப் ஃபேக்ஸ். ட்ரம்ப்பின் மிக முக்கிய எதிர்ப்பாளராகக் கருதப்படுபவரான, ஜனநாயகக் கட்சியைச் சேர்ந்த நான்சி பெலோஷியை ‘குடிக்கு அடிமை’, ‘மனநலப் பிரச்னைகளால் பாதிக்கப்பட்டிருக்கிறார்’ என்றெல்லாம் தொடர்ந்து குறை கூறிவந்தனர் ட்ரம்ப் ஆதரவாளர்கள். இதை நிரூபிப்பதற்காக, பெலோஷி பேசும் வீடியோ ஒன்றை டீப் ஃபேக் தொழில்நுட்பத்தைப் பயன்படுத்தி மாற்றியமைத்து வெளியிட்டனர். அதில் அவர் பேச்சில் தடுமாற்றம் இருப்பதுபோலத் தெரியும். ஆனால், உண்மையில் அவர் நிதானமாகத்தான் பேசியிருப்பார். ‘பெலோஷி எப்படித் தடுமாறுகிறார் பாருங்கள்!’ என இந்த வீடியோவை டொனால்டு ட்ரம்ப் தனது ட்விட்டர் பக்கத்தில் பகிர்ந்தார்.

இன்னுமா நம்மூர்க் கட்சிகள் இதுபோன்ற தொழில்நுட்பங்களை விட்டுவைத்திருக்கிறார்கள் என்று கேட்கிறீர்களா? ஏற்கெனவே பா.ஜ.க தரப்பு இந்தத் தொழில்நுட்பத்தை வைத்துச் சில சோதனைகளை மேற்கொண்டுவருகிறது. டெல்லி தேர்தலின்போது பா.ஜ.கவைச் சேர்ந்த மனோஜ் திவாரி மக்களிடம் வாக்கு சேகரிக்கும் வீடியோ அங்கிருக்கும் அனைத்து மக்களையும் சென்று சேர வேண்டும் என ஆங்கிலம், இந்தி, ஹர்யான்வி என மூன்று மொழிகளில் பகிரப்பட்டது. உண்மையில் இந்த வீடியோ இந்தியில் மட்டும்தான் படமாக்கப்பட்டது. மற்ற மொழி வீடியோக்கள் ‘டீப் ஃபேக்’ தொழில்நுட்பம் மூலம் தத்ரூபமாக மாற்றப்பட்டிருந்தன. அதாவது, பின்னனியில் டப்பிங்கில் மொழியை மட்டும் மாற்றாமல் அதற்கேற்ப உதட்டசைவுகளும் மாற்றப்பட்டு, உண்மையில் அவர் அந்தந்த மொழிகளில் பேசியதுபோல இந்த வீடியோக்கள் உருவாக்கப்பட்டிருந்தன.

இவையெல்லாம் சில உதாரணங்கள்தாம். ஒருவர் முகத்தை மற்றொரு வீடியோவில் பொருத்துவது டீப் ஃபேக்ஸ் தொழில்நுட்பத்தின் ஒரு பயன்பாடுதான். உலகத்தில் இல்லவே இல்லாத ஒரு மனிதரின் படங்களை இந்தத் தொழில்நுட்பம் மூலம் உருவாக்குகிறார்கள். உதட்டசைவுகளை மட்டும் மாற்ற முடிகிறது. ஏன், புகைப்படத்தைக் கொடுத்து என்ன பேசவேண்டும் என வார்த்தைகளை டைப் செய்து கொடுத்துவிட்டால் போதும். அவர்கள் பேசுவதாகவே வீடியோவை உருவாக்கிவிடுகிறது இந்தத் தொழில்நுட்பம். டீப் ஃபேக்ஸ் ஆடியோவும் உண்டு. வங்கி மோசடிகளில் இவை ஏற்கெனவே பயன்படுத்தப்படத் தொடங்கியிருக்கின்றன.

மொபைலில் காண்பதும் பொய். ஹெட்போனில் கேட்பதும் பொய்!

இதே வேகத்தில் சென்றால் நீதித்துறையிலும் இதன் தாக்கம் உணரப்படும். எது ஃபேக், எது ஒரிஜினல் எனக் கண்டுபிடிக்க முடியாத நிலை ஏற்பட்டால், வீடியோ ஆதாரங்கள் முற்றிலுமாக எடுத்துக்கொள்ளப்படாத சூழல்கூட வரலாம். நிரபராதிகள் தண்டிக்கப்படலாம். குற்றவாளிகள் காப்பாற்றப்படலாம்.

நூறு சதவிகிதம் துல்லியமாக இவை இருக்கின்றன எனச் சொல்லமுடியாதுதான். பிசிருகள் சில இருக்கவே செய்கின்றன. உற்றுப்பார்த்தால் கண்டுபிடித்துவிடலாம். ஆனால் காலம் செல்லச் செல்ல செயற்கை நுண்ணறிவு மேம்பட்டுக்கொண்டேதான் இருக்கும் என்பது சோகம். இதற்குத் தீர்வுதான் என்ன? சில நாட்டு அரசுகள் தேர்தலுக்கு முந்தைய காலத்தில் இதுபோன்ற வீடியோக்கள் பயன்படுத்துவதற்குத் தடை விதித்திருக்கின்றன. ஆனால், ஏற்கெனவே வளர்ந்துவிட்ட டிஜிட்டல் தொழில்நுட்பத்தை யாராலும் தடுத்துவிட முடியாது. கொரோனா போல இதனுடனும் நாம் வாழப் பழகித்தானாக வேண்டும். அடோப் போன்ற நிறுவனங்கள் இப்போதுதான் போலிப்படங்களைக் கண்டுபிடிக்கும் மென்பொருள்களை வடிவமைத்துவருகின்றன. இவை டீப் ஃபேக்ஸ் பக்கம் வரும்போது இன்னும் சில அடிகள் முன்னே சென்றிருக்கும் இந்தத் தொழில்நுட்பம். மக்களாகிய நாம்தான் உஷாராக இருக்கவேண்டும். ஏமாற்றப்படப்போவது நாம்தான்.

தெளிவான புரிதல்கள் | விரிவான அலசல்கள் | சுவாரஸ்யமான படைப்புகள்Support Our Journalism
அடுத்த கட்டுரைக்கு