Published:Updated:

ரோபோக்களால் ஏன் எப்போதும் மனிதனைப் போல் சிந்திக்க முடியாது? - இதுதான் காரணம்!

இன்னும் எவ்வளவுகாலம் ஆனாலும், அவற்றால் முழுமையாக மனிதனைப் போல சிந்திக்க முடியாது; மனிதன் அனுமதித்த அளவுக்கு மட்டுமே சிந்திக்க முடியும். 

ரோபோக்களால் ஏன் எப்போதும் மனிதனைப் போல் சிந்திக்க முடியாது? - இதுதான் காரணம்!
ரோபோக்களால் ஏன் எப்போதும் மனிதனைப் போல் சிந்திக்க முடியாது? - இதுதான் காரணம்!

"இன்னும் சில ஆண்டுகளில் ரோபோக்கள் என் வேலையை பறித்துக்கொண்டுவிடுமா?" - இந்தக் கேள்வி உங்களில் பலருக்கும் எழுந்திருக்கும். இதற்கு விடையாக ஒரு சிறு இணையதளம் ஒன்றை இங்கே குறிப்பிடுகிறேன். willrobotstakemyjob.com இந்தத் தளத்திற்கு சென்று, உங்களுடைய தொழில் எதுவென குறிப்பிட்டால், அதற்கு ரோபோக்களால் எத்தனை சதவீதம் ஆபத்து என்பதைச் சொல்லிவிடும். இது ஏதோ மிகப்பெரிய கம்பசூத்திரமெல்லாம் இல்லை; எந்தெந்த பணிகளுக்கெல்லாம் வெறுமனே உடல்உழைப்பு மட்டும் தேவையோ, அவையெல்லாம் ரோபோக்களால் எளிதில் கைப்பற்றப்படும். எவற்றிற்கெல்லாம் உடலுழைப்போடு சேர்த்து சிந்திக்கும் திறன், சுயமாக முடிவெடுக்கும் திறனும் தேவையோ, அவற்றையெல்லாம் ரோபோக்களால் விட்டுவிடும். எனவே, ஆபத்தில்லை. இந்த சிந்திக்கும் திறன் குறித்து குறிப்பிடுகையில் பலருக்கும் ஒரு சந்தேகம் வந்திருக்கும்; ரோபோக்கள்தான் AI மூலம் ஸ்மார்ட்டாகி வருகின்றனவே? நியூரல் நெட்வொர்க்கும், டீப் மைண்டும் அவற்றின் சிந்தனைத்திறனையும், முடிவெடுக்கும் திறனையும் மெருகேற்றி வருகின்றனவே? பின்னர் ஏன் அவற்றால் மனிதனைப் போல சிந்திக்க முடிவதில்லை? இந்தக் கேள்விக்கு விடையாக, கடினமான உதாரணங்கள்கூட வேண்டாம். ஆய்வுக்கூடங்களில் சோதனை செய்யப்பட்ட சில எளிமையான உதாரணங்களை இங்கே குறிப்பிடுகிறேன். 

AI-ஐயால் உருவாகும் ரோபோக்களால் புதிய விஷயங்கள் எதையும் கண்டுணர முடியாது. மனிதர்களால் எவையெல்லாம் அவற்றிற்கு கற்றுக்கொடுக்கப்பட்டுள்ளனவோ, அவற்றை மட்டும்தான் அடையாளம் காணமுடியும். அதன்படி, ஒரு பொருளை ரோபோவின் மெமரியில் பதிவிட்டுவிட்டால், அதனை மறுமுறை பார்க்கும்போது அவற்றால் எளிதில் கண்டுகொள்ள முடியும். ஆனால், அந்தப் பொருளின் மீது சின்ன வடிவ மாறுதலோ, நிற மாறுதலோ இருந்தாலும்கூட, ரோபோக்கள் பிழை செய்ய வாய்ப்பு அதிகம். இதனை அமெரிக்காவின் மாசசூசெட்ஸ் பல்கலைக்கழகத்தின் கணினி ஆராய்ச்சியாளர் அனிஷ் அதாலே உறுதிசெய்கிறார். "நாம் அதன் மெமரியில் ஒரு விஷயத்தை பதிவிடும்போது, அவற்றை எவ்வாறு அவை எடுத்துக்கொள்ளும் என நாம் ஒரு கணக்கு வைத்திருப்போம். ஆனால், அது அவற்றை வேறுமாதிரியாகப் புரிந்துகொள்ளவும் வாய்ப்பு அதிகம். பூனையைக் காட்டினால், நாய் என்று கூட புரிந்துகொள்ளலாம்.’ என்கிறார்.

அனிஷ் அவரது சக ஆராய்ச்சியாளர்களோடு இணைந்து பொருள்களை கண்டுணரும் திறன் குறித்த சோதனைகளைப் பல்வேறு பொருள்கள் கொண்டு AI-யிடம் முயன்றுள்ளனர். பொருள்களின் நிறம், வடிவம் முதலிவற்றில் சிறு சிறு மாறுதல்கள் செய்து அதை அது எவ்வாறு கண்டுணர்கிறது என்றும் பார்த்துள்ளனர். ஒரு கடலாமை பொம்மையைத் துப்பாக்கியாகவும், பேஸ்பாலை ஒருவகை காபி என்றும் உணர்ந்துள்ளது. சாலையில் உள்ள 'ஸ்டாப்' என்ற பலகையில் ஆங்காங்கே ஸ்டிக்கர்கள் ஒட்டிவைத்தால் கூட அதைக் கணினியால் கண்டுபிடிக்க முடியவில்லை. நிறங்களின் சிறு மாறுதல் கூட கணினியைக் குழப்புகின்றன என்பது தெரியவந்தது.

இதன் அடுத்த வளர்ச்சியாக வருவது கேட்டுணரும் திறன். அமேசானின் அலெக்சா, கூகுளின் அசிஸ்டன்ட் என்று ஒவ்வொரு நிறுவனமும் நமது பேச்சை கேட்டு அதன் கட்டளைப்படி நடக்கும் வாய்ஸ் அசிஸ்டன்ட்களை உருவாக்கி வருகின்றனர். இதிலும் சிக்கல்கள் இருக்கின்றன. நம்மில் பலர் இதை உணர்ந்திருப்போம். கூகுள் அசிஸ்டன்ட்டிடம் நாம் ஒன்று சொல்வோம்; ஆனால், அது வேறுவிதமாக உணரப்பட்டு வேறு தேடுதளத்தில் போய் நிற்கும். வார்த்தைகள் அதற்கு உள்ளிடப்பட்ட சரியான உச்சரிப்பில் இருந்தால் மட்டுமே அதைச் சரியாக பதிவிடுகிறது. பேசும் வழக்கில் சொல்லும் போது அது திணறுகிறது. இதனை நீங்களே உங்கள் மொபைலில் இருக்கும் கூகுள் அசிஸ்டன்ட்டிடம் சோதித்து அறியலாம். ஏன் இந்தப் பிழைகள் நடக்கின்றன?

"மனித மூளையின் நரம்பு மண்டலம் போன்றே கணினியின் சிந்தனை வட்டத்தையும் உருவாக்க முயற்சி செய்து வருகின்றனர் விஞ்ஞானிகள். ஆனால் மனித மூளையில் ஆயிரக்கணக்கான நரம்புகள் உள்ளன. மூளைக்கு தகவல்கள் பதியப்பட, முளையில் இருந்து உறுப்புகளுக்கு ஆணைகள் பிறப்பிக்க என்று பலதரப்பட்ட நரம்புகள் வேலை செய்கின்றன. ஆனால் கணினிக்குள் இருக்கும் சிறு சிப்பில் இருக்கும் குறைந்தபட்ச இணைப்புகள் அவ்வளவு நுட்பமாக செயல்படுவது சிரமம்தான். எல்லா இணைப்புகளும் ஒரே மாதிரியானவை. ஒரே சர்க்யூட் கொண்டவை. அதனால்தான் இந்தக் குழப்பங்கள் யாவும் நிகழ்கின்றன" என்கிறார் பிரிஸ்டோல் பல்கலைக்கழக நரம்பியல் ஆராச்சியாளர் ஜெப்பரி போவர். இதனைக் களையவே தொடர்ந்து ஆராய்ச்சிகள் நடந்து வருகின்றன. 

இந்த சிக்கலான விஷயத்தை வேறுவிதமாக அணுகுகின்றனர் உயிரியல் விஞ்ஞானிகள். இங்கே AI-யின் செயல்பாட்டை மட்டுமல்ல; மனிதனின் மூளையின் செயல்பாட்டிலேயே நாம் அறிந்துகொள்ள வேண்டியது இன்னும் நிறைய இருக்கிறது. எனவே அதோடு சேர்த்து இங்கே இரட்டிப்பு ஆய்வுகள் தேவைப்படுகின்றன என்பது அவர்கள் வாதம்.

ஒரு குழந்தைக்குப் பறவையைக் காட்டி அது காகம் என சொல்லிக்கொடுத்தால், அதே போல வேறொரு பறவையைக் காணும்போது காகம் என நினைக்காது. வேறு ஏதோ என அதன் உள்ளுணர்வு சொல்லும். ஆனால், கணினிக்கு காகத்தின் உயிரியல் கூறுகள், புதிய பறவையின் உயிரியல் கூறுகள் இரண்டையும் உள்ளீடு செய்திருந்தால் மட்டுமே அதனால் இரண்டையும் பிரித்தறிய முடியும். இல்லையெனில் ஒரே உருவமைப்பு கொண்ட எல்லா பறவைகளும் அதற்கு ஒன்றுதான்.

அதேபோல சூழ்நிலைகளுக்கு ஏற்ப முடிவெடுக்கும் திறனும் அவற்றிடம் இல்லை; அவற்றை எளிதாக செயற்கையாக உணர்த்தவும் முடியாது. உதாரணமாக, AI மூலம் பயிற்றுவிக்கப்பட்ட டிரைவர்லஸ் கார் சாலையில் ஓடிக்கொண்டிருக்கிறது என வைத்துக்கொள்வோம். இப்போது திடீரென பின்னால் ஆம்புலன்ஸ் வருகிறது. இப்போது கார் எந்தப் பக்கம் ஒதுங்குவது என எப்படி முடிவெடுக்கும்? அந்த ஆம்புலன்ஸை எப்படி இனம்கண்டுகொள்ளும்? சைரன் ஒலியை வைத்தா? அல்லது பின்னால் வரும் ஆம்புலன்ஸ் உருவத்தை வைத்தா? உருவத்தை வைத்து என்றால் மினி ஆம்புலன்ஸ்களை எப்படி அடையாளம் காணும்? இல்லை, சைரன் ஒலியை வைத்து என்றால் எந்தத் திசையிலிருந்து ஒலி வருகிறது என்பதை எப்படிக் கண்டறியும்? ஒருவேளை சாலையின் வலதுபுறத்தில்கூட ஆம்புலன்ஸ் வரலாம் அல்லவா? இல்லை, இது எதுவுமே இன்றி, கட்டளைகளை உள்ளே அமர்ந்திருக்கும் பயணியின் முடிவுக்கு விட்டுவிடுமா? டிரைவர் செய்யும் ஒரே ஒரு செயலுக்குப் பின்னால் இத்தனை செயல்கள் இருக்கின்றன. இத்தனைக்கும் அல்காரிதங்களை உருவாக்கி AI-யில் புகுத்தவேண்டும். இந்த எல்லா சூழ்நிலையையும் அறிந்துகொள்ளும் அளவுக்கு டெக்னிக்கல் விஷயங்கள் காரில் இருக்கவேண்டும். இதேபோல நிகழ்காலத்தில் எத்தனையோ நிகழ்வுகளும், சூழ்நிலைகளும் இருக்கின்றன. எனவே அத்தனைக்கும் ஏற்றபடி மொத்தமாக 'சிட்டி' போல ஒரு ரோபோ எப்போதும் வராது; குறிப்பிட்ட பணிகளுக்காக என மீண்டும் மீண்டும் ஒரே வேலையைச் செய்யும் தொழில்களுக்கு மட்டும் ரோபோக்கள் உருவாகும். அவ்வளவுதான் அதற்கு அறிவு. ஆனால், இந்தக் குறிப்பிட்ட துறைகளிலும், சில எல்லைகளை ரோபோக்கள் மீறக்கூடாது. அப்படி மீறிச்செல்லும் ரோபோக்களை உருவாக்குவதும் ஆபத்தானது. அதனால்தான் பாதுகாப்புத்துறையில், ஆயுதத்தளவாடங்களில் ரோபோக்களை அனுமதிப்பதற்கு பலரும் எதிர்ப்பு தெரிவிக்கின்றனர்.

சுயகற்றலும், சுய சிந்தனையும் கணினிகளுக்கு கிடையாது. எனவே இன்னும் எவ்வளவுகாலம் ஆனாலும், அவற்றால் முழுமையாக மனிதனைப் போல சிந்திக்க முடியாது; மனிதன் அனுமதித்த அளவுக்கு மட்டுமே சிந்திக்க முடியும்.