AI தொழில்நுட்பத்தை தவறாக பயன்படுத்தி வைரஸ்களை உருவாக்கும் அபாயம்!

 

Artificial intelligence எனப்படும் செயற்கை நுண்ணறிவுத் தொழில்நுட்பம் அசுர வளர்ச்சியடைந்து வரும் காலகட்டத்தில் இதைத் தவறாக பயன்படுத்தி வைரஸ்களைக் கூட உருவாக்க முடியும் என எச்சரித்துள்ளார் கூகுள் இணை நிறுவனர்.

ChatGPT-ன் வருகைக்குப் பிறகு நாம் நினைத்துப் பார்க்க முடியாத வகையில் பல ஏஐ கருவிகளும், மென்பொருட்களும் வெளிவந்த வண்ணம் உள்ளது. இதனால் மனிதர்களின் வாழ்க்கைமுறை எளிதாக்கிவிட்டது என நாம் நினைத்தாலும், அவற்றால் எதிர்காலத்தில் மிகப்பெரிய பாதிப்புகள் ஏற்படும் என தொழில்நுட்ப வல்லுனர்கள் கூறுகின்றனர்.

இந்நிலையில், மனித குலத்தை அழிக்கக்கூடிய கொடூரமான வைரஸ் தொற்று நோய்களையும், கம்ப்யூட்டர் வைரஸ்களையும் AI பயன்படுத்தி உருவாக்கலாம் என்று கூகுள் டீப் மைண்ட் இணை நிறுவனர் முஸ்தபா சுலைமான் எச்சரிக்கை விடுத்துள்ளார். மேலும் ஒரு நோய்க்கிருமி மக்களை பாதிக்கும்போது அதைத் தடுப்பதற்கு எப்படி பல கட்டுப்பாடுகளை நாம் மேற்கொள்கிறோமோ, அதேபோல AI தொழில்நுட்பத்தைப் பயன்படுத்தி உருவாக்கப்பட்ட மென்பொருட்கள் மற்றும் கருவிகளை மக்கள் கட்டுப்பாடுடன் பயன்படுத்துவதற்கான வழிமுறையை நாம் கொண்டுவர வேண்டும் என்றும் அவர் தெரிவித்துள்ளார்.

இந்தத் தகவலை சமீபத்தில் அவர் பேசிய ஒரு பாட்காஸ்ட் ஒன்றில் அவர் கூறியுள்ளார். “மனிதர்களை அழிக்கும் நோய்க்கிருமிகளை உருவாக்க செயற்கை நுண்ணறிவு பயன்படலாம். அதனால் அதிகத் தீங்கை விளைவிக்க முடியும். இதனால் மக்கள் தங்களுக்கே தெரியாமல் நோய்க்கிருமிகளை உருவாக்கி பரிசோதிக்கும் வாய்ப்புள்ளது. எனவே செயற்கை நுண்ணறிவு தொழில்நுட்பம் இது நமக்கு கட்டுப்பாடுகள் தேவை. உருவாக்கப்பட்ட கருவிகள் மற்றும் மென்பொருட்களை வைத்து எவ்விதமான பரிசோதனைகள் செய்ய வேண்டும் என்பதைக் கட்டுப்படுத்த வேண்டும். இதை பயன்படுத்தி தீங்கு விளைவிக்கும் செயலில் ஈடுபட யாரையும் அனுமதிக்க கூடாது. இதை தொடக்க நிலையிலேயே கட்டுபடுத்தி முன்னெச்சரிக்கையோடு அணுகவேண்டும்” என அவர் கூறியுள்ளார்.

இதற்கிடையே சமீபத்தில் மக்களுக்கு தீங்கு விளைவிக்கும் படியான செயல்களில் AI ஈடுபட்டால். அதற்கான கட்டுப்பாடுகள் விதிக்கப்பட்டு ஒழுங்குபடுத்தப்படும். தனிநபரின் வாழ்க்கையில் நுழையும் இணையவாசிகளின் நடவடிக்கையைக் கட்டுப்படுத்த மத்திய மாநில அரசுகள் கூட்டாக செயல்பட வேண்டும் என மத்திய அமைச்சர் ராஜூ சந்திரசேகர் தெரிவித்துள்ளார்.

Leave a Reply

Your email address will not be published. Required fields are marked *