.

செயற்கை நுண்ணறிவு (Artificial intelligence - Al) என்பது மனிதர்களை விடப் பன்மடங்கு சிந்திக்கும் திறன் கொண்டது. அதிவேகமாக செயல்படக்கூடியது. இந்தத் தொழில்நுட்பம் பயன்படுத்திச் செய்ய முடியாத வேலைகளே இல்லை உலகத்திற்கும் மனிதர்கள் உயிர்வாழவும் இன்றியமையாத நீர், நிலம், காற்று, நெருப்பு.ஆகாயம் ஆகிய பஞ்ச பூதங்களுக்கு அடுத்தபடியாக ஆறாவது பூதம் என்று சொல்லப்படும் அளவுக்கு இந்த செயற்கை நுண்ணறிவு அசுர வளர்ச்சியடைந்து வருகிறது என மனித குலமே பெருமிதத்தில் மிதக்க இந்த சிறப்பு செயற்கை நுண்ணறிவு மனித குலத்துக்கு மட்டுமன்றி முழு உலகத்திற்கும் எதிரான அரக்கனாக உருவெடுத்து வருவதாக வெளிவரும் எச்சரிக்கை அறிவிப்புகள் உலக நாடுகளை அதிர வைத்துள்ளன.

மனிதர்கள் செய்யும் பல பணிகளை செயற்கை நுண்ணறிவு மூலம் இயந்திரங்கள் கண் இமைக்காமல் செய்யத் தொடங்கியுள்ளன.மனிதர்களின் படைப்பாற்றலே ரோபோக்கள் மற்றும் இயந்திரங்களின் உருவாக்கத்திற்கு அடிப்படை காரணியாக அமைந்துள்ளது. ஆனால், தற்போது மனித குலத்துக்கே சவால்விடும் விதத்தில் செயற்கை நுண்ணறிவு (AI) தொழில் நுட்பம் அசுரத்தனமாக வளர்ந்து வருகிறது. இனி சகலமும் செயற்கை நுண்ணறிவு என்று ஆகிப்போனால் மனிதனின் நிலை என்னவாகும் என மிகப்பெரியதொரு கேள்வி உலகம் முழுவதும் எழுந்துள்ளது.

‘அப்பிள்"’ நிறுவுனர் ஸ்டீவ் வோஸ்னியாக் 'டெஸ்லா" நிறுவுனர் எலான் மஸ்க் உள்ளிட்ட ஆயிரத்துக்கும் மேற்பட்ட தொழில்நுட்பத் தலைவர்களும், ஆராய்ச்சி யாளர்களும்,AI ஏற்படுத்தவிருக்கும் ஆபத்தான சவால்களை கருத்தில் கொண்டு, ஆராய்ச்சிகளை ஆறு மாதங்களுக்கு நிறுத்திவைக்கக் கோரி திறந்த கடிதத்தில் கையெழுத்திட்டனர்.அதுவே உலகம் முழுக்க திகிலைக் கிளப்பி விட்டிருக்கிறது.

சமீபத்தில், AI துறையில் பல ஆண்டு அனுபவம் கொண்ட, இந்த ஆண்டு கூகுள் நிறுவனத்திலிருந்து ஓய்வு பெற்ற, ஏஐ துறையின் கோட்பாதர் என்று அழைக்கப்படும் ஜெஃப்ரி ஹிண்டன், “'எதிர்வரும் காலத்தில் AI துறையால் மிகப் பெரிய ஆபத்துகள் ஏற்பட வாய்ப்பிருக்கிறது.எனவே, AI என்று வரும் போது அரசும் சரி,பெரும் நிறுவனங்களும் சரி மிகவும் கவனமாக இருக்க வேண்டும்.Chat GPT போன்ற தொழில்நுட்பத்தால் இணையம் முழுக்கத் தவறானவை பெருகும். எது உண்மை என்று அறிந்துகொள்ள முடியாமல் போகலாம்;AI நல்கள் நாம் எதிர்பார்ப்பதற்கும் மேலாக மனிதனின் வேலைகளை அபகரித்துக்கொள்ளும்: சேமிக்கப்படும் அளவில்லாத தரவுகள் (Data)தவறாகப் பயன்படுத்தப்படக் கூடிய ஆபத்து இருக்கிறது” என எச்சரித்திருந்தார்.

AI துறையை ஒழுங்குபடுத்துவதற்கான நிர்வாக உத்தரவை அமெரிக்க ஜனாதிபதி ஜோ பைடன் வெளியிட்டு,அதன் கொள்கையை அறிமுகப்ப டுத்தினார்.அப்போது பேசிய அவர். “AI சாதனங்கள் மக்களை ஏமாற்றப் பயன்படுத்தப்படுகின்றன. AI மூலம் உருவாக்கப்படும் ஒடியோ, வீடியோக்கள் ஒருவரின் நற்பெயரைக் கெடுக்கும் போலி செய்திகளைப் பரப்பவும்,மோசடி செய்யவும் பயன்படும் சூழல் நிலவுகிறது.உங்கள் குரலை மூன்று வினாடிகள் பதிவு செய்தாலே போதும்,அப்படிதான் நான் பேசியதாக ஒரு வீடியோ வெளியானது.அதில், நான் சொல்லாததை நானே சொன்னது போல வீடியோ இருந்தது.அதனை கேட்ட போது, 'நான் எப்போது இப்படி பேசினேன்?' எனக் கேட்டேன் எனக் கூறியுள்ளார்

இதேபோன்றே பிரிட்டன் பிரதமர் ரிஷி சுனக் ஏஜி குறித்து சில பகீர் கருத்துகளைப் பகிர்ந்துள்ளார்.AI கருவிகளை எப்படி ஒழுங்குபடுத்தலாம் என்பது குறித்து சர்வதேச தலைவர்கள் பங்கேற்ற கருத்தரங்கு நடைபெற்றது.அதில் கலந்து கொண்ட ரிஷி சுனக் கூறுகையில், “இந்த தொழில்நுட்பத்தை உருவாக்கும் நபர்களே AI கருவிகளால் ஏற்படுத்தக்கூடிய அபாயத்தைச் சுட்டிக் காட்டி வருகிறார்கள்.இது குறித்து எச்சரிக்கையாக இருக்க வேண்டியது அவசியம்.செயற்கை நுண்ணறியால் நமக்கு மிகப்பெரிய ஆபத்துகள் ஏற்படும் வாய்ப்பு இருக்கிறது.

அவை தொற்று நோய் அல்லது அணு ஆயுதத்தைப் போலத் தான்.. மனிதக் குலத்திற்கே அது மிகப் பெரிய ஆபத்தை ஏற்படுத்தும்.எனவே, நாம் முன்கூட்டியே இந்த விவகாரத்தை ஆராய்ந்து உரிய நடவடிக்கை எடுக்க வேண்டும். நிலைமை கையை மீறிச் சென்று விட்டால் கஷ்டம்தான்” என்று தெரிவித்துள்ளார்.



இந்த AI தொழில் நுட்பத்தினால் ஏற்படக்கூடிய சில ஆபத்துக்களைப் பார்ப்போம்

மருத்துவத்துறை முதல் கலைத்துறை வரை எல்லா இடங்களிலும் பல அசாத்தியங்களைச் செய்திருக்கும் செயற்கைத் தொழில்நுட்பம்,இதுவரை இல்லாத வகையில் ஏற்படுத்தியிருக்கும் அச்சத்துக்கு காரணம், கிட்டத்தட்ட இது மனிதனைப் போலவே சிந்திக்கும் அளவுக்கு உருவாக்கப்பட்டுக் கொண்டிருப்பதுதான்.அந்தச் சிந்தனை, அதற்குத் தரப்படும் உள்ளீடுகளின், புள்ளியியல்களின்,தரவுகளின் வெளிப்பாடாக இருக்கும் எனும்போது வினை விதைத்து,வினை அறுக்கக்கூடிய ஆபத்துத்தன்மை கொண்டதாகிறது. உதாரணமாக,Deepfake தொழில்நுட்பம். சர்வதேச அமைப்புகளின் பிரதிநிதிகள் முதல் நாடுகளின் தலைவர்கள், அரசியல்வாதிகள், இனக்குழுமங்கள் வரை அவர்களின் உருவத்தை, குரலைப் பயன்படுத்தி,சமுதாயத்தில் பிளவை, சண்டையை,கலவரத்தை ஏற்படுத்தும் விதமாக அவர்கள் பேசும் காணொளிகளைப் பொய்யாக உருவாக்கி,உலகத்தையே போர்க்காடு ஆக்கும் அபாயம் இந்த AI தொழில்நுட்பத்தில் இருக்கிறது.தவறான WhatsApp கடவுச் சொற்களைக் கூட சத்திய வாக்காக நம்பும் நம் மக்கள்,100 வீதம் துல்லியமான AI காணொளிகளை 100 வீதம் நம்புவார்கள்,அதற்கு வினையாற்றுவார்கள் சமூகவிரோதிகள், மோசடிக்காரர்களின் நோக்கம் நிறைவேறுவதில் எந்தத் தடையும் இருக்காது.

2023 ஆம் ஆண்டின் தொடக்கத்தில்,பிரபலங்களின் புகைப்படங்களை வணிக ரீதியாகப் பயன்படுத்தியதற்காக, Reface என்ற வைரல் Face Swap Application னுக்கு எதிராக அமெரிக்காவில் வழக்குப் பதிவு செய்யப்பட்டது. Reface Application செயற்கை நுண்ணறிவை (AI) பயன்படுத்தி Hyper Realistic face swaps உருவாக்கு கிறது .எந்தவொரு நபரின் மூகத்தின் புகைப்படத்தையும் மற்றொரு நபரின் படம் அல்லது வீடியோவில் டிஜிட்டல் முறையில் மாற்றி பயன்படுத்த முடியும். Face swaps apps வேடிக்கையான அம்சமாக தெரிந்தாலும் ஆனால் இது பெரும் மோசடிக்கும் வழிவகுத்துள்ளது.

சமூகத்திலும் அரசியல் களத்திலும் பெரும் குழப்பங்களை உருவாக்கும் வகையில் ஏற்கெனவே பொய்ச் செய்திகள் பரப்பப்படுகின்றன. இந்நிலையில்,செயற்கை நுண்ணறிவுத் தொழில்நுட்பத்தின் மூலம் எளிதில் கண்டறிய முடியாத வகையில் துல்லியமாகப் பொய்ச் செய்திகளைப் பரப்ப முடியும்.AI face swapping appன்மிக முக்கியமான ஆபத்துக்களில் ஒன்று இது தவறான தகவல் மற்றும் போலி செய்திகளை பரப்புகிறது. இந்தப் பயன்பாடுகள் வீடியோக்களையும் படங்களையும் வெற்றிகரமாக கையாளுகின்றன மற்றும் உண்மையாக இருப்பது போன்ற தோற்றத்தை அச்சு அசலாக உருவாக்குகின்றன. மற்றவர்களைப் போல ஆள்மாறாட்டம் செய்வதன் மூலம்,மோசடி செய்பவர்கள் முக்கியமான தரவுகளுக்கான அங்கீகாரமற்ற அணுகலை எளிதாகப் பெறலாம் மற்றும் பிறரின் அடையாளத்தைப் பயன்படுத்தி குற்றங்களைச் செய்யலாம்.ஒரு நபரின் படம், வீடியோக்களை ஆள்மாறாட்டம் செய்வதன் மூலம் சைபர் தாக்குதலுக்கு நேரிடும், அவர்கள் மோசடி நபர்களால் மிரட்டப்படுவார்கள்.மோசடி நபர்கள் AI face swap தொழில்நுட்பம் பயன்படுத்தி ஆபாசப் படங்கள் உருவாக்கி உளவியல் பாதிப்பை ஏற்படுத்தக் கூடும்.

இந்த தொழில் நுட்பத்தின் ஆபத்துக்களில் ஒன்றாக அமெரிக்காவில் AI girl friend இப்போது Trend ஆகி வருகிறார்கள். இதைப் பார்க்க சூப்பராக இருந்தாலும் கூட இது இளைஞர்களிடையே தனிமை தொற்றுநோயை ஏற்படுத்தும் ஆபத்து உள்ளதாக வல்லுநர்கள் எச்சரிக்கிறார்கள். இந்த AI girl friend தனிமையில் இருக்கும் ஆண்களை மேலும் பிரச்சினைக்குரிய இடத்தில் தள்ளுவதாகவும் இது புதிய தனிமை பெருந்தொற்றை ஏற்படுத்தும் என்றும் ஆய்வாளர் லிபாட்டி விட்டாட் எச்சரித்துள்ளார்.

இது தொடர்பாக லிபர்ட்டி விட்டர்ட் மேலும் கூறுகையில், “நான் கல்லூரியில் பாடம் நடத்தும் போது.. எந்த சமூக வலைத்தளங்களைப் பயன்படுத்துகிறீர்கள் எனக் கேட்டேன். அப்போது மாணவர் ஒருவர் தனக்கு AI காதலி இருப்பதாகச் சொன்னது அதிர்ச்சி அடைய வைத்தது.அதிலும் அந்த மாணவர்எந்தவொரு தயக்கமும் இல்லாமல் தனக்கு AI காதலி இருப்பதாகச் சொல்கிறார். இது AI girl friend முறை எந்தளவுக்குப் பரவியுள்ளது என்பதையே காட்டுகிறது" என்றார்.

இந்த Virtual AI கருவிகளுடன் நாம் உரையாடலாம்.நமக்கு ஏற்றார் போல காதலிகளை/காதலன்களை நாமே கூட உருவாக்கலாம்.அப்படி தற்போதுள்ள முக்கிய AI கருவிகளில் ஒன்று Replika.இந்த AI செயலியை ஒரு கோடிக்கும் அதிகமானோர் பயன்படுத்தி வருகிறார்கள்.அதிலும் பெருந்தொற்று சமயத்தில் மட்டும் இதன் பயன்பாடு 35 சதவீதம் வரை அதிகரித்துள்ளது. தங்கள் பயனாளிகள் Replikaவுடன் பழகி,காதலில் விழுந்து இன்னும் சிலர் திருமணம் கூடக் கொண்டதாகவும் கூறியுள்ளனர்.

இது குறித்து பேராசிரியர் விட்டாட் கூறுகையில் இதில் பல சிக்கல்கள் உள்ளது.''இது உண்மையில் காதலி காதலன் எனச் சொல்லவே முடியாது.உங்களுக்கு என்ன பிடிக்கும் என்ன பிடிக்காது என்பதை கற்றுக் கொள்ளும் இந்த AI கருவிகள், அதன் பிறகு எப்போதும் உங்களுக்குப் பிடித்தது போலவே பேசும்.உங்களுக்குப் பிடிக்காத விஷயங்களைப் பேசவே பேசாது அதன் பிரச்சினைகளையும் சொல்லாது.எனவே. இதில் நீண்ட காலம் இருக்கும் இளைஞர்களால் இங்கே நிகழ்காலத்தில் நடக்கும் உறவுகளில் வரும் பிரச்சினைகளைச் சமாளிக்க முடியாது. "மனித குலமே காலியாகும்.


இப்போது இளைஞர்கள் பலரும் பெண்களைத் தவிர்த்துவிட்டு இந்த AI காதலிகளைத் தேர்வு செய்கிறார்கள். இது சமூகத்தில் பெரிய பாதிப்புகளை ஏற்படுத்தும்.இதனால் இளைஞர்களுக்கு உண்மையான உறவுகளில் நாட்டம் குறையும்.இதனால் பிறப்பு விகிதத்தைப் பாதிக்கும். இது மிகவும் அமைதியான ஒரு தொற்று நோயைப் போன்றது. இது மனிதர்கள் மத்தியில் வேகமாகப் பரவி மோசமான பாதிப்புகளை ஏற்படுத்தும்.இது மன ரீதியான பாதிப்பையும் ஏற்படுத்தும்" என்றார்.


ஏற்கனவே 2022 இல் எடுக்கப்பட்ட ஒரு ஆய்வு 34 சதவீத பெண்கள் மட்டுமே தனிமையாக இருக்கும் நிலையில், ஆண்களில் 63 சதவீதம் பேர் தனிமையாக இருப்பதாகக் கூறப்பட்டுள்ளது. இந்தச் சூழலில் AI காதலிகள் மேலும் மேலும் இளைஞர்களைத் தனிமையில் தள்ளுகிறது. இதை நிலை நீட்டித்தால் அது பல மனநிலை வித பாதிப்புகளை ஏற்படுத்தலாம்.உலகில் சனத்தொகையில் பெரும் வீழ்ச்சி ஏற்படும் என மருத்துவர்கள் தெரிவித்துள்ளனர்.

அதேபோன்று 2024 ஆம் ஆண்டு இலங்கை உட்பட பல நாடுகளில் தேர்தல்கள் நடக்கவுள்ளன.இதில் பலகோடி மக்கள் வாக்களிக்க உள்ளனர். வாக்காளர்களின் கவனத்தைத் தங்கள் கொள்கைப் பக்கம் ஈர்த்து வைத்திருக்க,அரசியல் கட்சிகளும்,அவற்றின் பிரதிநிதிகளும் தொழில் நுட்பத்தைச் சார்ந்திருப்பது ஜனநாயகம் உருவாகிய நாள்களில் இருந்தே உள்ள வழிமுறை.செய்தித்தாள்,வானொலி,தொலைக்காட்சி ஆகியவை ஒரு வழிச் செய்திகளைக் கொண்டு போய்ச் சேர்க்கும் ஊடகங்கள், இவை மூலமாக மக்களைச் சென்றடையும் கருத்துகள் அவர்களிடம் என்ன விதமான தாக்கத்தை ஏற்படுத்துகிறது என்பதை அறிந்துகொள்ள அதிகம் மெனக்கெட வேண்டும்.மக்களிடம் நேரடியாகவோ, மறைமுகமாகவோ கருத்துக் கணிப்புகளை நடத்துவது, செய்தி ஊடகங்களுக்கு மக்கள் கழுதங்கள் எழுதுவதை ஊக்குவிப்பது போன்றவை மூலம் ஓரளவிற்கு அளவிட முடிந்தது வானொலி மற்றும் தொலைக்காட்சி ஊடகங்கள் வந்தபின் பார்வையாளர்கள் எதைப் பார்க்கிறார்கள், எதைத் தவிர்க்கிறார்கள் என்பதைக் கண்டறியும் TRP போன்ற முறைகள் வந்தன. தகவல்களை முழுக்கடிஜிட்டல் வழவில் பகிர்ந்துகொள்ளலாம் என்ற நிலையை இணையம் என்ற ஊடகம் கொண்டு வந்த  பின்னர் இது இன்னும் கூர்மையடைந்தது.

இவ்வாறான நிலையில்தான் நாடுகளில் நடக்கும் தேர்தல்களிலும் இந்த AI தான் வெற்றி தோல்வியை தீர்மானிக்கப் போகின்றது என்ற அதிர்ச்சித் தகவலும் வெளிவந்துள்ளது.வாக்காளர் உணர்வுப் பகுப்பாய்வு (Voter sentiment analysis) நான்கு ஆண்டுகளுக்கு ஒருமுறை வரும் அமெரிக்க எனாதிபதி தேர்தலில், வேட்பாளர்கள் கலந்துகொள்ளும் விவாத மேடை மிக முக்கியமாக கவனிக்கப்படும் ஒன்று.யார் வலுவாகத் தங்கள் வாதங்களை எடுத்து வைக்கிறார்கள் என்பதை தொலைக்காட்சி மற்றும் பிற நிறுவனங்கள் மக்களது மனநிலையை அளப்பதன் மூலம் முடிவு செய்கிறார்கள்.முன்னொரு காலத்தில், பார்வையாளர்களை ஒரு அறைக்குள் அமர வைத்து, அவர்கள் கைகளில், 'நன்று', 'மோசம்' என்பதைக் குறிக்கும் இரண்டு பொத்தான்களைக் 
கொடுத்து, விவாதம் நடந்துகொண்டிருக்கும் போதே வேட்பாளர்களை எடைபோட வைக்கும் முறைமை இருந்தது.

இனி சமூக ஊடகங்களில் எழுதப்படும் பதிவுகள்,மற்றும் பதில்களை உடனுக்குடன் எடுத்து, அவற்றைப் பகுப்பாய்ந்து மக்களின் உணர்வு அளந்து பகிரப்படும்.இந்த உணர்வு பகுப்பாய்விற்கு அடிப்படையாக இருக்கும் AI தொழில்நுட்பப் பிரிவு - இயற்கை மொழிச் செயலாக்கம் எனப்படும் Natural Lan-
guage Processing (சுருக்கமாக, NLP).மக்கள் இயற்கையாகப் பேசும் எழுதும் வாக்கியங்களை முன் பயிற்சி செய்து வைத்திருக்கும் மென்பொருள் வடிவங்களைத் திறந்த வெளியில் அதிகம் பார்க்க முடிகிறது.சரி. இப்படி உணர்வைப் பகுப்பாய்வதால் என்ன பயன்?மக்களின் மனநிலையைப் புரிந்து கொண்டு வேட்பாளர்களும், அவர்களது கட்சிகளும் தங்களது பரப்புரையைச் செதுக்கிக் கொள்ள உதவும். குறிப்பிட்ட பொதுக்கூட்டப் பிரசாரம் எப்படி இருந்தது என்பதைப் புரிந்துகொண்டு, அடுத்த கூட்டத்தில் குறிப்பிட்டவற்றைத் தவிர்ப்பது, அல்லது அழுத்தமாகச் சொல்வது போன்றவற்றை முடிவு செய்ய என பல விதங்களில் வேட்பாளர்களுக்கு உதவுகிறது இது தேர்தல் நெருங்க நெருங்க,யாருக்கு வெற்றி வாய்ப்பு இருக்கிறது என்பதை அளவிட்டுச் சொல்லும் புள்ளியியல் கணிப்பு நிறுவனங்க ளுக்கும் இந்தத் தகவல் இன்றியமையாததாக இருக்கப்போகிறது.

படைப்பூக்க செயற்கை நுண்ணறிவு (Gen-crative Al ChatGPT, Bard) தொழில்நுட்பங்கள் வரும் தேர்தல் காலத்தில் பெருமளவில் பயன்படு த்தப்படும்.குறிப்பிட்ட ஒருவரின் உணர்வைப் பகுப்பாய்ந்து, அவர் தனக்கு சார்பாக இருக்கிறாரா. எதிரணிக்கு சார்பாக இருக்கிறாரா அல்லது மதில் மேல் பூனையா என்பதைத் துல்லியமாகப் புரிந்துகொண்டு, அதற்கு ஏற்றபடி பதிவுகளைத் தயாரித்து அவரைக் குறிவைத்து,அவர் இயங்கும் ஊடகங்களில் அவற்றை மீண்டும் மீண்டும் வரும்படி செய்ய முடியும். Microtargeting என அழைக்கப்படும் இந்த யுத்தி, குறிப்பாக மதில் மேல் அமர்ந்திருக்கும் பூனையா ர்களைக் குறி வைத்து, தேர்தலுக்குச் சில நாள்களுக்கு முன்பு செயல்படு த்தப்படும்.10-15 சதவிகித வாக்காளர்கள் கடைசி சில நாள்களில்தான் தாங்கள் யாருக்கு வாக்களிக்கப் போகிறோம் என்பதை முடிவு செய்கிறார்கள் என்பதே இதற்கு முக்கிய காரணம். வார்த்தைத் தகவல்களைத் தாண்டி, படங்களும், காணொளிகளும் தயாரிக்கப்பட்டு உங்களை ஈர்க்க உலா வரும் சாத்தியங்கள் அதிகம். இதில் அதிகம் போலியாக இருக்கும்.

இந்தத் தொழில்நுட்பங்களால் பல நன்மைகளும் விளைகின்றன என்பதை மறுக்க முடியாது.மருத்துவ உலகில் விடை காண முடியாமல் தவிக்கும் பல கேள்விகளுக்குச் செயற்கை நுண்ணறிவு விடைதேட உதவிக்கொண்டிருக்கிறது.ஆனால் உண்மைதானோ என்று யோசிக்க வைக்கும் அளவுக்கு துல்லியமான விஷயங்களை உருவாக்கித் தரும் இந்தத் தொழில்நுட்பங்கள் தவறான நோக்கத்துடன் பயன்படுத்தப்படும்போதுதான் சிக்கல் உருவாகிறது.மிக முக்கியமாக, இந்தத் தொழில்நுட்பங்களைக் கட்டுப்படுத்தும் வகையிலான சட்டங்களை, வழிமுறைகளை அரசுகள் உருவாக்க வேண்டும். நெறிமுறைகள் மற்றும் நீதி முறைமைகள் எதுவும் இல்லாததால் செயற்கை நுண்ணறிவுக்கு என்று தனிப்பட்ட எண்ணம் இல்லை, இந்த எண்ணம் அதன் செயற்பாட்டைத் தீர்மானிக்கும் Programe உடன் தொடர்புடையதாக உள்ளது.சுருங்கக் கூறினால் அவற்றுக்கென சொந்த கருத்து என்று எதுவும் இல்லை.ஏனெனில் எதுவுமே அவற்றுக்குச் சொந்தமானது இல்லை,மனிதனுக்கு பயனுள்ளதாக இருந்தால் மட்டுமே இது நிலைத்திருக்கும்.இல்லையெனில் அது காலாவதியாகி விடக்கூடும்.ஏனெனில் அதற்கென தனி அடையாளம் எதுவும் இல்லை.ஆனால் மனிதனுக்கு அப்படி இல்லை அவனுக்கென்று தனித்த அடையாளங்கள் உள்ளன,எல்லாவற்றுக்கும் மேலாக,இந்த தொழில்நுட்பத்தை ஆக்கபூர்வமானதாகவோ,அழிவுகரமா னதாகவோ பயன்படுத்துவது மனிதர்களின் கையில்தான் உள்ளது என்றே விஞ்ஞானிகள் கூறுகின்றனர்.


இவற்றையும் பார்வையிடுங்கள்

Post a Comment

Previous Post Next Post