მეცნიერება ტექნოლოგია

რევი ჩოგოვაძე – სუპერინტელექტი – ადამიანის თანაშემწე თუ საფრთხე?

ჭკვიან მანქანებზე მეტ საფრთხეს წარმოადგენენ ინტელექტსა და ზნეობას მოკლებული, სმარტფონებით და გაჯეტებით შეიარაღებული ადამიანები,- ამის შესახებ საქართველოს ტექნიკური უნივერსიტეტის ხელოვნური ინტელექტის სასწავლო დისციპლინების წამყვანი პროფესორი რევი ჩოგოვაძე აცხადებს.

„ინფო ფოსტალიონი“ მკითხველების თხოვნით აგრძელებს მასთან ინტერვიუს.

საზოგადოებაში აქტუალური ხდება ხელოვნური ინტელექტის თემა – როგორი იქნება მომავალი სუპერინტელექტის დამოკიდებულება ადამიანის მიმართ?

ინფო ფოსტალიონი: – ბ-ნო რევი, წინა ინტერვიუში თქვენ აღნიშნეთ, რომ სუპერნტელექტის შექმნა უდიდესი ამოცანაა, რომელიც კი ოდესმე მდგარა მეცნიერების წინაშე, თუმცა ალბათ, საშიშიც – რა საშიშროებზაეა საუბარი?

რევი ჩოგოვაძე: – ვხედავთ, როგორ იკრებს ძალას მეოთხე ინდუსტრიული რევოლუცია, ვხედავთ ციფრული რევოლუციის განვითარების მაღალ ტემპს, ცვლილებების დიდ მასშტაბებს, კიბერსისტემებისა და ინოვაციური ტექნოლოგიების მასობრივ დანერგვას. სუსტი ხელოვნური ინტელექტი უკვე ყველა სფეროში გამოიყენება.
სწრაფად ვითარდება ის ტექნოლოგიები, რომლებიც ადრე თუ გვიან მიგვიყვანს ძლიერი ხელოვნური ინტელექტის ანუ სუპერინტელექტის შექმნამდე. ბუნებრივია, რომ საზოგადოებაში ისმის კითხვა სუპერინტელექტი ადამიანის თანაშემწე იქნება თუ საფრთხე?

მრავალი წელია გვესმის აპოკალიფსური პროგნოზები, რომლებიც უკავშირდება ბირთვულ, ბიოლოგიურ, ქიმიურ იარაღს, ნანოტექნოლოგიებსა და გენურ ინჟინერიას, ეკოლოგიასა და გლობალურ დათბობას, თუმცა საფრთხეებს  შორის მეცნიერულ დონეზე თითქმის არ განიხილება ხელოვნური სუპერნტელექტი – როგორი იქნება მომავალი, ჰიპოთეტური სუპერინტელექტის დამოკიდებულება ადამიანის მიმართ (სუპერინტელექტის ზნეობრივი თვისებები), რასაც ამჟამად ფანტასტები და კინორეჟისორები ხშირად განიხილავენ. პრობლემა რომ რეალურია, ჩანს იმითაც, რომ რამდენიმე ცნობილმა მეცნიერმა და მოღვაწემ ამ საშიშროებაზე აზრი გამოთქვა.

– საზოგადოება იცნობს მრავალ კინოფილმსა და რომანს ამ თემაზე, თუმცა ნაკლებად – მეცნიერების აზრს…

რევი ჩოგოვაძე: –დიხ, პირველ რიგში გავიხსენებ ბრიტანელ დიდ ფიზიკოსს, სტივენ უილიამ ჰოკინგს, რომელიც შარშან გარდაიცვალა. მისი ხედვა მნიშვნელოვანია, როგორც თეორეტიკოსებს შორის ერთ-ერთი
ყველაზე გავლენიანი მეცნიერის, აგრეთვე იმიტომაც, რომ მრავალი წელი მას არ შეეძლო წერა და მეტყველება. გარე სამყაროსთან კომუნიკაციისათვის იყენებდა ამერიკული კომპანია Intel- ის მიერ შემუშავებულ სპეციალურ
მეტყველების ინტელექტუალურ სისტემას. BBC- სთვის მიცემულ ინტერვიუში სტივენ ჰოკინგმა აღნიშნა, რომ
„სრულფასოვანი ხელოვნური ინტელექტის შექმნა შეიძლება გახდეს ადამიანის რასის დასასრული“
ეს აპოკალიფსური პროგნოზი მან გააკეთა კითხვის პასუხად ახალი ინტელექტუალური სისტემის შესახებ, რომელსაც იგი იყენებდა გარე სამყაროსთან კომუნიკაციისათვის. ეს ტექნოლოგია სწავლობდ პროფესორის
აზრების მსვლელობას და ვარაუდობდა იმ სიტყვებს, რომლებიც მას შეეძლო გამოეყენებინა მომდევნო წინადადებაში.

ჰოკინგმა კაცობრიობის დასასრულის ოთხი შესაძლო სცენარი იწინასწარმეტყველა: ბირთვული ომი; გენური ინჟინერიით შექმნილი ვირუსები; გლობალური დათბობა და ხელოვნური სუპერინტელექტი.
ჰოკინგმა აღნიშნა: „ასეთი სუპერგონება მოიპოვებს ინიციატივას და მზარდი სიჩქარით დაიწყებს თვითგაუმჯობესებას, ადამიანების შესაძლებლობები კი შეზღუდულია ბიოლოგიის ძალიან ნელი ევოლუციით, ჩვენ ვერ შევძლებთ მანქანებთან შეჯიბრს და დავმარცხდებით“.

Microsoft- ის დამფუძნებელი ბილ გეითსი ასევე მიიჩნევს, რომ არსებობს მიზეზები, რათა სიფრთხილით მოვეკიდოთ ხელოვნური ინტელექტის განვითარებას, თუმცა სათანადო მოპყრობის შემთხვევაში მას შეუძლია კარგი საქმეების კეთება.

– იქნებ დააზუსტოთ, რა არის ხელოვნურ სუპერინტელექტთან დაკავშირებული პოტენციური რისკები?

– მრავალი პოტენციური რისკია, მაგალითად არსებობს რისკი, რომ ისტორიულად მოკლე ვადაში შავი და მექანიკური სამუშაოების შესრულებაზე გაწვრთნილი მანქანები წაართმევს ადამიანებს
მილიონობით სამუშაო ადგილს. მაგრამ პირველ რიგში დიდი რისკია ხელოვნური ინტელექტის გამოყენება
სამხედრო სფეროში – საბრძოლო რობოტები, საჰაერო და წყალქვეშა დრონები, მიკროდრონების გუნდები და სხვ. ამ საფრთხეზე გაამახვილა ყურადღება Neuralink , Tesla და SpaceX კომპანიების დამფუძნებელმა, ცნობილმა ინჟინერმა ელონ მასკმა. მან 26 ქვეყნის 115 თვალსაჩინო სპეციალისტთან ერთად მიმართა
გაერთიანებული ერების ორგანიზაციას, რომ არსებობს მკვლელი რობოტების შექმნის საფრთხე და მოუწოდა გაერო-ს ავტონომიური ინტელექტუალური ლეტალური სისტემების შემუშავებისა და გამოყენების აკრძალვისაკენ.

ილონ მასკის აზრით, მრავალი რისკია, რომელსაც შეუძლია შეწყვიტოს ჩვენი არსებობა – ასტეროიდი, სუპერვულკანი, ხელოვნური ვირუსი, კატასტროფული გლობალური დათბობა ან რაიმე უცნობი დესტრუქციული ტექნოლოგია. მილიონობით წელი გავიდა კაცობრიობის განვითარების, მაგრამ უკანასკნელ წლებში კაცობრიობა სწრაფად აძლიერებს თვითგანადგურების პოტენციალს. მასკი შიშობს, რომ შორეულ მომავალში, ჭკვიანი მანქანები შეიძლება გახდეს კაცობრიობის არსებობის მთავარი საფრთხე.
ინფო ფოსტალიონი: –სამწუხაროდ კაცობრიობის ისტორია გვიჩვენებს, რომ

-ნებისმიერი გამოგონება პირველ რიგში სამხედრო საქმეში გამოიყენება, რა არის სუპერინტელექტთან დაკავშირებული სხვა პოტენციური რისკები?

–დიხ, ასეა. სხვა პოტენციური რისკებიდან აღსანიშნავია სუპერინტელექტის მიერ სოციალური ქსელებით საზოგადოებრივი აზრის მანიპულირების შესაძლებლობა, ადამიანის პირად ცხოვრებაში ჩარევა, დისკრიმინაცია, ადამიანის მიზნების და სუპერინტელექტის მიზნების აცდენა და ა. შ. მაგალითად საზოგადოებრივი აზრის მანიპულირების სფეროში ხელოვნურ ინტელექტს უზარმაზარი შესაძლებლობები გააჩნია, პერსონალური მონაცემების მოპოვება, პროპაგანდის გავრცელება. ხელოვნური ინტელექტით შეიძლება გავრცელდეს ნებისმიერი ინფორმაცია ნებისმიერ ფორმატში, რომელიც ყველაზე დამაჯერებლად გამოიყურება, არა აქვს მნიშვნელობა ეს ნამდვილია თუ ცრუ. კიდევ მაგალითი – კონფიდენციალობის დარღვევა. ვიდეოკამერები თითქმის ყველგან არის და სახის ამოცნობის ნეროქსელები ადამიანის იდენტიფიკაციის. საშუალებას იძლევა.
 ამ ეტაპზე სუსტი ხელოვნურ ინტელექტს უკვე შეუძლია აკონტროლოს თითოეული ადამიანის ყველა ნაბიჯი, ისევე, როგორც მათი ბიზნესი. ეს მექანიზმები ხელს უწყობს სოციალური საკრედიტო სისტემის
განვითარებას მაგალითად ჩინეთში, რომელიც ანიჭებს თითოეულ მოქალაქეს გარკვეულ ქულებს მათი ქცევის მიხედვით, როგორიცაა ქუჩის წითელ შუქზე გადაკვეთა, არასწორ ადგილას სიგარეტის მოწევა, რამდენ დროს ატარებს ადამიანი სერიალის ყურებაში, სამორინეში ან ვიდეო თამაშებში და სხვ. მთავრობა ნამდვილად აკონტროლებს ყველას და იღებს გადაწყვეტილებებს ამ მონაცემებზე დაყრდნობით. ანალიტიკოსები შიშობენ, რომ ეს არ არის მხოლოდ კონფიდენციალურობის დარღვევა და შეიძლება გამოიწვიოს მძიმე შედეგები.
ყველა ეს ასპექტი შესაბამისი დარგის სპეციალისტების მიერ ღრმად უნდა ქნეს შესწავლილი.
ხელოვნური ინტელექტის შესაძლებლობები ფართოვდება და ეს შეიძლება გახდეს სახიფათო . სწორედ ამიტომ მნიშვნელოვანია განხილული იქნეს სუპერინტელექტის დესტრუქციული პოტენციალის მინიმიზაციის შესაძლებლობები.

– და მაინც სუპერინტელექტის უნდა გვეშინოდეს თუ არა?

– საფრთხე არსებობს, ნებისმიერი ტექნოლოგია შეიძლება გამოყენებულ იქნას არასწორად. როგორც იტყვიან, ცეცხლით შეგვიძლია სადილი მოვამზადოთ ან სახლი გადავწვათ. ამიტომაც სუპერინტელექტის შექმნის პრობლემა ერთ-ერთ მთავარ სამეცნიერო საკითხად უნდა წარმოჩინდეს. ამასთან, უნდა დამუშავდეს ტრანსდისციპლინარული მიდგომით და გადაწყდეს წინსწრებით, ანუ ვიდრე ისეთი ტექნოლოგიები განვითარდება, რომლებიც ადრე თუ გვიან მიგვიყვანს სუპერინტელექტის შექმნამდე, საჭიროა განისაზღვროს პოტენციური რისკები და თვით სუპერინტელექტის დამოკიდებულება ადამიანისა და კაცობრიობის მიმართ. აქედან გამომდინარე, მიუხედავად იმისა, რომ სუპერინტელექტი ჯერ არ არის შექმნილი, პრობლემის გარშემო არსებობს მთელი რიგი იურიდიული, პოლიტიკური, ფინანსური და მარეგულირებელი საკითხები, რომლებიც საჭიროა გადაწყდეს უახლოეს ათწლეულში იმისათვის, რომ კაცობრიობა მზად იყოს მასზე ჭკვიან ქმნილებასთან შესახვედრად და მასთან უსაფრთხო
თანაარსებობისთვის.

დღეისათვის კი, ჩემი აზრით, ჭკვიან მანქანებზე მეტ საფრთხეს წარმოადგენენ ინტელექტსა და ზნეობას მოკლებული, სმარტფონებით და გაჯეტებით შეიარაღებული ადამიანები, რომლებიც მსოფლიოში სწრაფად მრავლდებიან. მსოფლიოს ახალ ამბებს როდესაც ეცნობი, შთაბეჭდილება გრჩება, რომ ისინი იწყებენ დომინირებას და ისინი ჩაანაცვლებენ Homo sapiens– ს და არა სუპერინტელექტი. ეს რა თქმა უნდა, ნახევრადხუმრობით……

Facebook Comments