"Süni intellekt modelləri beynəlxalq böhranlarda diplomatiya yerinə eskalasiya yolunu seçir, bəzən nüvə istifadəsini də nəzərdən keçirir..."
Dünya "böhranı" yeni texnologiyalarla artır - alimlər həm süni intellektin qoruyucu potensialını, həm də təhlükəli hərbi eskalasiya riskini müzakirə edir.
Moderator.az xəbər verir ki, bu barədə "cursorinfo.co" nəşri yazıb.
Analıq instinkti insanlığı xilas edə bilərmi?
Dünyaca məşhur "Süni intellektin xaç atası" Dr. Ceffri Hinton süni intellektin potensial təhlükələrindən qorunmaq üçün yeganə yolun daha "ana" instinktlər aşılanmış sistemlərdə olduğunu bildirib. Hintonun fikrincə, süni intellekt yalnız onu inkişaf etdirən insanlar kimi deyil, analoji "analıq instinkti" ilə də hərəkət etməlidir- üstünlük qazanmaq yox, qorumaq, himayə etmək.
Hinton Las-Veqasda keçirilən Ai4 konfransında qeyd edib ki, təbiətdə ana və uşaq münasibəti buna bənzər nadir nümunədir: ana uşaqdan daha ağıllı və güclü olsa belə, instinkt və sosial norma çərçivəsində onu qoruyur. "Bizə rəqəmsal köməkçilər yox, süni analar lazımdır. Köməkçini "buraxmaq" olar, amma ana təbiətcə uşağa bağlıdır və məsuliyyət daşıyır", - alim vurğulayıb.
Hintonntexniki olaraq bu ideyanın necə həyata keçirilə biləcəyini və təsirli olub-olmayacağını hələ bilmədiyini etiraf edib. O, insanlığın məhvinin ehtimalını 10-20 faiz arasında qiymətləndirir və bunun "diqqətsiz yanaşmaq üçün yüksək risk" olduğunu bildirir.
Qeyd edək ki, Hinton süni neyron şəbəkələrinin inkişafında əsas rol oynayıb və Google-da süni intellekt üzrə rəhbər vəzifədə çalışıb. 2023-cü ildə o, süni intellektin təhlükələrini qiymətləndirmək üçün güclü sistemlərin inkişafının yarım il dayandırılması çağırışından sonra şirkəti tərk edib.
Hərbi süni intellekt və nüvə riskləri
Pentagon və digər hərbi qurumlar süni intellekti strateji silah sistemlərinə daxil etməyə çalışsa da, son təcrübələr narahatlıq doğurur. Stenford Universitetindən Jaklin Şnayderin apardığı simulyasiyalarda süni intellekt modelləri beynəlxalq böhranlarda diplomatiya yerinə eskalasiya yolunu seçir, bəzən nüvə istifadəsini də nəzərdən keçirir.
Ekspertlər bildirir ki, bu meyllər süni intellektin necə işlədiyini tam anlamadığımız üçün təhlükəlidir. Pentagon nümayəndələri süni intellektin son qərar hüququna malik olmadığını desə də, texnologiya yarışının sürəti insan nəzarətini azaldır və avtonom sistemlərin yaranma riskini artırır.
Tədqiqatçılar vurğulayır ki, müasir hərbi süni intellekt "qaranlıq qutu" kimi qalır: onun hansı anda riskli və ya təhlükəsiz hərəkət edəcəyini dəqiq bilmək mümkün deyil. Çin və Rusiya artıq hərbi sistemlərdə süni intellekt elementlərini tətbiq edir və növbəti mərhələdə tam avtonom cavab sistemləri, nümunə olaraq "ölüm əli" tipli mexanizmlər yarana bilər.
ABŞ Müdafiə Nazirliyi AI Quantified proqramını 25 milyon dollar büdcə ilə işə salıb, məqsəd - süni intellekt sistemlərinin etibarlılığını qiymətləndirmək və kritik səhvlərin ehtimalını azaltmaqdır. Lakin alimlər hesab edir ki, bu səylər hələ real risklərə cavab vermək üçün kifayət deyil.
Gələcək risklər
Hintonun təklif etdiyi "analıq instinkti" mexanizmi süni intellektin insanlıq üçün təhlükələrini azaltmaq potensialına malikdir, lakin texniki və etik çətinliklər hələ həll olunmayıb. Eyni zamanda hərbi tətbiqlər süni intellekti təhlükəli eskalasiya riskinə açır və nüvə silahları kontekstində insan nəzarətinin əhəmiyyəti artır. Bu iki meyl göstərir ki, süni intellekt həm qoruyucu, həm də destruktiv potensiala malikdir və gələcəkdə insan nəzarəti və etibarlı mexanizmlərin formalaşdırılması həyati əhəmiyyət daşıyacaq.