"Çıxış yolu yalnız ciddi nəzarət və qlobal tənzimləmədədir..."
Ölümündən bir qədər əvvəl məşhur fizik Stiven Hokinq süni intellektin sürətli inkişafı ilə bağlı insanlığı ciddi şəkildə xəbərdar edib.
Moderator.az xəbər verir ki, bu barədə "wionews.com" nəşri yazıb.
Bioloji fərq və nəzarətin itirilməsi
Alimin fikrincə, bioloji təkamülün ləngliyi insanı özünü daim təkmilləşdirən süni intellektlə rəqabətdə uduzmağa məhkum edir və bu proses insan sivilizasiyasının sonuna gətirib çıxara bilər. Hokinqə görə, insanlıq milyon illərlə formalaşan ləng bioloji təkamülə bağlıdır, süni intellekt isə özünü demək olar ki, ani şəkildə yenidən qurub təkmilləşdirə bilir.
Bu fərq artdıqca insanın sistemlər üzərində nəzarəti zəifləyir və qərarvermə alqoritmlərin əlində cəmlənir. O, hesab edir ki, bu dinamika davam edərsə, insanlıq öz yaratdığı daha sürətli və daha səmərəli intellekt qarşısında geridə qalacaq.
Hərbi, iqtisadi və sosial risklər
Hokinq süni intellektin hərbi istifadəsini ən ciddi təhlükələrdən biri kimi görürdü. Avtonom silah sistemlərinin yayılması yeni qlobal silahlanma yarışını qaçılmaz edir və bu yarışın nəticəsi bütün bəşəriyyət üçün fəlakət riski yaradır.
Eyni zamanda avtomatlaşdırma və süni intellekt əsaslı istehsal orta təbəqənin iş yerlərini sıradan çıxarır. Bu isə iqtisadi bərabərsizliyi kəskinləşdirir və cəmiyyət daxilində uçurumu daha da dərinləşdirir.
Nəzarət, yoxsa sivilizasiyanın sonu
"Böyük suallara qısa cavablar" əsərində Hokinq əsas təhlükənin maşınların aqressivliyi deyil, onların həddindən artıq effektivliyi olduğunu yazırdı. Əgər süni intellektin məqsədləri insan ehtiyaclarından uzaqlaşsa, insanlıq idarəolunmaz sistemin içində qala bilər.
O, hələ 2014-cü ildə tam inkişaf etmiş süni intellektin insan sivilizasiyasını məhv edə biləcəyini açıq şəkildə ifadə edib.
Bununla belə, Hokinq texnologiyanı tam rədd etməyib və onun ciddi nəzarət altında inkişaf etdirilməsi ilə xəstəliklərin müalicəsi, ekologiyanın bərpası və yoxsulluğun azaldılması kimi imkanlar yaradacağını düşünüb.