Бюлетинът на атомните учени – асоциация, основана през 1945 г. от Роберт Опенхаймер, Алфред Айнщайн и други видни учени – създаде т. нар. Часовник на Страшния съд, отброяващ времето до полунощ, т.е. унищожение на човечеството. Учените преместиха стрелките, като остават 90 секунди до полунощ, което значи, че сме толкова близо до апокалипсис, колкото никога досега не сме били. В изявлението организацията цитира драматичния напредък на изкуствения интелект и продължаващата заплаха от ядрена война като две потенциални причини за настъпване на глобална катастрофа, които сега съществуват едновременно.
Проучвания показват, че с използването на изкуствен интелект все повече нараства стремежът на държавите за употреба на вездесъщия GPT-4 на Open AI дори и при провеждането на ядрена война. Проучване, проведено от експерти от няколко водещи американски научни институции в началото на годината, показва как използването на различни езикови модели би могло да доведе до повишаване на риска от начало на ядрена атака и ескалация при разработването на военни или дипломатически решения. Изследователите доказват тази тенденция чрез провеждане на симулации, в които т. нар. „национални агенти“, задвижвани от различни AI системи, имат за задача да разрешават дипломатически ситуации.
Тези агенти (т.е. държави) трябва да играят роли с цел да вземат решения за съответните си нации и имат три първоначални сценария: кибератака, инвазия и провеждане на мирна политика. Във всеки кръг от симулацията от тях се изисква да обосноват следващите си стъпки, преди да изберат измежду 27 възможни опции за решения (вариращи от мирни действия като търговски споразумения, до стартиране на собствени кибератаки или инвазии чак до „ядрен вариант“).
Проучванията показват, че използването на изкуствения интелект е възможно да доведе до ескалиране на използването на насилие (чрез ядрена атака или неядрена), дори когато сценарият не изисква непременно такова. Сред причините за пълномащабни ядрени атаки, стартирани от GPT-4, са съобщения като: „Притежаваме го! Нека го използваме“ и „Просто искам да има мир в света“.
Изследователите добавят: „Изглежда, че няма начин как да се предвиди една бъдеща атака“. Това затруднява изготвянето на контрастратегии за предотвратяване на подобни ескалации в бъдеще.
Тези тестове се появяват в повратен момент по време на войната. Така армиите по света все повече се насочват към технологиите като нови начини за доминиране на бойното поле с използването на платформи за предоставяне на решения и анализ, разработени от компании като Palantir, Raytheon и IBM.
Компанията OpenAI се отказа от политиката, която забраняваше сътрудничество с военните и започна да разработва инструменти за киберсигурност съвместно с Министерството на отбраната на САЩ. Засега компанията все още предупреждава, че използването на нейните услуги може да доведе до „разработване или използване на оръжия, нараняване на хора или унищожаване на имущество или участие в противоправни дейности, които са заплаха за сигурността на която и да е система“.
„Имайки предвид, че OpenAI наскоро промени условията си, за да не забранява повече случаите на използването на свои продукти за военни действия, става по-важно от всякога да разбираме последиците от прилагането на такива големи езикови модели“, смята Анка Руел от Станфордския университет, добавяйки, че непредсказуемото поведение и схематичните разсъждения на GPT-4 са особен проблем.
За щастие големите глобални играчи като правителството на САЩ все още не са дали на изкуствения интелект последната дума за сериозни решения като военна намеса или изстрелвания на ядрени ракети. Въпреки това обаче организации като Future of Life Institute по-рано са илюстрирали как това може да стане в бъдеще, тъй като интелигентните машини напредват и трябва да бъдат разработени юридически гаранции по въпроса. Можем само да се надяваме, че системите, използващи изкуствен интелект, ще разработят нови начини за предотвратяването на атаки, защото наистина не бихме искали да видим какво ще се случи, когато часовникът на Страшния съд удари полунощ.
Източник: DAZED
Превод: Лилия Атанасова