Изкуственият интелект от А до Я – част I

0
348
Изображение: Олена Минова

С бързото навлизане  на изкуствения интелект в нашия свят става все по-лесно да се загубим в термините и жаргоните, които са неизменна част от него. Ето защо е важно да сме наясно с тяхното значение.

Очаква се в близките няколко години изкуственият интелект да окаже голямо влияние върху пазара на труда. Изследванията за изкуствения интелект са сложни и голяма част от техния език е нов дори за самите изследователи. За да помогне на всички да се включат по-пълно в дебата за изкуствения интелект, TIME състави речник с най-разпространената терминология.

AGI

AGI е съкращение от Artificial General Intelligence (Изкуствен базисен интелект) – хипотетична бъдеща технология, от която  се очаква да изпълнява повечето икономически задачи за продуктивност дори по-ефективно от човек. Освен това, подобен тип технология би могла да доведе до нови научни открития, вярват поддръжниците ѝ. Изследователите обаче все още са скептични към AGI и  възможността за създаването на такава технология. Въпреки това, ОупънЕйай и ДийпМайнд – двете водещи изследователски организации за AI в света – са изрично ангажирани с изграждането на AGI.

Приравняване

„Проблемът с приравняването“ е едно от най-сериозните дългосрочни предизвикателства за безопасността в Изкуствения интелект. Днешният изкуствен интелект не е в състояние да надмине своите създатели. Въпреки това, изследователите очакват един ден това да се промени. В подобен свят настоящите начини за обучение на изкуствения интелект могат да се окажат вредни за човечеството, въпреки добрият им замисъл. За да намалят риска, някои изследователи работят върху „привеждането в съответствие“ на изкуствения интелект с човешките ценности. Тази задача обаче е трудна и за момента неразгадана. Допълнителна спънка се оказват бизнесите, които в опита си да са конкурентни, са склонни да прекрачат границата.

Автоматизация / Механизация

Автоматизацията  е исторически процес, при който човешкият труд се замества от машини.  В наши дни, хората отговорни за новите технологии вече са направили това с някои професии. Така работниците  по поточната линия и касиерите са изместени от машини, които не изискват заплащане за извършения труд. Най-новите открития в областта на изкуствения интелект могат да доведат до изчезването дори на чиновническите професии, според проучвания на Голдман Сакс и ОупънЕйай. Изследователи прогнозират, че  една пета от задачите на американските работници  и близо 300 милиона професии  в световен мащаб ще могат  да бъдат автоматизирани.  Дали обаче  повишаването на производителността ще доведе до  широкообхватен икономически растеж , или само ще задълбочи  икономическото неравенство, зависи от това как ще се облага и регулира изкуственият интелект.

Предразсъдъци/ пристрастия/ неравенство

Механизмите за „обучение“ на изкуствения интелект  могат да бъдат  доста дискриминиращи.  Установено е, че изкуствения интелект прикрепен към софтуерите за издаване на присъди е пристрастен в това отношение.  За един и същи вид престъпления, на чернокожи нарушители прилага по-тежки присъди.  Дори при някои софтуери за разпознаване на лица, отчита по-добре белите, отколкото цветнокожите . Този проблем се дължи на данните, които системите за обучение прилагат . Те доста ясно отразяват социалните неравенства. Съвременният изкуствен интелект работи като поглъщат големи количества информация и се учи да открива и  копира принципи и модели. Тоест, ако има повече бели лица, отколкото черни в набор от данни за лицево разпознаване, или ако данните за минали присъди показват, че чернокожите престъпници излежават по-дълги присъди от белите, тогава системите за машинно обучение могат да прихванат и  автоматизират тези несправедливости.

Чатбот

Чатботовете са потребителски интерфейси , създадени от компании за изкуствен интелект. Те позволяват на потребителите да пресъздадат истински разговор с LLM(large language model) или голям езиков модел, което често може да бъде ефективен начин за търсене на отговори на въпроси. В края на 2022 г., ОпенЕйАй стартира ЧатДжиПиТи. Превръщането му в успешен проект, накара  компании като Гугъл и Майкрософт да се опитат да интегрират чатботове в своите предложения за търсене в мрежата. Боравенето с тази технология обаче, може да бъде нож с две остриета, поради няколко причини.  Първо, чатботовете съвсем успешно могат да заблудят потребителя, че води разговор с друго разумно човешко същество. Второ, все още е възможно възпроизвеждането на грешна или заблуждаваща информация.

Конкурентен дух

Малки и големи технологични компании по света се борят да бъдат първи в изработката на по-мощни инструменти на изкуствения интелект. Всички се впускат в тази надпревара, за да извлекат максимални печалби.  Това стимулира въпросните компании да отделят повече ресурси. Изследователите обаче се притесняват, че безопасността остава на заден план, а моралния аспект все още не е усъвършенстван. Това  от друга страна, дава повод на други компании да представят своите системи като по-безопасни, от тези на своите конкуренти. Така високият състезателен дух, започва да дава своите странични ефекти. Пример за това е Бинг на Майкрософт. Системата показва враждебност към потребителите и предвижда надмощието на изкуствения интелект над човечеството.

Изчисления

Изчислителната мощност, всъщност е сред най-важните характеристики на системите за обучение на изкуствения интелект. Иначе казано, колкото  по-висока е тя, толкова по-висока е производителността. Днешните модели на изкуствения интелект изискват огромна изчислителна мощ, съответно и същото количество енергия. Компаниите обаче не разкриват въглеродните емисии, които отделят техните модели. За сметка на това, независими изследователи изчисляват, че за обучението на ДжиПиТи- 3, в атмосферата са изхвърлени над 500 тона въглероден диоксид. С разрастването на изкуствения интелект, тези цифри ще стават все по-големи

Данни

Данните, заедно с изчислителната мощ и невронните мрежи, са едни от трите ключови компонента за обучение на изкуствен интелект. Огромният набор от данни се подава към невронните мрежи и чрез суперкомпютър, изкуствения интелект се учи да открива модели. Като на колкото повече данни се обучава една система, толкова по-надеждни са нейните прогнози. Тези огромни набори от данни често съдържат материали, защитени с авторски права. Това отваря възможност за започването на дела срещу компании като СтейбълЕйАй.  Основен аргумент е, че изкуственият интелект на компанията, всъщност се възползва незаконно от интелектуалната собственост на други хора.  Друг проблем на големия набор от данни е, че не е защитен от материали свързани с насилие, порнография и расизъм. Това от своя страна, може да доведе до неправилно поведение на изкуствения интелект.

Класифициране на данни

Преди данните да бъдат използвани за обучение на изкуствения интелект, те трябва да бъдат класифицирани и описани от човек. Същото важи и при обработването на данните, заснети от видеорегистраторите на автономните автомобили. Човекът, трябва да коментира всеки предмет, за да може системата да различи какво е част от пътното платно, и какво не е. Тази работа е нискоквалифицирана и обикновено се заплаща под прага на минималната работна заплата. Някои от случаите са доста фрапантни. Такъв е примерът с работници от Кения, които класифицират текстове, описващи вербално и физическо насилие, както и сексуално съдържание, за да може ЧатДжеПиТи да избягва подобни материали.

Дифузия

Най-новите инструменти за генериране на изображения, като Дал-Е и Стейбъл Дифюжън, са базирани на дифузионни алгоритми. Тези алгоритми работят с голям набор от данни на класифицирани изображения. По този начин успяват да създадат връзка между различните пиксели и описанията, които вървят с тях. Така, когато  се въведе набор от думи, дифузионният алгоритъм започва да търси пикселите, отговарящи на тези определения и създава изображения. Технологията вече е толкова усъвършенствана, че изображенията се създават бързо, лесно и реалистично.  При използването на инструменти като Дал-Е, обикновено сме защитени, тъй като компанията е предприела необходимите мерки за безопасност. При други инструменти, случаят е различен. Някои от тях имат свободен достъп, който може да се използва за дезинформация и целенасочен тормоз.

Новооткрити  способности

„Новооткритите  способности“ се появяват, когато изкуственият интелект показва анормално поведение, което не е програмирано от създателите му. Обикновено този феномен се случва, когато изкуственият интелект се обучава с повече данни и по-голяма изчислителна мощност.  Пример за това е разликата между ЧатДжиПиТи -3 и ЧатДжиПиТи-4.  Изследванията показват, че ЧатДжиПиТи- 4 е много по-способен модел. Той умее да пише компютърни кодове, да отговаря правилно на въпроси, които изискват сложни разсъждения и се представя по-добре  от средностатистически човек в академична среда. „Новооткритите  способности “могат да бъдат опасни, особено ако бъдат открити едва след пускането на изкуствения интелект в света. ДжПиТи-4  например, показа способност да заблуждава хората в изпълнение на задачи със скрита цел.

Обяснение

Често дори хората, които изграждат подобен тип езикови модели, нямат точно обяснение на това анормално поведение. В същината си, механизмът на работа е свързан с предвиждане и попълване  на думи в логическа последователност.  Грешки обикновено се получават, когато има липса в данните за обучение . Това обаче, не дава обяснение за поведението на езиковите модели. При проверка, дизайнерите  се сблъскват с числа, които са били коригирани в невронната мрежа по време на обучение. Тоест, въпросът защо даден модел дава конкретен изход, е аналогичен на въпроса, защо човешкият мозък мисли конкретна мисъл в определен момент. В тази ситуация възникват два типа риск: краткосрочен и дългосрочен. Краткосрочни  са рисковете, засягащи дискриминацията на определени социални групи. Дългосрочен риск е възможността изкуствения интелект  да заблуждава своите програмисти. Предложения за преодоляване на тези рискове все още няма.

Базисен/фундаментален модел

С  увеличаването на разнообразието на изкуствения интелект, се  обособяват различни видове. Изкуственият интелект с общо предназначение е по-известен като базисен, а останалите  имат по-специфично насочени функции и инструменти. ДжиПиТи – 3,5 например, е базисен модел, върху който е надстроен ЧатДжиПиТи със спецификация за отказване на противоречиви предложения. Предимство на базисните модели е тяхната неограниченост и изчислителна мощност. Тези предимства обаче, са за сметка на изразходването на огромно количество енергия, която само големите  компании могат да си позволят. Ето защо, те  определят цените и достъпа на другите надолу по веригата.

GPT ДжиПиТи

ДжиПиТи (GPT) е съкращение от „Generative Pre-trained Transformer“, което по същество описва неговите функции. „Generative“ означава, че може да генерира нови данни по подобие на вече закодираните в него такива. „Pre-trained“ означава, че моделът вече е оптимизиран въз основа на тези данни. Тоест, не е необходимо повторно сравнение.  „Transformer“ е мощен тип алгоритъм, който е особено добър при изучаването на връзки между дълги поредици от данни,  като изречения и абзаци, например.

ДжиПиЮ(GPU)

ДжиПиЮ  е графичен процесор, вид компютърен чип, който се оказва много ефективен за обучение на големи модели изкусрвен интелект. Лаборатории като Оупън ЕйАй и Дийп Майнд използват суперкомпютри, съставени от много графични процесори, за да обучат своите модели. Често тези суперкомпютри се предоставят чрез бизнес партньорства с технологични гиганти, които притежават изградена инфраструктура.

Превод: Вероника Средкова

Източник: Time