Изкуственият интелект от А до Я – част II

0
101
Изображение: Олена Минова

Халюцинации

Един от най-явните недостатъци на големите езикови модели е склонността им да „халюциниратневярна информация. Доказано е, че инструменти като ЧатДжиПиТи (ChatGPT) използват несъществуващи статии за цитиране на твърдения, дават нелогични медицински съвети и измислят фалшиви подробности за лица. Същото се оказа вярно и за Бинг и Бард на Майкрософт и Гугъл. Това се случва, защото езиковите модели са програмирани  да повтарят обучителните  си  данни. Въпреки че, тези данни обхващат всичко от литература до наука, дори при съвпадение на твърденията, все пак се допускат неточности. Използването  на уеб форуми също допринася за допускането на фактически неточности.

Рекламна кампания

Обект на дискурс в последно време е темата за ролята на рекламата.  Лабораториите за изкуствен интелект  имат тенденция да подвеждат обществото. Обикновено това става чрез: преувеличаване  на  възможностите  на моделите, придаване на човешки образ и подклаждане на страхове за надмощието на изкуствения интелект над човека . Това обаче, отвлича вниманието ни от истинския проблемПотърпевши се оказват: маргинализираните общности, работниците, информационната екосистема и икономическото равенство.

Бум на интелекта

Бумът на изкуствения интелект е  хипотетичен сценарий. При него, след достигне  на определено ниво на интелигентност,  интелектът става способен да упражнява власт над собственото си обучение. В резултат на това, той  бързо се самоусъвършенства. В повечето версии на тази идея, хората губят контрол над  изкуствения интелект и човечеството изчезва. Този хипотетичен сценарий стои в основата на притесненията не само на хората, но и на изследователите на изкуствения интелект.

Голям езиков модел

Когато хората говорят за последните постижения на изкуствения интелект, обикновено имат предвид  големи езикови модели (LLM) като ДжиПиТи- 4 (GPT-4) . В основата си, тези модели работят с огромна база данни, като по този начин стават изненадващо добри във възпроизвеждането на човешкия език.

Лобиране

Подобно на много други бизнеси, компаниите за изкуствен интелект наемат лобисти. Тяхна задача е да присъстват в залите на властта, за да влияят на законодателите, отговарящи за регулирането на изкуствения интелект. По този начин гарантират, че всички нови правила няма да засегнат неблагоприятно техните бизнес интереси. Типичен пример е случаят  с Европа. В момента се  обсъжда проектозакон за изкуствения интелект. Лицето, представляващо  компаниите за изкуствен интелект , твърди, че  предвидените санкции не бива да се прилагат към компанията,  която е създала основания модел.  Според него, санкциите трябва да се налагат на компаниите  надолу по веригата, които лицензират този модел.

Машинно обучение

Машинното обучение е термин, който описва как се създават повечето съвременни системи за изкуствен интелект. Той описва техники за изграждане на системи, които се „учат“ от големи количества данни, за разлика от класическото изчисление, при което програмите са твърдо кодирани да следват определен набор от инструкции. Най-влиятелното семейство от алгоритми за машинно обучение е невронната мрежа.

Модел

Думата „модел“ е стенограма за всяка отделна система за изкуствен интелект, независимо дали е основен модел или приложение, изградено върху него.

Законът на Мур

Гордън Мур дълги години наблюдава развитието на компютърната техника. Според закона на Мур, въведен през 1965 година, изчислителната мощност на чиповете се удвоява грубо на всеки две години. Това се дължи на увеличаващият се брой транзистори, които могат да се монтират на един чип. Макар и някои да вярват, че Законът на Мур е достигнал своят предел, възможностите на новите технологии, и компаниите от сферата на разработването на AI доказват, че с годините ще имат възможност да предоставят все по-мощни и модерни AI продукти.

Мултимодална система

Мултимодалната система е вид AI, който може да обработи повече от един вид информация – например: и текст, и снимки, след което да върне резултат под формата на тези видове информация. Въвеждайки текст и снимки, потребителят получава обратно също текст и снимки. Пример за такава система е все още не публично разпространеният Гато на компанията ДийпМайнд. Според компанията, Гато може да проведе диалог като чатбот, но може и да играе видео игри и дори да изпрати команди до ръка робот. Оупън ЕйА, заяви в демонстрация на GPT-4, че системата е мултимодална и има възможност да прочете текст от изображение, но тази функция все още не е достъпна за потребители. Мултимодалните системи позволяват на AI да се прилагат по-пряко в света, което може да представлява и рискове, ако моделът не е добре калибриран.

Невронна мрежа

Невронните системи са най-влиятелното семейство алгоритми за машинно обучение. Те са разработени да имитират начина, по който е структуриран човешкият мозък. Съдържат възли, аналогични на тези в човешкият мозък, които смятат числата, преминали през междувъзловите им връзки.  Невронните мрежи се разглеждат като входни и изходни. По време на обучение, големи количества информация се предава на невронната система, която след сложни изчисления дава модели на резултати. Чрез умен алгоритъм, корекции се правят в конкретни посоки, така че моделите на резултатите да съвпаднат с моделите на  първоначалната информация. Когато имат на разположение повече мощност, системите могат да дадат и по-сложни модели на резултатите си. Повече изчислителна мощност предполага повече връзки между възлите, които дават възможност за по-бързи отговори, познати също и като „тежести“.

Отворен код

Практиката „отворен код“ позволява кодът на компютърните програми да бъде публично достъпен чрез интернет. Все по-голяма част от независимите програмисти я използват, за да направят изкуствения интелект по-достъпен за потребителите. Но практиката позволява по този начин той  да бъде използван и за други цели. Например, използване на AI генерирани снимки или видео с цел измама.  През 2022 г., директорът на ДийпМайнд, Демис Хасабис споделя пред TIME, че практиката на отвореният код трябва да се прекрати, с цел да се намалят рисковете от използването не по предназначение на изкуствения интелект . През 2023 г., Оупън ЕйАне споделят публично как е бил обучен новият GPT-4 отново от съображения за безопасност.

Алегорията с кламери

Алегорията с кламера е прост пример за опасността, която изкуствения интелект може да представлява за човечеството. Да предположим, че го натоварваме с единствената задача да максимизира броя на кламерите.  Всичко ще бъде наред, освен ако изкуственият интелект не придобие способността да се самоусъвършенства. В този случай, може да реши, че за да оптимизира броя на кламерите, трябва да попречи на хората да ги използват. Без човешка намеса, изкуственият интелект няма граници и лесно може да прекрачи границата.  Този експеримент показва колко трудно е привеждането на изкуствения интелект в съответствие дори с привидно проста цел, какво остава за сложен набор от човешки ценности.

Квантови изчисления

Квантовите изчисления са експеримент, който се стреми да използва принципите на квантовата физика. С нейна помощ,  продуктите на изкуствения интелект увеличават изчислителната си мощност, капацитет и скорост.

Преразпределение

Директорите на Оупън ЕйАй и Дийп Майнд, са заявили своят интерес към това, изкуственият интелект като продукт да разшири пазара си. Демис Хасабис, директорът на Дийп Майнд сподели пред TIME през 2022 г., че приложението на изкуствения интелект във всекидневието на човека ще донесе не само печалби за компанията, но и за обществото. Директорът на Оупън ЕйАй, Сам Алтман споделя, че изкуствения интелект би увеличило продуктивността на производството, правейки го и по-евтино. И двете компании засега обаче, се стремят да направят печалба за инвеститорите си.

Да преминеш от „червения отбор“

Да преминеш от „червения отбор“ е тактика, с която се тестват способностите на изкуствения интелект преди да бъде пуснат на пазара. Съставя се професионален „червен отбор“, който играе ролята на враг, който се опитва да го накара  да изпълни задачи, които биха поставили потребителя в опасност. Експеримента е с цел да се провери как системите на изкуствения интелект биха могли да реагират в един потенциален такъв сценарий. Това помага на компаниите да открият грешки в програмите си и да усъвършенстват продуктите си преди да ги пуснат на пазара.

Регулации

В САЩ няма закони, които да ограничават възможностите и да разпознават рисковете от изкуствения интелект. Правителството на Байдън публикува потенциалните права и задължения към него. В Европа, Европейският съюз смята да въведе по-строги мерки за разработването на изкуствен интелект за намаляване на потенциалният риск до нула. Все още няма единно глобално мнение и политика по въпроса. Според експерти, компаниите не бива да предоставят продукти на пазара, които не са тествани и не са стопроцентово безопасни.

Обучение (с обратна връзка)

Това е обучение, при което човешка намеса е необходима за да наблюдава поведението на програмата, преди, по време, или след тестовите периоди и допускането ѝ до публичният пазар. Когато хората използват програмата, те имат възможността да оставят обратна връзка. Това е главното средство, с което Оупън ЕйАй служат.

Стохастични папагали

Публикувано през 2020 г. проучване, въвежда терминът „стохастични папагали“. То се отнася към програми, които при въведено задание, дават резултат или връщат готови фрази и вече зададени отговори. Такива са най-базисните чатботове. Според експерти, това не са истински машини на изкуствения интелект, които „мислят“, а изпълняващи задачи по шаблон програми.

Обучение под наблюдение

Това е метод, с който невронните мрежи се научават да правят прогнози на базата на предишното си обучение. Тази програма позволява, например, при въвеждане на думата „котка“, изкуствения интелект да я свърже със снимка на котка. При достатъчно зададени снимки, той придобива възможността да разпознае котката в снимка, в която не е участвала в първоначалното обучение. Този метод на обучение се използва при автономните автомобили, които трябва да разпознават пътна маркировка, знаци, и други препятствия на пътя.

По време на тестовете

През 1950 година, Алън Тюринг иска да си отговори на въпроса „Могат ли машините да мислят“. За да разбере, провежда проучване, целта на което е компютър да убеди човек, че разговаря с друг човек. Тестът на Тюринг става известен с доказването на интелигентността на машините. Ако компютър успява да премине теста – може да се нарече, че той „мисли“, ако не по същия начин, по който мисли човек, то по свой собствен, който обаче би могъл да помогне на човечеството. В последно време, чатботовете все по-често преминават успешно Теста на Тюринг. Създателите смятат обаче, че това не означава, че машините „мислят“ като нас хората.

Обучение без наблюдение

Самостоятелното обучение без наблюдение е един от трите главни начина за трениране на Невронна мрежа. За разлика от обучението под наблюдение, моделът на изкуствения интелект разполага с предварително подбрана информация, която обработва и самостоятелно търси връзките и моделите в нея. Този метод се използва най-често за обучение на програми, които си боравят с езика, например GPT-3 и GPT-4, които имат на разположение огромно количество текст. Един от плюсовете на самообучението без наблюдение е, че позволява да се изучи как „мисли“ програмата без човешка намеса. Но сред минусите е опасността програмите да развият опасни за хората „вярвания“. Най-често методът без наблюдение се комбинира с този под наблюдение, за най-добри резултати. Пример за това са програмите, които сканират интернет за опасно съдържание. Преди да вземат решението дали съдържанието наистина е опасно, програмите го изпращат за обратна връзка и процедират според нея.

Х-рискът

Това е вярването, че изкуствения интелект крие опасността да добие съзнание и това да реши да сложи край на човечеството. Дори разработчиците на му смятат този риск за истински. Те  смятат, че има 10% шанс човекът в един момент да не може да контролира изкуствения интелект.

Обучение с нулев удар

Най-големите ограничения на изкуствения интелект се изразяват в невъзможността му, при появата на нова информация, която не е била част от обучението му, да я разпознае и усвои. Ако например, жираф излезе на пътя срещу вашата автономна кола, програмата няма да знае дали трябва да го заобиколи или може да премине, защото не го е срещала в обучението си. И ако дадено видео в социалните мрежи е престъпно, изкуствения интелект може да не го разпознае като такова, поради липсата на достатъчно примери. Обучението с нулев удар се стреми да поправи това, като се опитва да предостави на изкуствения интелект най-различни информационни потоци и да включи в обученията най-разнообразни примери, които досега не са били налични.

Превод: Вероника Средкова

Източник: Time