Какво е изкуственият интелект?
Изкуственият интелект (ИИ) са компютърни програми, които имитират човешките когнитивни умения чрез разпознаване и сортиране на информация от входни данни. Тази интелигентност може да се основава на програмирани процеси или да бъде генерирана от самообучение на машината.
През последните години беше постигнат голям напредък в областта на машинното самообучение, при което компютрите използват набор от данни за изпълняване на задачи. Това се дължи предимно на нарастващия брой информационни източници и високата изчислителна мощност. В процесите на машинното самообучение алгоритъмът се научава да изпълнява самостоятелно задача, като може да разпознава модели в неструктурирани набори от данни като изображения, текстове или говорим език и да вземат решения въз основа на тях.
Бързото развитие на изкуствения интелект създаде много възможности в световен мащаб – от улесняване на диагностиката в здравеопазването до създаване на връзки между хората чрез социалните медии и повишаване на ефективността на труда чрез автоматизирани задачи.
Тези бързи промени обаче пораждат и сериозни етични проблеми. Те произтичат от потенциала на изкуствените системите да изграждат пристрастия, да допринасят за влошаване на климата, да застрашават правата на човека и др.
В никоя друга област етичният компас не е толкова важен, колкото в областта на изкуствения интелект. Тези технологии променят начина, по който работим, комуникираме и живеем. Технологията на изкуствения интелект носи големи ползи в много области, но без нужните мерки тя рискува да възпроизведе съществуващите в света икономически неравенства и дискриминация, да подхрани политическото разделение и да застраши основните човешки права и свободи.
Управление и регулации на ИИ
Въпросът за изкуственият интелект е тема, която не беше в дневния ред на законодателната власт преди година. Сега обаче правителствата по целия свят непрестанно обсъждат плюсовете и минусите на регулирането или дори забраната на някои употреби на технологии с изкуствен интелект.
Законът за ИИ на ЕС
През 2021 г. Европейският парламент предложи регулаторна рамка, която има за цел да гарантира, че системите за изкуствен интелект, използвани в рамките на Съюза, са „безопасни, прозрачни, проследими, недискриминационни и екологични“. Правната рамка на ЕС разделя изкуствените технологии на три категории: такива с ограничен риск, с висок риск и с неприемлив риск.
Неприемлив риск
Технологиите в категорията на неприемлив риск включват системи, които могат да се използват за извършване на наблюдение в реално време, манипулиране на хора или дискриминация срещу уязвими групи. Тези технологии ще бъдат забранени за използване в ЕС, въпреки че могат да се направят някои изключения за целите на правоприлагането.
Висок риск
Технологиите с висок риск включват всякакви системи за разработване на продукти, регулирани от законодателството на ЕС с цел безопасност. Тези системи трябва да бъдат оценени преди да бъдат пуснати на пазара и ще изискват периодично тестване. Освен това рамката задължава всички технологии, използвани за образование, експлоатация на инфраструктура, заетост, правоприлагане и редица други цели, да бъдат регистрирани в база данни на ЕС.
Ограничен риск
За системите с ограничен риск, които вероятно включват повечето технологии, рамката на ЕС набляга на прозрачността и възможността потребителите да не използват информационни източници, създадени от изкуствен интелект.
За системи като ChatGPT рамката изисква прозрачност около всяко използване на ИИ и предпазни мерки срещу модели за генериране на незаконно съдържание. Призовава се за задълбочени експертни оценки за усъвършенствани модели като GPT-4, както и за докладване на Европейската комисия за всякакви „сериозни инциденти“.
Европейският парламент ще гласува предложенията за Закона за ИИ в началото на настоящата година, но каквото и да е законодателство няма да влезе в сила най-малко до 2025 г. Председателят на Европейската комисия Урсула фон дер Лайен каза, че Законът за ИИ ще помогне за развитието на технологии, които не застрашават безопасността и правата на хората. В предварителните разговори представителите на ЕС се споразумяха потребителите да имат право на жалби и да бъдат налагани глоби за нарушения.
Декларацията от Блечли
За разлика от Закона за ИИ, неотдавнашната Декларация от Блечли не е регулаторна рамка сама по себе си, а призив за разработване на такава чрез международно сътрудничество. Срещата събра на едно място правителства, водещи компании, разработващи изкуствен интелект, организации на гражданското общество и експерти в областта на изследванията. На форума беше изготвена декларацията, която беше приветствана като дипломатически пробив, тъй като накара световните политически, търговски и научни общности да се споразумеят за общ план, който отразява акта на ЕС.
Американският закон за правата срещу ИИ
През 2022 г. Белият дом представи Закон за правата срещу ИИ , който очертава пет принципа за отговорно използване на изкуствения интелект. Тези принципи включват правото на защита на гражданите срещу опасни или неефективни системи, защита срещу алгоритмична дискриминация, право на контролиране как да се събират и използват личните данни, право на потребителите да бъдат уведомени, когато автоматизирана система е използвана по начин, който ги засяга, както и правото да изберат комуникация с човек, а не с автоматизирана система.
Изпълнителната заповед на Байдън-Харис относно ИИ
През 2023 г. администрацията на американския президент Джо Байдън въведе Изпълнителната заповед за безопасен, сигурен и надежден ИИ, която има за цел да регулира индустрията на изкуствения интелект, като същевременно поддържа статута на Съединените щати като лидер в иновациите в областта. Заповедта изисква компаниите, управляващи големи изкуствени системи, да извършват тестове за безопасност и да докладват резултатите на федералното правителство преди да направят продуктите си публично достъпни. Също така се призовава за информираност относно генерираното от изкуствения интелект съдържание и увеличаване на усилията за отговор на въпроси относно въздействието на ИИ върху правата на интелектуалната собственост. Освен това изпълнителната заповед призовава за няколко защити на работниците, включително срещу опасното внедряване на ИИ и рязкото съкращение на работните места.
За да защити потребителите и населението, изпълнителната заповед подчертава, че компаниите не могат да използват изкуствени системи, за да заобиколят съществуващите защити на потребителите в сектори като здравеопазване, финанси, жилища, транспорт и образование, или по начини, които причиняват пристрастия и дискриминация. Също така се забранява използването на ИИ за подкопаване на защитата на поверителността.
Заповедта призовава за увеличаване на усилията за подобряване на правителствените агенции и услуги чрез използването на ИИ. Целта е правителството на Съединените щати да работи заедно с други страни за установяване на глобални стандарти, които да смекчат рисковете от ИИ и да осигурят безопасността на системата като цяло.
Мерките на Китай
Регулирането на изкуствения интелект в Китай се урежда основно от „Плана за развитие на изкуствения интелект от следващо поколение“ на Държавния съвет на Китайската народна република, в който се призовава ръководните органи на страната да насърчават развитието на изкуствения интелект до 2030 г. Регулирането на въпросите, свързани с етичната и правната подкрепа за развитието на ИИ, се ускорява, а политиката гарантира държавен контрол върху китайските компании и върху личните данните. През 2021 г. Китай публикува етични насоки за използването на ИИ, в които се посочва, че изследователите трябва да гарантират спазването на човешките ценности, постоянният човешки контрол на системата и безопасността на обществото. През 2023 г. Китай въведе временни мерки за управление на услугите с изкуствен интелект. Мерките влязоха в сила от 15 август и изискват от доставчиците на услуги да представят оценки на сигурността и да получат разрешение, преди да пуснат продукти на ИИ за масовия пазар.
Италия
През март 2023 г. Италия беше първата западна страна, която временно забрани ChatGPT заради незаконно събиране на данни. Оттогава правителството заяви, че е отпуснало 30 милиона евро за подпомагане на безработни хора и работници на позиции, изложени на риск от новата система. ChatGPT отново стана достъпен за потребители в Италия през април.
Няколко месеца по-късно италианският орган за защита на личните данни одобри регламент, който предвижда три принципа, касаещи се до ИИ: прозрачност на процесите на вземане на решения, човешки надзор на автоматизирани решения и алгоритмична недискриминация.
През септември 2022 г. Координационният съвет на главните изпълнителни директори на системата на Обединените нации одобри Принципите за етично използване на изкуствения интелект в системата на Обединените нации. Принципите се основават на Препоръката за етиката на изкуствения интелект, приета от Генералната конференция на ЮНЕСКО на нейната 41-ва сесия през ноември 2021 г.
Този набор от десет принципа, основани на етиката и правата на човека, има за цел да ръководи използването на изкуствен интелект през всички етапи от жизнения му цикъл. Предназначен е да се възприема с други свързани политики и международното право и включва следните принципи: не вреди; безопасност и сигурност; справедливост и недискриминация; устойчивост; право на неприкосновеност на личния живот; защита на данните; управление на данните; човешка автономия и надзор; прозрачност и обяснимост; отговорност и отчетност; участие.
Съветът за сигурност на ООН проведе първата си официална дискусия за ИИ в Ню Йорк през юли миналата година. Там бяха разгледани както военните, така и невоенните приложения на ИИ, които „биха могли да имат много сериозни последици за глобалния мир и сигурност“, каза генералният секретар на ООН Антонио Гутериш.
През юни 2023 г. Гутериш подкрепи предложението на някои държавни ръководители за засилен контрол върху ИИ, но отбеляза, че „само държавите-членки могат да го създадат, а не Секретариатът на ООН“.
СЗО
През юни 2021 г. Световната здравна организация (СЗО) публикува Ръководство за етика и управление на изкуствения интелект за здравето след 18 месеца обсъждане сред водещи световни експерти относно етичните предизвикателства при използването на новата технология за здравето. Докладът описва етичните предизвикателства и рискове при използването на ИИ за здравето и очертава шест консенсусни принципа, за да се гарантира, че технологията работи в обществена полза на всички страни.
През 2023 г. СЗО призова за етичен изкуствен интелект. В публикацията са изброени ключови регулаторни съображения относно изкуствения интелект. Те включват въпроси, свързани с прозрачната документация, управлението на риска, яснотата относно външното валидиране на данни и предвидената употреба на ИИ, качеството на данните, поверителността и защитата на данните, както и насърчаването на сътрудничеството между регулаторни органи, пациенти, здравни специалисти, представители на индустрията и правителствени партньори.
Какво да очакваме в развиващото се регулиране на изкуствения интелект?
Изкуственият интелект е технология, която все още е в начален етап на развитие. Има много неща, които не разбираме за функционирането му, така че опитите за регулирането му могат лесно да се окажат контрапродуктивни, потискайки иновациите и забавяйки напредъка в тази бързо развиваща се област. Същевременно някои правозащитници призовават 2024 г. да бъде годината на регулирането на изкуствения интелект. С оглед на потенциалното въздействие на ИИ върху обществото, през новата година можем да очакваме продължаване на постепенните стъпки за регулиране на материята, докато междувременно нови приложения на ИИ излизат на пазара.
Автор: Лора Димитрова