Каква е драмата с ИИ на Feacebook

Инцидентът може силно да напомня на зловещия сценарий от екшън класиката „Терминатор“, където изкуственият интелект за отбрана „Скайнет“ неочаквано стига до заключението: няма хора – няма проблем. Но в случая, нещата са малко по-различни. А и кой глупак би поставил калашник в ръцете на нарцистичен психопат, който има една единствена цел в своето съществуване? 😉

Навсякъде четем, как „в един момент мрежата спряла да използва английски език за комуникация и вместо това преминала към непозната форма на общуване, неразбираема за хората.“ Така написано наистина звучи брутално, но това не е толкова странно за самообучаваща се система, която по никакъв начин няма капацитета да използва пълния потенциал на английски език. Нормално е да го опрости в самия процес на обучение – тук става въпрос за еволюция на ИИ. И въпреки, че има някои притеснителни неща в цялата работа, те не са от вчера.

В конкретния случай, системата създала собствени изрази които позволили на комуникацията да стане много по-ефективна и бърза. Когато изследователите разбират, че мрежата вече не използва английски език, прекратяват експеримента. Забавното е, че агентите (ботовете) използвали английския за база на новия език. От изречения, думи и букви, те си придавали различна информация, от това което би имало смисъл, ако човек се опита да прочете изреченията – зловещо нали? Не и ако знаем причината за това. И все пак, става въпрос за интелект, нормално е да сме предпазливи.

  • “I can i i everything else,” казва Bob.
  • “Balls have zero to me to me to me to me to me to me to me to me to,” отговаря Alice.

Според изследователите, горните редове без смисъл, всъщност представляват ефективна комуникация за това колко елемента всеки агент трябва да вземе. В следващото изречение, Bob се обръща към Alice:

  • “i i can i i i everything else.“

Изследователите вярват, че последното изречение представлява нещо подобно на: “I’ll have three and you have everything else.” [„За мен три, а за теб всичко останало“]. Английският е изключително ефективен за хората, но за ИИ в конкретните условия и поставена задача, изглежда това не е добра форма на комуникация. За поставените цели изкуственият интелект няма нужда от толкова богати по смисъл думи, защото никога няма да му се наложи да ги използва в пълния им смисъл, така след множество проби и грешки той създава своя нов език – непринудено създаден за целта.

Интересното е, че това може да обясни някои форми на комуникация в природата. Но човек трудно би свикнал с мисълта, че можем да създадем система, която да разбира и управлява друга система, без да сме способни да разберем творението й. Ако трябва да бъдем честни, никой не е очаквал, че това ще се случи толкова скоро в нашето технологично развитие. От тук идват и множеството опасения.

Но нека не драматизираме нещата излишно. Медиите оповестиха нещата така, сякаш това е прецедент, точно след предупрежденията на Илон Мъск за опасностите, които крие изкуственият интелект. В свой tweet той пише:

„Изкуственият интелект е един от редките случаи, в които мисля, че трябва да подкрепяме регулацията. Ако не направим нещо по въпроса още сега, в следващия момент вече ще е твърде късно.“

В отговор на предупрежденията на Мъск, изпълнителния директор на Facebook Марк Зъкърбърг пише, че опасенията на Мъск са „доста безотговорни“, а Мъск отвръща, че „разбиранията на Зъкърбърг по темата са ограничени.“

Изявленията на Мъск относно изкуствения интелект не са безпочвени, в неговата лаборатория OpenAI вече успешно са създавани нови форми на комуникация между агенти. Освен това в Google, преди успешно да интегрират изкуствения интелект в Google Translate, те също забелязват, че ИИ пише свой собствен език, който се използва зад фактологическия превод. Но това не означава, че ИИ тайно пише своя код и планува да превземе света. Не. Проблемът е неяснотата на самия процес. Всичко работи, изпълнява целта на своето предназначение, но поради огромните масиви от генерирани данни в процеса на обучение никой не може да обясни как точно се случват нещата. Човек просто е неспособен да схване логиката зад такъв обем от машинно генерирана информация, това е самата истина. Въпреки големия напредък в областта, все още не разбираме как изкуствения интелект взима решения, затова учените се опитват да създадат алгоритми чрез които ИИ сам да обяснява намеренията зад всяко решение.

И тук идва най-големият парадокс на изкуствения интелект. Когато една такава технология е вече факт, капацитетът й зависи от броя итерации в дадено обучение или задача и захранващите данни които може да обработи, нещо което би отнело многократно повече време от човешка перспектива – ИИ буквално еволюира за минути. Трудно бихме разбрали от едно прочитане на кода или ‘езика’, който ИИ е генерирал, какви са логиката и намеренията. Става въпрос за акумулиране на знание, слоеве върху слоеве – дори не трябва да се опитваме да го разглеждаме по този начин. Много по правилно ще е да оставим и тази задача на ИИ, да изследва и да превежда на разбираеми за нас логика и език.

Опасенията на Мъск са от изцяло друго естество. Той много добре знае как изкуственият интелект намира решения на проблеми, които са отвъд обхвата на нашето въображение. Но представете си какво би означавало това, ако няколко мега-корпорации без ценности притежават такава сила. Буквално можем да станем домашни любимци на изкуствения интелект без да го осъзнаваме, защото той има потенциала да създаде една такава схема, ако му бъде поставена тази задача. Вярвате или не, следващите 20 години изкуственият интелект ще повлияе на всеки един аспект от нашето ежедневие. И ние трябва да сме сигурни, че това ще има положителен ефект, а не обратно.

В крайна сметка не сме толкова проницателни колкото си мислим. И да не забравяме, че не сме създали технологията, а сме я взаимствали от мозъчната тъкан, която симулираме на чипове способни да правят множество паралелни изчисления. Знаем много за физиката на невроните, но знаем малко за това как те образуват абстрактна геометрия, която може да се използва като изкуствен интелект.

В този ред на мисли, не трябва да сме лекомислени когато боравим с тази технология – все пак става въпрос за интелект с една едничка цел в своето съществуване. Чрез лошо проектирана обратна връзка ИИ лесно може да бъде принуден да изпълни своята задача на всяка цена. Както показаха експериментите на Google – DeepMind, поставен натясно изкуственият интелект бързо разбира предимствата на агресията и предателството. Ние сме тези с ценностите, които поставят разумните условия и задачи на машините. И ако даден ИИ не е запознат с концепция за човешките ценности, в бъдеще лошо ни се пише.