Развитието на изкуствения интелект постепенно набира скорост и интелигентните системи и алгоритми могат все повече и повече. Това създава доста притеснения за бъдещето, включително дали някой ден холивудските филми няма да се окажат пророчески и машините да обявят война на човечеството.

Всъщност, истинската заплаха не е толкова явна. Евентуалната армия от терминатори зависи не от самия изкуствен интелект, а от този, който е обучавал и тренирал въпросния алгоритъм. Това може да се случи и неволно, без някой реално да е искал да създаде злонамерен изкуствен интелект.

„Истинският въпрос по безопасност, ако можем да го наречем така, е че ако дадем на тези системи база данни с пристрастна информация, системите ще са също пристрастни”, коментира Джон Джианандреа, ръководител на проектите с изкуствен интелект на Google по време на конференция на компанията по темата и цитиран от Business Insider.

С какъвто се събереш, такъв ставаш

AI_2

Народните поговорки важат дори за технологиите на бъдещето. Наскоро учени от Университета на Ню Йорк обявиха, че човек може да компрометира невронни мрежи и изкуствен интелект именно като модифицира данните, които използват, за да се обучават, съобщава в. Independent. При това откритият от тях метод е труден за засичане, но може да има сериозни последици в реалния свят.

Причината е, че обикновено базите данни се проверяват от гледна точка на структурата и крайния резултат. Чрез внимателно манипулиране на някои от данните в базата обаче може да се запази нейната структура и цялостен вид, но да се промени методът на действие на системата. Например автономен автомобил да спре да признава знаци STOP, когато върху тях има някаква лепенка.

Освен това, преди точно една година студенти по компютърни науки от университета Carnegie Mellon създадоха бот, който да играе класическата компютърна игра DooM и е обучен да убива други играчи. Надали случайно, ботът е кръстен Arnold и е самообучен да убива виртуалните противници с голяма прецизност и става много по-добър в играта отколкото хората.

Разбира се, самият бот не е опасен за хората, но може да стане. „Опасността тук не е, че изкуствен интелект убива виртуални герои в 23-годишна компютърна игра, а че той е обучен да се движи из света като хората и лесно може да бъде преработен и приложен в реалния свят. Освен това е обучен чрез награди, които получава, когато убива повече и това означава, че ако подобна система се приложи в реалния свят, то тя може да не може да се спре да убива”, коментира анализаторът Скот Ерик Кауфман от Salon.

Светът все пак не е чак толкова черен

И макар лошите примери с действията на изкуствения интелект да са много, той има и доста ползи. Watson на IBM например помага на лекари да диагностицират заболявания и да избират правилното лечение. Други системи оптимизират в реално време трафика в графовете. А според ръководителя на проектите с изкуствен интелект на Facebook Ян Лекън, сред хората е създадено грешно впечатление за изкуствения интелект.

AI_3

„Имаше период от време, в който почти всяка статия в пресата за изкуствен интелект беше придружена със снимка на терминатор. За щастие вече и пресата, и хората са малко по-информирани и това се случва по-рядко. От време на време обаче се случва по-голяма и популярна новина, която отново показва напълно погрешно разбиране какво се случва”, коментира Лекън в интервю за The Verge. Това се е случило с новината, представена, че изкуствен интелект на Facebook е излязъл извън контрол и е създал собствен език, заради което е бил изключен.

„Затова винаги повтарям едно и също: много далеч сме от създаването на наистина интелигнетни машини. Това, което виждате сега, включително самоуправляващи се коли, анализ на изображения, медицински диагнози, играене на игри и т.н., всичко е много малък и съсредоточен интелект, обучен само за една конкрецна цел”, допълва той.

Според него хората все още са далеч от създаването на изкуствен интелект, който да вижда, възприема и научава основните неща за света така, както човекът или животните. „Да, в определени сфери машините се представят като свръхчовеци, но от гледна точка на обща интелигентност, далеч сме дори от нивото на плъх. Това прави много от въпросите, които си задаваме, преждевременни”, смята Лекън. Все пак той се съгласява, че са важни въпроси, но не са на дневен ред за близко или средно близко бъдеще.