Как един изкуствен интелект, който произвежда кламери, може да унищожи човечеството

| от |

Потенциалът и възможните недостатъци на изкуствения интелект (ИИ) и изкуствения общ интелект (ИОИ) се обсъждат много напоследък, до голяма степен поради напредъка в големите езикови модели като ChatGPT на компанията OpenAI.

Някои от бранша дори призовават изследванията на ИИ да бъдат оставени на пауза или дори незабавно прекратени, позовавайки се на възможния екзистенциален риск за човечеството, ако слепешки създадем суперинтелигентност, преди да сме намерили начин да ограничим влиянието й и да контролираме нейните цели.

Въпреки че можем лесно да си представим как ИИ ще ни се ядоса, след като открие видеоклипове как сме тормозили роботите на Boston Dynamics, един философ и лидер на Института за бъдещето на човечеството към Оксфордския университет вярва, че нашата гибел може да дойде от много по-прост ИИ – предназначен да произвежда кламери.

Ник Бострьом, известен със симулационната хипотеза, както и с работата си в областта на изкуствения интелект и етиката около него, излага сценарий, при който на такава усъвършенствана технология се поставя простата цел да направи колкото се може повече кламери. Въпреки че това може да изглежда безобидна цел (Бострьом избра този пример именно поради това), той обяснява как дори една такава тривиална задача може да доведе до апокалипсис.

„Един неконтролиран изкуствен интелект бързо ще стигне до извода, че би било много по-добре за целите на поставената му задача, ако няма хора, защото те може да решат да го изключат“, обяснява Ник през 2014 г. „А ако хората го изключат, целта му няма да бъде постигната. Освен това, човешките тела съдържат много атоми, които могат да бъдат превърнати в кламери. Така бъдещето, към което ИИ ще се насочи, ще бъде такова, в което ще има много кламери, но няма да има хора.“

Даденият пример има за цел да илюстрира как една тривиална цел може да доведе до непредвидени последици. Но Бострьом казва, че тази логика може да се прояви при всички евентуални цели на ИИ, ако няма подходящ контрол върху действията му, и добавя, че „въпросът е, че неговите действия няма да обърнат внимание на човешкото благосъстояние“.

Това е вариант от по-драматичният край на спектъра. Друга възможност, предложена от Бострьом, обаче е да не седим на пътя на коня.

„Първоначално конете бяха използвани да дърпат каруци и плугове, което значително увеличи полезността им. По-късно обаче те бяха заменени от автомобили и трактори“, пише той в книгата си „Суперинтелект: Пътища, опасности, стратегии“. „Когато конете станаха излишни, много от тях бяха продадени на месопреработватели, за да бъдат направени на кучешка храна, брашно от кости, кожа и лепило. В Съединените щати през 1915 г. има около 26 милиона коне. До началото на 50-те години те са около 2 милиона.“

Една пророческа мисъл от Бострьом още през 2003 г. е относно това как ИИ може да се обърка, като се опитва да обслужва определени групи, да речем производител на кламери или който и да е негов „собственик“, а не човечеството като цяло.

„Рисковете при разработването на суперинтелигентност включват риска да не й бъде поставена на първо място свръхцелта на филантропията. Един от начините, по който това може да се случи, е, като създателите на й решат да я изградят така, че да служи само на избрана група хора, вместо на човечеството като цяло“, пише той на уебсайта си. „Друг начин това да се случи е като един добронамерен екип от програмисти направи голяма грешка при проектирането на своята целева система. Това може да доведе, за да се върнем към по-ранния пример, до суперинтелект, чиято главна цел е производството на кламери – в резултат на което той започва да трансформира първо цялата Земя, а след това и части от космоса в съоръжения за производство на кламери. По-конкретно, това може да доведе до това ИИ да започне работа, която на нас сега може да ни се струва като желана, но която всъщност да се окаже пагубна, и елементи от съществено значение за човешкия развитие, да се изгубят безвъзвратно.

Затова трябва да внимаваме какво искаме от суперинтелекта, защото може да го получим.“

 
 
Коментарите са изключени за Как един изкуствен интелект, който произвежда кламери, може да унищожи човечеството

Повече информация Виж всички