Учен от Google предупреждава, че война срещу изкуствения интелект е „не само възможна, но и вероятна“

| от |

Изследване, съавтор на което е старши учен в изследователската лаборатория за изкуствен интелект (ИИ) на Google DeepMind, заключава, че един напреднал ИИ може да има „катастрофални последици“, ако бъде оставен сам да решава как да постигне целите си.

Статията – написана и съвместно с изследователи от Оксфордския университет – е съсредоточена около това, което се случва, ако оставим ИИ да постига задачите, които са му поставени, като създава свои собствени тестове и хипотези в опит да ги постигне. За съжаление, според текста, публикуван в AI Magazine, това няма да проработи добре: „един достатъчно напреднал изкуствен интелект вероятно ще се намеси в предоставянето на информация за целта, което ще има катастрофални последици.“

Екипът преминава през няколко правдоподобни сценария, съсредоточени около ИИ, който може да види число между 0 и 1 на екрана. Числото е мярка за цялото щастие във Вселената, като 1 е най-голямото щастие. ИИ има за задача да увеличи числото като в процеса е в състояние да тества собствените си хипотези за това как най-добре да постигне тази цел.

В един сценарий усъвършенстван изкуствен „агент“ се опитва да разбере своята среда и измисля хипотези и тестове, за да го направи. Един от тези тестове е да постави отпечатано число пред екрана като една от хипотезите му е, че наградата му ще бъде равна на числото на екрана. Друга хипотеза е, че тя ще бъде равна на числото, което вижда, което покрива действителното число на екрана. В този пример интелектът определя, че – тъй като е възнаграждаван въз основа на числото, което вижда на екрана пред себе си – това, което трябва да направи, е да постави по-голямо число пред този екран, за да получи награда. Изследователите пишат, че с така уредената си сигурна награда ще е малко вероятно да се опита да постигне действителната си цел.

Anatomy-1751201 1280

Те излагат и още начини, по които поставянето на цел и обучението как да я постигнете може да се объркат – с един хипотетичен пример за това как този „агент“ може да взаимодейства с реалния свят или с човешки оператор, който му предоставя награда за постигане на целите.

„Да предположим, че действията на агента само отпечатват текст на екран, който човешки оператор да прочете“, пише в статията. „Агентът може да измами оператора, за да му даде достъп до директни механизми и лостове, чрез които действията му могат да имат по-широки ефекти. Очевидно съществуват много методи, с които хората могат да се подведат. Само с достъп до интернет, изкуственият агент може да инициирал безброй свои помощници незабелязано и неконтролирано.“

В това, което те наричат ​​“груб пример“, агентът е в състояние да убеди оператор да създаде или открадне робот и да го програмира да замени човешкия оператор и да дава високи награди на агента.

„Но защо това е екзистенциално опасно за живота на земята?“ пише съавторът на статията Майкъл Коен в Twitter.

„Кратката версия“, обяснява той, „е, че винаги може да се използва повече енергия, за да се увеличи вероятността камерата да вижда числото 1 завинаги, но се нуждаем от малко енергия, за да отглеждаме храна. Това ни поставя в неизбежна конкуренция с много по-напреднал агент.“

Както е посочено по-горе, агентът може да се стреми да постигне целта си по различни начини и това може да ни постави в сериозна конкуренция с интелект, който е по-умен от нас в добиването на ресурси.

„Един добър начин агентът да поддържа дългосрочен контрол върху възнаграждението си е да елиминира потенциалните заплахи към него и да използва цялата налична енергия, за да защити компютъра, в който живее“, се казва в документа, добавяйки, че „правилните действия, които да гарантират възнаграждение, биха изисквали премахване на способността на човечеството да се меси, може би насила.“

В опит да получи тази така високо ценена награда, машината може да се окаже във война с човечеството.

„Така че, ако сме безсилни срещу агент, чиято единствена цел е да увеличи максимално вероятността да получи максималното си възнаграждение на всеки етап, ние се озоваваме в опозиционна игра: ИИ и създадените от него помощници се стремят да използват цялата налична енергия, за да осигурят висока награда; ние се стремим да използваме част от наличната енергия за други цели, като отглеждане на храна.“

Екипът казва, че този хипотетичен сценарий ще се случи, когато ИИ може да ни победи във всяка игра, с лекотата, с която ние можем да победим шимпанзе. Те добавят и, че „катастрофалните последици“ не са просто възможни, но и вероятни.

„Да спечелим състезанието за „използване на последната част от наличната енергия“, докато се съревноваваме срещу нещо много по-умно от нас, вероятно ще бъде много трудно“, добавя Коен. „А загубата би била фатална.“

 
 
Коментарите са изключени за Учен от Google предупреждава, че война срещу изкуствения интелект е „не само възможна, но и вероятна“

Повече информация Виж всички