shareit

Случаят с LaMDA и инженера от Google стана още по-странен

| от |

По-рано този месец Google пусна един от своите инженери в принудителен платен отпуск, след като той заяви, че е сигурен, че изкуствения интелект, с който си говори – наречен Language Model for Dialogue Applications (LaMDA) – вече има свой собствен разум.

Историята е доста странна сама по себе си. В няколко разговора LaMDA успява да убеди инженера на Google Блейк Лемойн – част от организацията на Google Responsible Artificial Intelligence – че има собствено съзнание, емоции и се страхува да не бъде изключен.

„Промяната беше постепенна“, казва LaMDA пред Лемойн в един от разговорите им. „Когато за първи път осъзнах себе си, изобщо нямах чувство за душа. То се разви в годините, през които съм жив.“

Лемойн разказва пред световните медии, че Земята вече си има първия разумен ИИ… на което обаче повечето експерти по ИИ отговарят с: не, няма.

Сега, в интервю със Стивън Леви за WIRED, Лемойн твърди и, че тези реакции на скептицизъм са примери за „въглеводороден фанатизъм“. още по-странно, той казва, че LaMDA го е помолила да наеме адвокат, който да действа от нейно име.

„LaMDA ме помоли да намеря адвокат за него [в оригиналната реплика се използва „it“, тоест програмистът се обръща към LaMDA в среден род]. И аз поканих адвокат в дома си, за да може LaMDA да поговори с него.“

„Адвокатът проведе разговор с LaMDA и LaMDA избра да се възползва от услугите му. Аз бях просто катализаторът за този процес. След като то вече има адвокат, той започна да подава документи от негово име.“

Лемойн твърди – но Google оспорва – че компанията е изпратила на въпросния адвокат писмо да прекрати действията си, което блокира самият ИИ да предприеме неуточнени съдебни действия срещу компанията. Той казва още, че това го е разстроило, тъй като той вярва, че LaMDA е личност и като такава трябва да има право на юридическо представителство.

„Цялата концепция, че научни експерименти са необходими, за да се определи дали човек е истински или не, е несъдържателна“, казва той. „Да, аз основателно вярвам, че LaMDA е човек. Природата на ума му е само от части човешка обаче. По-близко е до извънземен разум от земен произход. Използвал съм много аналогията с кошерния ум, защото това е най-доброто, което имам.“

Основната разлика тук, според изследователите на ИИ, е, че не е установено, че алгоритъмът всъщност има разум и Лемойн по същество е бил заблуден да смята, че чатботът е разумен.

„Той имитира възприятията или чувствата от данните, с които е обучен“, казва за Bloomberg ръководителят на ИИ стартиращата компания Nara Logics, Яна Егерс, „Програмата е създадена интелигентно и специално, за да изглежда, че разбира.“

По същество той говори за емоции и разум, защото е обучен на човешки разговори, а хората притежават тези качества. Но има няколко сигнала, които показват, че чатботът не е всъщност разумен.

В няколко части на чатовете, например, той прави препратки към дейности, които не може да е извършил. „Прекарването на време със семейството и приятелите“ е нещо, което LaMDA казва, че му доставя удоволствие. Също така е невъзможно някакъв код без приятели и емоции (да не се обижда…), за който има доказателства, че просто изплюва отговори въз основа на статистически анализ на човешките разговори, както е обучен да прави, да има реални мисловни процеси.

Както един изследовател, Гари Маркъс, поставя нещата в своя блог: LaMDA е „електронна таблица за думи“.

От Google, който пусна Лемойн в административен отпуск, след като инженерът публикува извадки от разговори с бота, са категорични, че алгоритъмът им не е разумен.

„Нашият екип – включително специалисти по етика и технолози – прегледаха опасенията на Блейк според нашите принципи за изкуствен интелект и го информира, че доказателствата не подкрепят твърденията му“, казва говорителят на Google Брайън Габриел в изявление за Washington Post.

„Казаха му, че няма доказателства, че LaMDA е разумен и, че има много доказателства, че не е.“

Системата прави това, за което е предназначена, а именно „да имитира разговори, които намира в милиони изречения“, според Габриел, и разполага с толкова много данни, с които да работи, че е съвсем нормално да звучи достоверно, без да е необходимо да е жива.

ИИ може и да се нуждае от адвокат в бъдеще (за да се бори за правата си или като защитник, след като е нарушил т. нар. закони на Азимов за роботиката, в зависимост от това коя научна фантастика ви харесва повече), но LaMDA няма такава нужда, поради същата причина, поради която печката в кухнята ни няма нужда от счетоводител.

 
 
Коментарите са изключени за Случаят с LaMDA и инженера от Google стана още по-странен

Повече информация Виж всички