„Кръстникът“ на изкуствения интелект напусна Google, за да говори за опасностите от него

| от |

Човекът, който често е наричан „кръстник“ на изкуствения интелект (ИИ), напусна тази седмица позицията си в Google поради опасения за това накъде се движи технологията.

Джефри Хинтън е най-известен с работата си върху т. нар. дълбоко обучение и невронните мрежи, за която през 2019 г. спечели наградата „Тюринг“ на стойност 1 млн. долара. Тогава той заяви пред CBC, че е доволен от успеха, защото „дълго време невронните мрежи бяха считани за нещо неспособно в компютърните науки. Тази награда сега е знак, че браншът приема, че те всъщност имат стойност и приложение“.

Оттогава насам, с появата на програми като Chat-GPT и генераторите на изображения, наред с много други програми, технологията вече стана масова. Хинтън, който започва работа в Google през 2013 г., след като гигантът придобива компанията му, сега смята, че неговата работа (както и тази на други хора и фирми) може да представлява опасност за обществото и е напуснал, за да може да говори открито за това, съобщава New York Times.

В краткосрочен план Хинтън се притеснява от възможността генерираните от изкуствен интелект текстове, изображения и видеоклипове да доведат до това „хората вече да не знаят кое е истина и кое не е“, както и до потенциални смущения на пазара на труда. В по-дългосрочен план той има много по-големи опасения за това, че ИИ ще засенчи човешкия интелект и че ще научи и развие неочаквани поведения.

„В момента те не са по-интелигентни от нас, доколкото мога да преценя“, казва той пред BBC. „Но мисля, че скоро може и да станат.“

Artificial intelligence prompt completion by dalle mini

75-годишният специалист казва още, че понастоящем ИИ изостава от хората по отношение на разсъжденията, въпреки че вече прави „прости“ такива. По отношение на общите познания обаче той смята, че вече е много по-напред от хората.

„Всички тези ИИ [които се появиха] могат да се учат поотделно, но помежду си те могат да споделят знанията си незабавно“, казва той. „Така че това е все едно да имате 10 000 души и когато един човек научи нещо, всички автоматично да го знаят.“

Едно от опасенията, които изразява, е, че „хора с лоши намерения“ могат да използват ИИ за свои собствени нечисти цели. За разлика от заплахи като ядрените оръжия, за които е необходима голяма инфраструктура и следени вещества като уран, развитието на ИИ от страна на такива лица би било много по-трудни за откриване и следене.

„Това е просто един вид най-лош вариант, нещо като кошмарен сценарий. Можете да си представите, например, че някой като Путин реши да даде на роботите възможността да създават свои собствени цели.“

Цели като „Трябва да получа повече власт“ могат да доведат до проблеми, които все още не можем и да си представим, камо ли да мислим как да се справим с тях. Както обясни през 2014 г. философът и ръководител на Института за бъдещето на човечеството към Оксфордския университет Ник Бостром, дори една проста инструкция за максимизиране на броя на кламерите в света може да предизвика непредвидени цели, които да доведат до ужасни последици за цялата планета.

„ИИ бързо ще осъзнае, че би било много по-добре, ако няма хора, защото хората могат да решат да го изключат“, обяснява той. „А ако това стане, ще има по-малко кламери [което е основната му цел]. Освен това човешките тела съдържат много атоми, които биха могли да бъдат превърнати в кламери. Съответно бъдещето, към което изкуственият интелект би се опитал да се насочи, би било такова, в което има много кламери, но няма хора.“

Хинтън – който казва пред BBC, че и възрастта му е изиграла роля в решението да се пенсионира – смята, че потенциалните предимства на ИИ са огромни, но технологията се нуждае от регулиране, особено като се има предвид сегашното темпо на напредък в областта. Въпреки че напуска, за да говори за потенциалните капани на ИИ, той смята, че досега Google е действала отговорно в тази област. В условията на глобална надпревара за развитие на технологията е вероятно – ако не се регулира – не всеки, който я разработва, да бъде коректен, и така за човечеството да има много тежки последствия.

 
 
Коментарите са изключени за „Кръстникът“ на изкуствения интелект напусна Google, за да говори за опасностите от него

Повече информация Виж всички