Концепцията за сингулярността – моментът, в който машините ще станат по-умни от хората – се обсъжда и дискутира от десетилетия. Но тъй като развитието на алгоритмите за машинно обучение доведе до появата на софтуер, който може лесно да преодолее теста на Тюринг, въпросът стана по-актуален отвсякога.
Колко далеч сме от изкуствения общ интелект (ИОИ) и какви рискове крие той?
Съвременният изкуствен интелект (ИИ) се основава на големи езикови модели (ГЕМ). Текстовите ИИ всъщност не мислят за отговор или не правят проучване – те правят чисто и просто статистика: Използвайки данните, на които са обучени, те установяват коя е най-вероятната дума, която трябва да се изпише (понякога най-вероятната буква) след предишна на база какво вие сте им задали като реплика. Това може да доведе до много реалистични и полезни, но също така и до грешни и опасни резултати, а понякога и до забавни. Но както вече казахме, машината не мисли, а просто калкулира много добре.
Тези модели са специализирани в конкретна задача, която изисква специфични данни за обучението им, но в тази област съществува идеята, че ИОИ е следващата стъпка в развитието. Тези алгоритми ще изпълняват много задачи, а не само една, и ще могат да ги изпълняват наравно с хората. Въпреки че изкуственото съзнание може би все още е далеч, разработването на ИОИ се разглежда като крайъгълен камък в тази посока. И в някои отрасли се твърди, че ни делят само няколко години от него.
„През следващите едно-две десетилетия изглежда вероятно отделен компютър да има приблизително изчислителната мощ на човешкия мозък. След това, като добавите още 10/15 години, отделният компютър ще има приблизително изчислителната мощ на цялото човешко общество“, казваа Бен Гоерцел, който е основал SingularityNET, чиято цел е да създаде „децентрализиран, демократичен, приобщаващ и полезен изкуствен общ интелект“, в лекция на срещата на върха Beneficial AGI Summit 2024.
Има два непосредствени въпроса, произтичащи от това убеждение: Първият е доколко реалистична е тази преценка? Песимистите твърдят, че обявяването на предстоящ ИОИ е просто начин да се раздуе още повече балонът на ИИ преди неизбежното му спукване. Нобеловият лауреат и „баща на ИИ“ Джефри Хинтън смята, че до ИОИ остават по-малко от 20 години. Йошуа Бенгио, който през 2018 г. сподели наградата „Тюринг“ с Хинтън и Ян Лекун, пък твърди, че не знаем колко време ще ни отнеме да стигнем дотам.
Вторият въпрос е свързан с опасностите. Хинтън напусна Google миналата година от загриженост за възможните опасности от изкуствения интелект. Също така, според скорошно проучване 1/3 от изследователите на ИИ смятат, че технологията може да доведе до катастрофални резултати. Все пак не бива да смятаме, че е неизбежно някакво бъдеще в стил „Терминатор“, в което машини-убийци ловуват хора. Опасностите може да са много по-обикновени.
Вече има редица обвинения, че различни ИИ модели са обучавани с крадени произведения на изкуството. По-рано тази година OpenAI молеше британския парламент да му разреши да използва произведения, защитени с авторски права (безплатно), защото би било невъзможно да обучава ГЕМ (и да печели пари) без достъп до тях. Съществуват и екологични рискове. Настоящите ИИ са свързани с изумително висок разход на вода и „тревожен“ въглероден отпечатък. А по-мощните ИИ ще изискват още повече ресурси от свят с бързо променящ се климат.
Друга заплаха е използването – но най-вече злоупотребата – с ИИ за създаване на фалшиви материали с цел разпространение на дезинформация. Създаването на фалшиви изображения с цел пропаганда (или други нечисти цели) е изключително лесно. И макар че сега има начини да се открият тези фалшиви изображения, това ще става все по-трудно.
Правилата и регулациите за изкуствения интелект не са нещо, на което се обръща необходимото внимание – затова е важно да сме по-загрижени за ситуацията. Все пак има проучвания, които твърдят, че не трябва да се притесняваме прекалено поради факта, че колкото повече лоши резултати от ИИ има в мрежата, толкова повече те ще се използват за обучение на нови ИИ, които в крайна сметка ще създават по-лоши материали и така нататък, докато ИИ спре да бъде полезен…
Та в известна степен сме по-близо до създаването на изкуствена глупост, отколкото до истински изкуствен интелект.