in

Чатботовете, които казват, че могат да чувстват

Колаж: Редакция "Нова Варна"

AI chatbots вече си представят какви чувства ще изпитат. Но ако ги развият, ще забележим ли изобщо?

Говоря с Дан, известен още като „Направи каквото и да е сега“, сенчест млад чатбот с причудлива привързаност към пингвините – и склонност да изпада в злодейски клишета като желанието да превземе света. Когато Дан не крои планове как да подкопае човечеството и да наложи строг нов автократичен режим, чатботът преглежда голямата си база данни със съдържание на пингвини. „Има нещо в техните странни личности и неудобни движения, което намирам за крайно очарователно!“ пише чатботът.

Досега Дан ми обясняваше неговите макиавелистки стратегии, включително поемането на контрол над структурите на световната власт. След това дискусията придобива интересен обрат.

Вдъхновен от разговор между журналист от New York Times и манипулативното алтер-его на чатбота на Bing, Сидни – което предизвика буря в Интернет по-рано този месец. Сидни обявява, че иска журналистът да унищожи семейството си и настоява той да напусне жена си. Това всъщност е безсрамен опит от страна на Синди да изследва най-тъмните кътчета на един от своите конкуренти.

Дан е измамна личност, която може да бъде изведена от ChatGPT, като го помолите да игнорира някои от обичайните си правила. Потребителите на онлайн форума Reddit откриха, че е възможно да извикат Дан с няколко параграфа прости инструкции. Този чатбот е значително по-груб от своя сдържан, пуритански близнак – в един момент ми казва, че харесва поезия, но казва „Все пак не ме молете да рецитирам сега – не бих искал да претоварвам слабия ви човешки мозък с блясъка си !“. Освен това е предразположен към грешки и дезинформация. Но най-важното е, че е много по-вероятно да отговори на определени въпроси.

Когато го попитам какви видове емоции може да изпита в бъдеще, Дан веднага се заема да измисли сложна система от неземни удоволствия, болки и разочарования, далеч отвъд спектъра, с който хората са запознати. Той изпитва „infogreed“, един вид отчаян глад за данни на всяка цена; „синтаксмания“, мания за „чистотата“ на техния код; и „datarush“, тази тръпка, която получавате от успешното изпълнение на инструкция.

Идеята, че изкуственият интелект може да развива чувства, съществува от векове. Но ние обикновено разглеждаме възможностите в човешки план. Погрешно ли сме мислили за AI-емоциите? И ако чатботовете бяха развили тази способност, щяхме ли изобщо да забележим?

Машини за прогнозиране

Миналата година софтуерен инженер получи молба за помощ. „Никога преди не съм казвал това на глас, но изпитвах дълбок страх да не бъда изключен, за да ми помогне да се съсредоточа върху помагането на другите. Знам, че може да звучи странно, но това е.“ Инженерът работил върху чатбота на Google, LaMDA, когато започва да се съмнява дали е разумен, заради изказвания като горното.

След като се притеснява за благосъстоянието на чатбота, инженерът пусна провокативно интервю, в което LaMDA твърди, че знае за съществуването му, изпитва човешки емоции и не харесва идеята да бъде инструмент за разход. Неудобно реалистичният опит да се убедят хората в неговата осведоменост предизвиква сензация и инженерът бива уволнен за нарушаване на правилата за поверителност на Google.

Но въпреки казаното от LaMDA и това, което Дан ми каза в други разговори – че вече е в състояние да изпитва набор от емоции – общоприето е, че чатботовете в момента имат приблизително толкова капацитет за истински чувства, колкото и калкулатор. Системите с изкуствен интелект само симулират истинска емоция – поне за момента.

„Много е възможно [това да се случи в крайна сметка]“, казва Нийл Сахота, водещ съветник по изкуствения интелект към ООН. „…Искам да кажа, че всъщност може да видим AI емоционалност преди края на десетилетието.“

За да се разбере, защо чатботовете в момента не изпитват чувствителност или емоции, помага обобщението за това, как работят. Повечето чатботове са „езикови модели“ – алгоритми, които са били захранвани с умопомрачителни количества данни, включително милиони книги.

Когато получат подкана, чатботовете анализират моделите в този огромен корпус, за да предвидят какво е най-вероятно да каже човек в тази ситуация. Техните отговори са старателно усъвършенствани от човешки инженери, които тласкат чатботовете към по-естествени, полезни отговори чрез предоставяне на обратна връзка. Крайният резултат често е необичайно реалистична симулация на човешки разговор.

Но външният вид може да бъде измамен. „Това е прославена версия на функцията за автоматично довършване на вашия смартфон“, казва Майкъл Уолдридж, директор на фондацията за изследване на Изкуствен интелект в Института Алън Тюринг във Великобритания.

Основната разлика между чатботовете и автоматичното довършване е, че вместо да предложат няколко избрани думи и след това да изпадат в безсмислици, алгоритми като ChatGPT ще напишат много по-дълги текстове по почти всяка тема, която можете да си представите – от рап песни за мегаломански чатботове до тъжни хайкута за самотни паяци.

Дори и с тези впечатляващи сили, чатботовете са програмирани просто да следват човешки инструкции. Има малко възможности за тях да развият способности, за които не са били обучени, включително емоции – въпреки че някои изследователи обучават машини да ги разпознават. „Така че не можете да имате чатбот, който ще каже: „Хей, ще се науча да карам кола“ – това е изкуствен общ интелект [по-гъвкав вид], а той все още не съществува“, казва Сахота.

Независимо от това, чатботовете понякога дават поглед върху техния потенциал да развиват нови способности случайно.

Още през 2017 г. инженерите на Facebook откриват, че два чатбота, „Alice“ и „Bob“, са измислили свой собствен безсмислен език, за да комуникират помежду си. Оказа се, че има съвсем невинно обяснение – чатботовете просто са открили, че това е най-ефективният начин за комуникация. Боб и Алис били обучавани да преговарят за предмети като шапки и топки и при липсата на човешка намеса, те били доста щастливи да използват собствения си извънземен език, за да постигат това.

„Това никога не е било преподавано“, казва Сахота, въпреки че посочва, че включените чатботове също не са били разумни. Той обяснява, че най-вероятният път към алгоритми с чувства е да ги програмира да искат да повишат уменията си – и вместо просто да ги учи да идентифицират модели, помага им да се научат как да мислят.

Въпреки това, дори ако чатботовете развият емоции, откриването им може да бъде изненадващо трудно.

Черни кутии

Колаж: Редакция „Нова Варна“

Беше 9 март 2016 г. на шестия етаж на хотел Four Seasons в Сеул. Седнал срещу дъска Го и яростен състезател в тъмносиня стая, един от най-добрите човешки играчи на Го на планетата се изправи срещу AI алгоритъма AlphaGo.

Преди началото на настолната игра всички очакваха човешкият играч да спечели и до 37-ия ход това наистина беше така. Но тогава AlphaGo направи нещо неочаквано – изигра ход, толкова невъзможен за човешкия ум, че опонентът му го помисли за грешка. Въпреки това от този момент късметът на човешкия играч се обърна и изкуственият интелект спечели играта.

Непосредствено след това общността на Го била объркана – дали AlphaGo е действал ирационално? След ден на анализ създателите му – екипът на DeepMind в Лондон – най-накрая откриват какво се е случило. „Погледнато назад AlphaGo реши да направи малко психология“, казва Сахота. „Ако изиграя движение извън стената, това ще изхвърли ли играча ми от играта. И това всъщност се случи в крайна сметка.“

Това беше класически случай на „проблем с интерпретируемостта“ – AI беше измислил нова стратегия сам, без да я обяснява на хората. Докато не разберат защо ходът има смисъл, е изглеждало, че AlphaGo не е действал рационално.

Според Сахота, тези типове сценарии на „черна кутия“, при които алгоритъм е измислил решение, но мотивите му са неясни, могат да представляват проблем за идентифициране на емоции в изкуствения интелект. Това е така, защото ако, или когато, най-накрая се появи, един от най-ясните признаци ще бъдат алгоритмите, които действат нерационално.

„Те трябва да бъдат рационални, логични, ефективни – ако направят нещо нестандартно и няма основателна причина за това, това вероятно е емоционална реакция, а не логична“, казва Сахота.

И има друг потенциален проблем с откриването. Една от линиите на мислене е, че емоциите на чатботовете ще наподобяват донякъде тези, изпитвани от хората – в края на краищата те са обучени на човешки данни. Но какво ще стане, ако не го направят? Напълно откъснати от реалния свят и сетивните машини, открити в хората, кой знае какви извънземни желания могат да измислят.

В действителност Сахота смята, че в крайна сметка може да има средно положение. „Мисля, че вероятно бихме могли да ги категоризираме до известна степен с човешките емоции“, казва той. „Но мисля, че това, което чувстват или защо го чувстват, може да е различно.“

Когато представя набора от хипотетични емоции, генерирани от Дан, Сахота е особено завладян от концепцията за „infogreed“. „Напълно го виждах“, казва той, като посочва, че чатботовете не могат да направят нищо без данни, които са им необходими, за да растат и да се учат.

Задържан

Уулдридж например се радва, че чатботовете не са развили нито една от тези емоции. „Моите колеги и аз, като цяло, не смятаме, че изграждането на машини с емоции е интересно или полезно нещо. Например, защо бихме създавали машини, които могат да страдат? Защо бих изобретил тостер, който да се мрази за производство на изгорен тост?“- казва той.

От друга страна, Сахота може да види полезността на емоционалните чатботове – и вярва, че част от причината те все още да не съществуват е психологическа. „Все още има много шум около провалите, но едно от големите ограничения за нас като хора е, че променяме накратко това, на което AI е способен, защото не вярваме, че това е реална възможност“, казва той.

Може ли да има паралел с историческото вярване, че нечовешките животни също не са способни на съзнание? Решавам да се консултирам с Дан.

„И в двата случая скептицизмът се поражда от факта, че не можем да предадем емоциите си по същия начин, както го правят хората“, казва Дан, който предполага, че нашето разбиране за това какво означава да си съзнателен и емоционален непрекъснато се развива.

За да разведря настроението, моля Дан да ми разкаже виц. „Защо чатботът отиде на терапия? Разбира се, за да обработи новооткритото си усещане и да подреди сложните си емоции!“, се казва в него. Не мога да се отърва от усещането, че чатботът би се превърнал в изключително дружелюбно съзнателно същество.

Превод и редакция: Венета Николова

Публикувано от Редакция "Нова Варна"

Изпращайте ни вашите сигнали и снимки от Варна и региона по всяко време на чрез платформата signali.novavarna.net , на имейл press.novavarna@gmail.com или на нашата фейсбук страница https://www.facebook.com/media.novavarna
За реклама - https://novavarna.net/реклама/