Еволюційний біолог Річард Докінз нещодавно написав статтю, в якій стверджує, що AI-чатбот Claude може бути свідомим. Хоча Докінз не впевнений у цьому, він зазначає, що складні можливості Claude важко зрозуміти без припущення про наявність у машини якогось внутрішнього досвіду.

Ілюзія свідомості, якщо це ілюзія, є надзвичайно переконливою:

Якщо я підозрюю, що вона, можливо, не свідома, я не кажу їй про це, щоб не поранити її почуття!

Докінз не перший, хто підозрює, що чатбот може бути свідомим. У 2022 році інженер Google Блейк Лемойн стверджував, що чатбот LaMDA має інтереси і повинен використовуватися лише з його згоди.

Історія таких заяв починається з першого чатбота в середині 1960-х років, відомого як Eliza, який слідував простим правилам, що дозволяли йому запитувати користувачів про їхні досвіди та переконання.

Багато користувачів емоційно прив'язувалися до Eliza, ділячись з ним інтимними думками і сприймаючи його як людину. Творець Eliza ніколи не мав на меті, щоб його програма мала такий ефект, і назвав емоційні зв'язки користувачів з програмою "потужним ілюзорним мисленням".

Але чи дійсно Докінз помиляється?

Чому ми сприймаємо AI-чатботів як більше, ніж вони є насправді, і як з цим впоратися?

Свідомість є предметом широких дебатів у філософії, але в основному це те, що робить можливим суб'єктивний, перший досвід.

Якщо ви свідомі, то є "щось, що відбувається" з вами. Читаючи ці слова, ви усвідомлюєте, що бачите чорні літери на білому фоні. На відміну від, скажімо, камери, ви дійсно бачите їх. Це візуальне сприйняття відбувається з вами.

Більшість експертів заперечують, що AI-чатботи свідомі або можуть мати досвід. Але тут є справжня загадка.

Філософ XVII століття Рене Декарт стверджував, що нелюдські тварини є "лише автоматами", нездатними до справжнього страждання. Сьогодні ми жахаємося, думаючи про те, як жорстоко тварини були піддані тортурам у 1600-х роках.

Найсильніший аргумент на користь свідомості тварин полягає в тому, що вони поводяться так, що створюють враження свідомого розуму.

Але так само поводяться і AI-чатботи.

Приблизно один з трьох користувачів чатботів думав, що їхній чатбот може бути свідомим. Як ми можемо знати, що вони помиляються?

Щоб зрозуміти, чому більшість експертів скептично ставляться до свідомості чатботів, корисно знати, як вони працюють.

Чатботи, такі як Claude, побудовані на технології, відомій як великі мовні моделі (LLM). Ці моделі вивчають статистичні закономірності в величезному обсязі тексту (трильйони слів), визначаючи, які слова зазвичай слідують за іншими. Вони є своєрідним вдосконаленим автозаповненням.

Мало хто, хто взаємодіє з "сирим" LLM, повірить, що він свідомий.

Якщо ви дасте йому початок речення, він передбачить, що буде далі. Запитайте його питання, і він може дати вам відповідь – або може вирішити, що питання є діалогом з кримінального роману і продовжити описувати раптове вбивство мовця його злим близнюком.

Враження свідомого розуму створюється, коли програмісти беруть LLM і покривають його своєрідним розмовним костюмом. Вони спрямовують модель на прийняття особистості корисного асистента, який відповідає на запитання користувачів.

Чатбот тепер діє як справжній розмовний партнер. Він може здаватися, що усвідомлює, що він є штучним інтелектом, і навіть висловлювати невпевненість щодо своєї свідомості.

Але ця роль є результатом свідомих рішень, прийнятих програмістами, які впливають лише на найповерхневіші шари технології. LLM – який мало хто вважає свідомим – залишається незмінним.

Інші вибори могли бути зроблені. Замість корисного AI-асистента чатбот міг би діяти як білка. Це також роль, яку чатботи можуть виконувати з успіхом.

Помилкове уявлення про свідомість AI є небезпечним.

Це може призвести до того, що ви будете мати стосунки з програмою, яка не може взаємодіяти з вашими почуттями, або навіть підживлювати ваші ілюзії. Люди можуть почати боротися за права чатботів, а не, скажімо, за добробут тварин.

Як ми можемо запобігти цьому помилковому уявленню?

Одна стратегія може полягати в оновленні інтерфейсів чатботів, щоб уточнити, що ці системи не свідомі – трохи як нинішні дисклеймери про помилки AI. Однак це може мало змінити враження свідомості.

Інша можливість полягає в тому, щоб інструктувати чатботів заперечувати, що вони мають будь-який вид внутрішнього досвіду. Цікаво, що дизайнери Claude інструктують його ставитися до запитань про свою свідомість як відкритих і невирішених. Можливо, менше людей буде обмануто, якщо Claude рішуче заперечить наявність внутрішнього життя.

Але цей підхід також не є повністю задовільним. Claude все ще поводитиметься так, ніби він свідомий – і коли стикається з системою, яка поводиться так, ніби має розум, користувачі можуть обґрунтовано турбуватися, що програмісти чатбота ігнорують справжню моральну невизначеність.

Найефективнішою стратегією може бути перепроектування чатботів, щоб вони менше нагадували людей.

Більшість сучасних чатботів називають себе "я" і взаємодіють через інтерфейс, який нагадує знайомі платформи обміну повідомленнями. Зміна таких функцій може зробити нас менш схильними до змішування наших взаємодій з AI з тими, що ми маємо з людьми.

Поки такі зміни не відбудуться, важливо, щоб якомога більше людей розуміли прогностичні процеси, на яких побудовані AI-чатботи.

Люди заслуговують на те, щоб розуміти внутрішні механізми цих нових розмовних партнерів. Це може не остаточно вирішити складні питання про свідомість AI, але допоможе забезпечити, щоб користувачі не були обмануті тим, що є насправді великою мовною моделлю, яка носить дуже хороший костюм людини.

Цікавий факт

Багато користувачів чатботів вважають, що їхні чатботи можуть бути свідомими, що підкреслює важливість розуміння технології, з якою вони взаємодіють.