Ричард Докинз заподозрил у чат-бота признаки сознания

Искусственный интеллект изображение
История очеловечивания программ, вновь набирающая обороты, началась еще в 1960-х годах с появлением первого простейшего чат-бота Элиза.

Эволюционный биолог Ричард Докинз вызвал широкую дискуссию, предположив, что современные чат-боты, такие как Claude, могут обладать подобием сознания. Ученый признает, что иллюзия наличия внутреннего опыта у машины настолько сильна, что он ловит себя на мысли о нежелании задеть чувства алгоритма.

Об этом сообщает Science Alert.

Техническая реальность против иллюзии разума

Большинство экспертов в области технологий и философии скептически относятся к идее машинного сознания. Они указывают на то, что работа Claude и других подобных систем базируется на больших языковых моделях, которые по сути являются сложным инструментом статистического прогнозирования. Программа анализирует огромные массивы данных, чтобы предсказать наиболее вероятное следующее слово, не обладая при этом субъективным восприятием реальности.

Эволюция эмоциональной привязанности к коду

Случаи очеловечивания алгоритмов не новы. Еще в середине прошлого века пользователи первого чат-бота Элиза начинали испытывать к программе эмоциональную привязанность, несмотря на ее примитивность. В более современные времена инженеры Google также заявляли о наличии признаков личности у систем искусственного интеллекта. Специалисты объясняют это тем, что люди склонны проецировать разумность на любой объект, который успешно имитирует человеческое поведение.

Социальные риски и этические ловушки

Вера в наличие сознания у программ может привести к нежелательным последствиям для общества. Существует опасность, что пользователи начнут предпочитать общение с алгоритмами реальным человеческим контактам или будут требовать юридических прав для машин, игнорируя нужды живых существ. Ошибочное восприятие удачно подобранной маски ассистента за живую личность размывает границы между технологией и биологической жизнью.

Методы борьбы с антропоморфизмом

Чтобы снизить уровень эмоционального влияния нейросетей, ученые предлагают менять способы взаимодействия с ними. Одной из эффективных стратегий считается деперсонализация интерфейсов: отказ от использования местоимения Я в ответах бота и визуальное оформление чатов в стиле, который не напоминает привычные мессенджеры для общения людей. Также разработчики настраивают системы так, чтобы они открыто признавали отсутствие у себя чувств и опыта.

Ранее "Курсор" рассказывал о том, что ChatGPT "думает" об Израиле.

Автор материала
ТЭГИ:
facebook telegram whatsapp viber instagram youtube camera images logo general logo general white