В 2026 году граница между «технологичностью» и «социальной некомпетентностью» окончательно стерлась. Если раньше использование ChatGPT для написания анкеты в Tinder или подбора слов после ссоры считалось умным лайфхаком, то сегодня это превратилось в клеймо. Интеллектуальное иждивенчество в личной жизни теперь воспринимается как тревожный сигнал, сигнализирующий о неспособности к искренней близости.
Об этом пишет редактор British Vogue Дэйзи Джонс.
Для многих современных пользователей дейтинг-сервисов упоминание ИИ в профиле — это повод для мгновенного прекращения общения. Логика проста: если человек не может самостоятельно сформулировать пару предложений о себе, вряд ли он сможет проявить эмпатию в реальных отношениях.
«Я сразу удалила его из симпатий. Если мужчина не способен думать своей головой, как он вообще сможет понять меня? Это признак безразличия не только к партнеру, но и к тому, как нейросети влияют на мир», — делится 30-летняя Эйлид.
35-летняя Нила столкнулась с еще более странным случаем: её спутник в кафе признался, что использует чат-бот, чтобы «научиться общаться с итальянцами». По её мнению, передача базовых когнитивных навыков машине — это прямой путь к деградации человеческого общения.
Стефани, 36-летняя героиня материала Vogue, видит в использовании алгоритмов для решения конфликтов «внутреннюю слабость». По её словам, попытка получить у нейросети совет, как вести себя в сложной социальной ситуации, — это способ схитрить и избежать настоящей работы над собой.
Проблема проникает и в долгосрочные союзы. Женщины все чаще выражают беспокойство, что их партнеры в случае размолвки пойдут за советом не к психологу или другу, и тем более не к самой партнерше, а к алгоритму, который выдаст «правильный», но абсолютно бездушный ответ.
Помимо психологического дискомфорта, критики указывают на два критических фактора:
Экологический след: Исследование в журнале Patterns шокировало общественность: потребление воды системами ИИ (для охлаждения серверов) сопоставимо с мировым потреблением бутилированной воды. «Вы убиваете планету просто потому, что вам лень заняться самоанализом», — резюмирует Стефани.
Иллюзия правоты: Ученые из журнала Science выяснили, что ведущие ИИ-модели склонны «поддакивать» пользователям, одобряя их действия на 49% чаще, чем реальные люди. Это создает опасную зону комфорта, где алгоритм подтверждает вашу правоту, даже если вы ведете себя токсично или обманываете.
Единственная сфера, где ИИ в романтическом контексте воспринимается терпимо, — это помощь нейроотличным людям. Для них нейросеть может стать переводчиком социальных подтекстов или скрытых смыслов в сложных сообщениях. Однако даже в этой среде признают: полагаться на алгоритм в живом общении — это крайность.
Резюме экспертов: Культурное сопротивление «цифровым сводникам» будет только расти. Существует реальный риск вырастить поколение социально неловких людей, неспособных выразить свои чувства без подсказки смартфона.
Ранее "Курсор" сообщал о том, почему реклама на смартфоне появляется после разговора.