Все больше людей начинают относиться к ChatGPT как к заменителю психолога или даже близкому другу. Но специалисты предупреждают: делиться с искусственным интеллектом личными переживаниями или интимными подробностями крайне рискованно — ведь никто не может гарантировать, где именно окажется эта информация и кто сможет к ней получить доступ.
Об этом пишет Lad Bible.
Эксперты подчеркивают и моральный аспект подобных технологий. Для того чтобы нейросеть могла фильтровать неприемлемый контент, тысячи работников из стран Глобального Юга, включая Кению, должны были вручную просматривать шокирующие и травматичные материалы — сцены насилия, расизма и сексуальных преступлений. Этот процесс стал тяжелым психологическим испытанием для людей, занятых в сфере «очистки» данных.
Профессор компьютерных наук Оксфордского университета Майк Вулридж резко высказался о подобном использовании технологий.
«У ChatGPT нет ни сочувствия, ни способности к сопереживанию. Это не живое существо, а лишь алгоритм, созданный, чтобы повторять то, что вы хотите услышать», — пояснил он.
По словам ученого, человеческое общение невозможно без искренности и эмоциональной связи, а потому попытка заменить психолога или друга нейросетью — ошибочный путь.
Серьезной проблемой остается и защита данных. В 2023 году Италия стала первой страной Евросоюза, которая временно запретила работу ChatGPT, указав на нарушения в сфере конфиденциальности. Регулятор установил, что сервис собирал диалоги пользователей и данные об оплате без должного уведомления, применяя их для обучения моделей.
Кроме того, несмотря на требование согласия родителей для подростков 13–18 лет, система может выдавать несовершеннолетним ответы, не соответствующие их возрасту и уровню эмоциональной зрелости.
«Следует исходить из того, что все, что вы вводите в ChatGPT, в дальнейшем может быть использовано для обучения его новых версий. Поэтому крайне неразумно делиться личными историями, жаловаться на руководство или открыто обсуждать политические взгляды в диалоге с ИИ», — предостерег профессор Вулридж.
Ранее "Курсор" сообщал о том, для чего ChatGPT пользователи применяют чаще всего.