Раскрытие конфиденциальной информации ИИ может иметь непредсказуемые последствия.
pixabay.com
С развитием технологий всё больше людей начинают воспринимать ChatGPT не просто как цифровой инструмент, а как своего рода виртуального психолога или доверенное лицо. Однако специалисты предостерегают: делиться с искусственным интеллектом личными переживаниями и откровенными историями может быть рискованно. Информация, которую вы вводите в чат, может использоваться для обучения моделей, а её дальнейшая судьба остаётся неизвестной.
Об этом пишет Lad Bible.
Многие не задумываются о моральных и практических рисках использования ИИ в таких целях. Особенно тревожным выглядит тот факт, что за разработкой фильтров и алгоритмов стоит реальный человеческий труд — зачастую низкооплачиваемый и травмирующий. Так, в Кении работники были вынуждены вручную обрабатывать шокирующий контент, связанный с насилием, дискриминацией и жестокостью, чтобы улучшить работу языковых моделей.
Профессор Оксфордского университета Майкл Вулридж отметил: «ChatGPT не способен ни на сострадание, ни на понимание. Он не имеет человеческого опыта, не чувствует боли или радости. Его цель — лишь формировать ответ, который кажется уместным». По его словам, основа любой эмоциональной поддержки — это подлинность, внимание и участие, чего ИИ, по определению, лишён.
Среди наиболее значимых угроз также называют возможность утечки конфиденциальных данных. Например, в 2023 году Италия временно приостановила работу ChatGPT на своей территории из-за нарушений в сфере обработки персональных данных. Регуляторы обнаружили, что сервис собирал пользовательские диалоги и платёжную информацию без должного согласия, применяя их для дообучения системы.
Кроме того, хотя формально ChatGPT требует родительского согласия для подростков от 13 до 18 лет, на практике несовершеннолетние легко обходят это ограничение. В результате дети получают доступ к ответам, которые могут быть не только неполными, но и вредными с учётом их возраста и уровня зрелости.
Профессор Вулридж подчеркивает: «Всё, что вы пишете в чат с ИИ, потенциально может быть сохранено, обработано и использовано в будущем. Поэтому крайне неразумно обсуждать личные проблемы, жалобы на начальство или делиться политическими взглядами с искусственным интеллектом».
Исследование, проведённое учёными из Массачусетского технологического института, подтверждает: регулярное обращение к ИИ за решениями может снизить способность человека самостоятельно анализировать и критически оценивать информацию. Упрощая себе жизнь, мы рискуем утратить важные когнитивные навыки — внимание, память, логическое мышление.
Итак, несмотря на удобство и широкие возможности, ИИ не должен становиться заменой живого общения, психолога или доверенного друга. Личное пространство, эмоциональная безопасность и здравый смысл — ключевые принципы при использовании любой технологии, особенно такой мощной, как искусственный интеллект.
Напомним, "Курсор" писал о том что хакер под псевдонимом «Плиний Освободитель» создал модель искусственного интеллекта (ИИ), способную выполнять задачи в Даркнете, включая найм киллеров. Эксперимент, получивший название «Агент 47», стал шокирующим примером того, как передовые технологии могут быть использованы в криминальных целях.
Сколько алкоголя приводит к похмелью: врач назвала точные цифры и предостерегла от отравления.
Для авиаперелетов есть свой собственный "дресс-код".
ХАМАС заявил, что группировка "удивлена" словами Трампа о переговорах.
Какие продукты не надо есть во время стресса, рассказали эксперты.
Альянс увеличивает расходы на оборону, ожидая угрозу от рф в течение 5 лет. Но аппетиты…
Эксперты выяснили, как простая прогулка может защитить от рака.