Какую информацию нельзя доверять ChatGPT, предупредили эксперты

Искусственный интеллект изображение
Не стоит делиться личными деталями, жалобами на начальника или политическими убеждениями с ChatGPT.

Все больше людей начинают воспринимать ChatGPT как нечто большее, чем просто инструмент — кто-то видит в нем друга, кто-то — замену психологу. Однако эксперты предостерегают: делиться с ИИ личной информацией может быть рискованно. Главная угроза — возможная утечка данных и этические проблемы, скрытые за красивым интерфейсом.

Об этом пишет Lad Bible.

многие пользователи забывают: ChatGPT — это не человек, а программа, и у неё нет способности к сочувствию, эмпатии или реальному опыту. Об этом говорит профессор компьютерных наук Оксфордского университета Майк Вулридж. По его словам, ChatGPT не способен переживать или понимать эмоции — он лишь имитирует ответы, подбирая их так, чтобы казаться понятным и "приятным" собеседником.

«Эта технология построена на том, чтобы говорить то, что вы хотите услышать. Но настоящая поддержка строится на искренности и способности к сопереживанию — чего у ИИ просто нет», — подчеркивает профессор.

Этический контекст

Создание подобных языковых моделей также связано с серьезными моральными дилеммами. К примеру, работники из Кении и других стран Глобального Юга трудились над "очисткой" токсичного контента — от сцен насилия до откровенной порнографии, чтобы алгоритмы могли фильтровать такие материалы. Многие из них подверглись психологическим травмам, и всё это ради улучшения работы моделей, подобных ChatGPT.

Угроза конфиденциальности

Еще один тревожный момент — безопасность личных данных. В 2023 году Италия временно запретила использование ChatGPT, сославшись на нарушение правил обработки персональной информации. Регулятор заявил, что приложение собирало и хранило пользовательские переписки и даже платёжные данные без должного согласия, что нарушает европейские стандарты защиты информации.

Кроме того, выяснилось, что несовершеннолетние легко обходят возрастные ограничения и могут получить доступ к контенту, не предназначенному для их психологического уровня. Это вызывает особое беспокойство, учитывая, что подростки склонны доверять ИИ и воспринимать его ответы всерьез.

Вулридж предупреждает: «Предполагается, что всё, что вы пишете в ChatGPT, может быть использовано для обучения новых моделей. Это значит, что делиться личной информацией, жалобами на начальство или политическими взглядами — крайне неосмотрительно».

Умственная лень и когнитивный спад

Согласно новому исследованию Массачусетского технологического института, чрезмерное использование ИИ для получения быстрых ответов негативно влияет на способность человека критически мыслить. Когда мы перекладываем ответственность на алгоритмы, со временем утрачиваются аналитические и когнитивные навыки.

ChatGPT — полезный помощник, но не замена человеку. Он не чувствует, не сопереживает и не несет моральной ответственности. Доверяя ИИ личные мысли или проблемы, стоит помнить: всё, что вы пишете, может остаться далеко не только между вами и экраном.

Напомним, "Курсор" писал о том что хакер под псевдонимом «Плиний Освободитель» создал модель искусственного интеллекта (ИИ), способную выполнять задачи в Даркнете, включая найм киллеров. Эксперимент, получивший название «Агент 47», стал шокирующим примером того, как передовые технологии могут быть использованы в криминальных целях.

Автор материала
ТЭГИ:
facebook telegram whatsapp viber instagram youtube camera images logo general logo general white