Не стоит делиться личными деталями, жалобами на начальника или политическими убеждениями с ChatGPT.
pixabay.com
Все больше людей начинают воспринимать ChatGPT как нечто большее, чем просто инструмент — кто-то видит в нем друга, кто-то — замену психологу. Однако эксперты предостерегают: делиться с ИИ личной информацией может быть рискованно. Главная угроза — возможная утечка данных и этические проблемы, скрытые за красивым интерфейсом.
Об этом пишет Lad Bible.
многие пользователи забывают: ChatGPT — это не человек, а программа, и у неё нет способности к сочувствию, эмпатии или реальному опыту. Об этом говорит профессор компьютерных наук Оксфордского университета Майк Вулридж. По его словам, ChatGPT не способен переживать или понимать эмоции — он лишь имитирует ответы, подбирая их так, чтобы казаться понятным и "приятным" собеседником.
«Эта технология построена на том, чтобы говорить то, что вы хотите услышать. Но настоящая поддержка строится на искренности и способности к сопереживанию — чего у ИИ просто нет», — подчеркивает профессор.
Создание подобных языковых моделей также связано с серьезными моральными дилеммами. К примеру, работники из Кении и других стран Глобального Юга трудились над "очисткой" токсичного контента — от сцен насилия до откровенной порнографии, чтобы алгоритмы могли фильтровать такие материалы. Многие из них подверглись психологическим травмам, и всё это ради улучшения работы моделей, подобных ChatGPT.
Еще один тревожный момент — безопасность личных данных. В 2023 году Италия временно запретила использование ChatGPT, сославшись на нарушение правил обработки персональной информации. Регулятор заявил, что приложение собирало и хранило пользовательские переписки и даже платёжные данные без должного согласия, что нарушает европейские стандарты защиты информации.
Кроме того, выяснилось, что несовершеннолетние легко обходят возрастные ограничения и могут получить доступ к контенту, не предназначенному для их психологического уровня. Это вызывает особое беспокойство, учитывая, что подростки склонны доверять ИИ и воспринимать его ответы всерьез.
Вулридж предупреждает: «Предполагается, что всё, что вы пишете в ChatGPT, может быть использовано для обучения новых моделей. Это значит, что делиться личной информацией, жалобами на начальство или политическими взглядами — крайне неосмотрительно».
Согласно новому исследованию Массачусетского технологического института, чрезмерное использование ИИ для получения быстрых ответов негативно влияет на способность человека критически мыслить. Когда мы перекладываем ответственность на алгоритмы, со временем утрачиваются аналитические и когнитивные навыки.
ChatGPT — полезный помощник, но не замена человеку. Он не чувствует, не сопереживает и не несет моральной ответственности. Доверяя ИИ личные мысли или проблемы, стоит помнить: всё, что вы пишете, может остаться далеко не только между вами и экраном.
Напомним, "Курсор" писал о том что хакер под псевдонимом «Плиний Освободитель» создал модель искусственного интеллекта (ИИ), способную выполнять задачи в Даркнете, включая найм киллеров. Эксперимент, получивший название «Агент 47», стал шокирующим примером того, как передовые технологии могут быть использованы в криминальных целях.
Ученые определили, откуда могли появиться признаки жизни на этой планете.
Израильские ученые рассказали, как ваша поза во сне может рассказать о характере.
Ученые приблизились к разгадке того, когда именно в организме человека начинается фаза ускоренного старения.
Таро-гороскоп на вторник, 29 июля 2025 года, с учетом влияния карт и энергии дня. Этот…
Температура немного снизится, а солнце останется палящим.
В Германии, в результате крушения поезда, пострадали десятки человек.