Даже с искусственным интеллектом не стоит делиться некоторой информацией ради вашей безопасности.
pixabay.com
Искусственный интеллект, в частности ChatGPT, стремительно вошёл в повседневную жизнь и стал для многих источником советов, помощи в учёбе, работе и даже способом пообщаться. Однако, несмотря на удобство и доступность, стоит помнить: ИИ — это не конфиденциальный собеседник, и не вся информация безопасна для передачи в такой чат. Некоторые данные лучше оставить при себе, чтобы не подвергать себя риску утечки личной информации или даже мошенничества.
О чем никогда не стоит рассказывать ChatGPT, выяснял ТСН.ua.
1. Личные и идентификационные данные
Категорически не рекомендуется указывать паспортные и идентификационные данные, адрес проживания, номер телефона, e-mail, место учёбы или работы. Даже если ИИ не "передаёт" эти данные напрямую кому-то ещё, в случае утечки или уязвимости системы, они могут попасть в чужие руки.
2. Геолокация и сведения о близких
Даже простое сообщение типа «я живу недалеко от такого-то парка» или «у меня двое детей, младшему 6 лет» может содержать элементы, по которым возможно установить вашу личность. Не делитесь подобными подробностями, особенно в сочетании с другими личными фактами.
3. Пароли и доступы
Никогда не пишите в чатах ИИ свои пароли, PIN-коды, коды подтверждения или другие формы авторизации. ИИ не нужен доступ к вашим аккаунтам, а такие сведения — лакомый кусок для киберпреступников, если они каким-либо образом получат доступ к истории чатов.
4. Финансовая информация
Сюда входят номера банковских карт, CVV-коды, реквизиты счетов, информация об инвестициях, кредиты и зарплаты. Даже без злого умысла ИИ может случайно использовать фрагменты этих данных в ответах другим пользователям, особенно если у вас включено сохранение истории чатов.
5. Рабочие и корпоративные сведения
Не стоит обсуждать в ИИ-чате конфиденциальные данные вашей компании: отчёты, планы, внутренние документы, клиентские базы и тем более — исходный код программ. Пример с инженером Samsung, случайно раскрывшим служебную информацию через ИИ, показал, насколько серьёзными могут быть последствия. Некоторые компании уже официально запретили своим сотрудникам использовать ИИ в служебных целях.
6. Медицинская информация
Хотя ИИ может дать общие советы по здоровью, он не заменит врача. Не следует делиться с ним диагнозами, результатами анализов или жалобами на самочувствие, рассчитывая на квалифицированную помощь. ИИ может ошибиться, а никто за эти ошибки не несёт юридической ответственности. Кроме того, медицинские данные — одни из самых чувствительных в плане конфиденциальности.
7. Откровенный или компрометирующий контент
Любые интимные признания, фото, эротические фантазии и другие формы откровенности лучше оставить для приватного пространства. Подобный контент может быть удалён системой, а вы — заблокированы. Более того, нет гарантий, что такая информация не «всплывёт» в другом контексте.
8. Личные эмоции и переживания
ИИ не является ни психологом, ни духовным наставником. Хотя иногда он может «поддержать» словами, это не замена реальной помощи. Если вы испытываете тревогу, депрессию или стресс — лучше обратиться к живому специалисту, который сможет оказать поддержку с эмпатией и профессионализмом.
Как себя обезопасить при общении с ИИ
Используйте временный или инкогнито-режим, если обсуждаете что-то личное.
Регулярно очищайте историю чатов.
Никогда не вводите чувствительные данные — даже если вас об этом «спросили».
Используйте ИИ как инструмент, а не как замену человеку.
Помните: всё, что попадает в интернет, потенциально может быть сохранено навсегда.
ИИ — это полезный помощник, но только при грамотном и ответственном использовании. Разделяйте границы между тем, что можно доверить машине, и тем, что должно оставаться строго личным.
Напомним, "Курсор" писал о том что хакер под псевдонимом «Плиний Освободитель» создал модель искусственного интеллекта (ИИ), способную выполнять задачи в Даркнете, включая найм киллеров. Эксперимент, получивший название «Агент 47», стал шокирующим примером того, как передовые технологии могут быть использованы в криминальных целях.
Сотрудник российского фастфуда уличен в омерзительном поступке.
В Кнессете одобрен новый порядок выплат компенсаций тем, кто был отправлен в неоплачиваемый отпуск во…
Украденные профили и фальшивые посты.
Правда ли, что повторное кипячение делает воду вредной?
Шарав и хамсин часто путают, несмотря на то, что эти явления различаются по происхождению и…
Как понять, что вами пытаются манипулировать и использовать в своих целях?