Интересные факты

Что категорически нельзя рассказывать ChatGPT - предупреждение экспертов по безопасности

ChatGPT опасен для ваших личных данных, считают специалисты.

Искусственный интеллект ChatGPT стремительно стал привычным помощником для многих украинцев. Одни обращаются к нему за советами по самым разным вопросам, другие ведут с ним беседы ради любопытства или развлечения. Однако специалисты предупреждают: не вся информация подходит для общения с нейросетью. Некоторые данные могут поставить под угрозу вашу конфиденциальность и даже безопасность.

О чем никогда не стоит рассказывать ChatGPT, выяснял ТСН.ua.

Что нельзя рассказывать ChatGPT

Личные данные
Ни в коем случае не передавайте искусственному интеллекту свои паспортные данные, налоговый номер, адрес проживания или точное местоположение. Также не стоит упоминать членов семьи, место работы, расписание или привычки в досуге. Эксперты напоминают: даже номер телефона или электронная почта могут быть использованы для идентификации и отслеживания вашей активности.

Пароли и учетные записи
Любые пароли — к социальным сетям, банкам или сервисам — строго запрещено вводить в чат. Если эта информация попадет в чужие руки, злоумышленники смогут получить доступ к вашим аккаунтам и личным данным.

Финансы
Никогда не делитесь реквизитами банковских карт, номерами счетов или другими финансовыми сведениями. Утечки и хакерские атаки происходят регулярно, а информация, переданная чат-боту, может быть сохранена и использована не по назначению.

Рабочая информация
Не публикуйте внутренние документы, клиентские базы, планы или исходные коды. После громкого инцидента с утечкой данных в Samsung, где инженер случайно передал ChatGPT часть корпоративного кода, компания полностью запретила использование ИИ в рабочих целях.

Медицинские сведения
Хотя нейросеть может давать общие советы о здоровье, она не является врачом. Любые рекомендации по лечению, диагностике или приему лекарств следует получать только у специалистов. Ошибочный ответ ИИ может привести к серьезным последствиям, а ответственность за такие советы никто не несет.

Откровенные темы и интимный контент
Чат-боты автоматически фильтруют подобные данные. Подобные сообщения могут привести к блокировке вашего аккаунта или передаче данных модераторам. Эксперты также напоминают: интернет ничего не забывает — и неизвестно, где ваши слова могут всплыть позже.

Эмоциональные и личные признания
ChatGPT не заменяет психолога и не предназначен для ведения личного дневника. Всё, что вы делитесь с нейросетью, может быть сохранено в логах системы. Чтобы минимизировать риски, специалисты советуют использовать временные чаты или режим, аналогичный «инкогнито», и регулярно очищать историю сообщений.

Главный вывод экспертов прост: ChatGPT — это инструмент, а не доверенное лицо. Относитесь к нему так же осторожно, как к любому онлайн-сервису, где ваши данные могут оказаться доступными третьим лицам.

Ранее "Курсор" сообщал о том, для чего ChatGPT пользователи применяют чаще всего.

Автор материала:
Тали Малкина

Недавние новости

Какие продукты опасны для желудка натощак - ответ врачей

Врачи объяснили, какие продукты нельзя употреблять в качестве первой порции питания, если человек проголодался.

39 минут назад

Кофе и чай: напитки, которые по-разному влияют на женские кости

Десятилетнее исследование показало разницу между чаем и кофе. Выбор утреннего напитка может незаметно влиять на…

1 час назад

Как обуздать тягу к сладкому: 19 полезных продуктов

Эксперты перечислили 19 продуктов, которые действительно снижают тягу к сладкому, и раскрыли 15-минутный способ самоконтроля.

2 часа назад

Какой камень приносит исцеление и удачу каждому знаку Зодиака

Назван счастливый кристалл для знака Зодиака по мнению астрологов.

3 часа назад

Похолодание и дожди: прогноз погоды на 15 декабря

В большинстве регионов ожидается облачная погода с осадками, температура снизится, ветер останется слабым, давление будет…

4 часа назад

«Мама, я тебя люблю»: опубликованы жуткие кадры с места теракта в Сидн

Видео с нападения на ханукальный фестиваль в Сиднее продолжают появляться в сети. Люди прятались под…

5 часов назад