ТОП-5 опасных запросов, которые никогда не стоит задавать ChatGPT

Интеллект человека картинка
ИИ-боты могут использовать некоторую вашу информацию.

Искусственный интеллект ChatGPT уже стал частью повседневной жизни миллионов пользователей по всему миру. Он помогает писать тексты, решать задачи, подсказывает идеи и облегчает работу. Однако эксперты в области цифровой безопасности предупреждают: чрезмерное доверие к подобным инструментам может обернуться серьезными рисками.

Как пишет Forbes, ИИ способен превратиться в настоящую «черную дыру для конфиденциальной информации». Прежде чем делиться с ним чем-либо личным, важно понимать, куда и как могут попасть введенные вами данные.

Что нужно знать о рисках?

Несмотря на то, что разработчики OpenAI декларируют защиту пользовательских данных, практика показывает: абсолютной приватности в чат-ботах не существует. Все, что вы вводите в диалоговое окно, может быть использовано для последующего обучения модели. В некоторых случаях запросы проверяются модераторами, а значит — ими могут быть прочитаны люди. Кроме того, информация может сохраниться в истории запросов и стать доступной через уязвимости в системе.

Какие данные никогда не стоит вводить в ChatGPT?

  1. Пароли и логины.
    Даже если кажется, что вы просто «копируете» что-то для удобства — это потенциальная угроза. AI не защищен по банковским стандартам, и вы не сможете отследить, куда попали эти данные.

  2. Номера карт, счетов, коды подтверждения.
    Финансовая информация особенно уязвима. Любая утечка может привести к краже денег или финансовому мошенничеству.

  3. Медицинские сведения.
    Задавать ChatGPT вопросы о симптомах — не так уж опасно, но делиться анализами, диагнозами или результатами обследований — крайне неразумно. ChatGPT — не медицинский сервис, и его база не защищена по стандартам HIPAA или аналогичным законам.

  4. Личные переписки и документы.
    Поделившись фрагментом чата, резюме, личным письмом или даже деловой презентацией, вы автоматически соглашаетесь, что эта информация может быть использована моделью для дальнейшего обучения. Это особенно критично для юристов, врачей, учителей, HR и бизнесменов.

  5. Информация о детях.
    Имя ребенка, школа, адрес, увлечения — все это относится к чувствительной информации. Она может быть использована третьими лицами, если попадет в открытый доступ.

  6. Незаконные или сомнительные темы.
    AI фиксирует все запросы, включая те, которые касаются нарушения закона. Даже шутливые фразы о незаконных действиях могут привлечь внимание модераторов и, в худшем случае, привести к блокировке или другим последствиям.

Почему это важно?

Многие забывают, что даже самый «умный» ИИ — это не друг и не личный консультант. Он не имеет сознания, не чувствует эмпатии и не может хранить ваши секреты. Все, что вы ему доверяете, становится частью технической экосистемы, где нет гарантий анонимности.

Кроме того, в 2023 году власти Италии временно заблокировали ChatGPT за нарушение законов о защите персональных данных. Это прецедент, показывающий, что риски не иллюзорны. Вопросы к OpenAI возникали и по поводу доступа несовершеннолетних, поскольку даже подростки могли получать откровенные ответы, не соответствующие возрасту.

Как обезопасить себя при работе с ИИ?

  • Используйте анонимный режим, если он предусмотрен.

  • Не сохраняйте историю чатов, если планируете делиться чем-то личным.

  • Используйте ChatGPT как помощника — но не как «исповедальню» или «психолога».

  • Не отправляйте ничего, что вы не сказали бы публично.

  • Внимательно читайте политику конфиденциальности любого цифрового инструмента.

Напомним, "Курсор" писал о том что хакер под псевдонимом «Плиний Освободитель» создал модель искусственного интеллекта (ИИ), способную выполнять задачи в Даркнете, включая найм киллеров. Эксперимент, получивший название «Агент 47», стал шокирующим примером того, как передовые технологии могут быть использованы в криминальных целях.

Автор материала
ТЭГИ:
facebook telegram whatsapp viber instagram youtube camera images logo general logo general white