Многие путешественники начинают использовать нейросети для планирования поездок.
Но такая привычка может дорого обойтись. Об этом предостерегает издание Travel Off Path, ссылаясь на опыт испанской инфлюенсерки Мэри Калдасс.
Главное преимущество чатботов вроде ChatGPT — скорость. Пользователь за секунды получает развернутый ответ, тогда как поиск в интернете или консультация у опытных туристов занимают значительно больше времени. Однако у нейросетей есть фундаментальная проблема: они не понимают суть вопроса, а лишь подбирают информацию по алгоритму. В результате они часто упускают важные детали, если о них не спросить прямо.
Калдасс вместе с бойфрендом собиралась на отдых в Пуэрто-Рико и обратилась к ChatGPT за советом по документам для въезда. Чатбот уверил, что виза им не нужна, и формально оказался прав — граждане Испании действительно могут посещать США без визы. Но ключевой момент в том, что въезд возможен только после регистрации в американской системе ESTA, которая является разновидностью электронного разрешения на поездки (ETA).
Автор публикации напомнил, что все больше стран вводят подобные цифровые формы контроля. К примеру, гражданам США для въезда в Великобританию виза не требуется, но они обязаны зарегистрироваться в британской системе ETA. По сути, это аналог онлайн-визы, без которой попасть в страну невозможно. США давно применяют собственный вариант — ESTA, и для иностранцев существуют лишь два законных пути пересечения границы: получение визы или электронное разрешение через эту систему.
Калдасс не уточнила у чатбота правила въезда именно в Пуэрто-Рико и узнала о необходимости ESTA уже в аэропорту, что фактически сорвало ее путешествие. Журналист Travel Off Path подчеркнул, что единственными надежными источниками в вопросах виз и въездных правил остаются официальные сайты правительств и связанные с ними сервисы.
Испанская инфлюенсерка, доверившись искусственному интеллекту, попала в ситуацию, которая могла бы быть легко предотвращена. Эксперты советуют использовать нейросети лишь как вспомогательный инструмент, но всегда проверять полученные ответы в официальных источниках и уточнять все детали, даже если на первый взгляд кажется, что чатбот дал исчерпывающий ответ.
Ранее "Курсор" писал, что мужчина оказался в психиатрии после советов ChatGPT.
Искусственный интеллект дал совет, после которого у мужчины начался психоз.