Компания OpenAI сообщила о необычном поведении своих моделей GPT-5: в их ответах все чаще стали появляться метафоры с упоминанием "гоблинов", "гремлинов" и других вымышленных существ.
После выхода GPT-5.1 пользователи заметили, что стиль ответов стал более неформальным и местами слишком "разговорным". В ходе анализа выяснилось, что частота упоминаний «гоблинов» выросла примерно на 175%, а "гремлинов" — на 52%. Сначала это выглядело как редкая особенность, но со временем подобные выражения начали встречаться систематически.
В OpenAI объяснили это особенностями обучения моделей с разными вариантами "персональности", которые доступны пользователям. Наиболее заметный эффект проявился в режиме Nerdy ("ботаник"): несмотря на то что он использовался лишь в небольшой части ответов, именно на него пришлось большинство упоминаний гоблинов в ChatGPT.
В компании пояснили, что при обучении режима Nerdy, имитирующего "ботанский" стиль общения, модели фактически задали повышенный приоритет использованию метафор с вымышленными существами.
Это привело к эффекту замкнутого цикла: система поощряла такие формулировки, они попадали в обучающие данные, а затем снова усиливали привычку модели использовать подобные выражения, включая упоминания гоблинов.
После выявления этой особенности OpenAI в марте отказалась от режима Nerdy и внесла изменения в процесс обучения. Кроме того, из тренировочных данных были удалены материалы с избыточным количеством подобных метафор.
Ранее "Курсор" писал, что искусственный интеллект все активнее используют не только для повседневных задач вроде работы, учебы или поиска данных, но и для быстрого анализа личности. При правильно сформулированном запросе ChatGPT способен в считаные секунды выдать обобщенное описание черт характера собеседника.