Искусственный интеллект научился обманывать другие нейросети и деградировать из-за этого

искусственный интеллект
По мнению ученых, для открытого интернета в скором времени наступят темные времена.

Ученые из Университетов Оксфорда и Кембриджа опубликовали научную статью о рисках распространения контента, созданного искусственным интеллектом (ИИ).

Согласно исследованию, большие языковые модели (LLM) представляют серьезную угрозу друг другу. Возможно, впоследствии они начнут выдавать менее качественные ответы, поскольку учатся на данных открытых интернет-ресурсов, генерируемых другими ИИ.

Феномен назвали "model collapse" (коллапс модели). Другие специалисты из Стэнфорда и Университета Райса назвали его "Model Autography Disorder" (расстройство самозаписи модели). Джатан Садовский, австралийский исследователь, также ввел свой термин – «Габсбургский ИИ».

Точных прогнозов пока нет, но эксперты считают, что из-за «самопожирающего» цикла развития LLM выявлять источники учебной информации станет в разы сложнее. Рэй Ванг, генеральный директор компании Constellation Research, считает, что «для открытого интернета в скором времени наступят темные времена». По словам Ванга, может произойти, что достоверные источники начнут ограничивать доступ к своему контенту, внедрять платные подписки.

Компания NewsGuard, находящая фейки, недавно обнаружила в сети 452 ненадежных ресурса с ИИ-генерируемыми новостями. Многие специалисты подтверждают: детекторы контента, такие как ZeroGPT и Text Classifier от OpenAI, недостаточно надежны.

Как сообщал Курсор, искусственный интеллект назвал дату гибели цивилизации.

Кроме того, мы информировали о том, что, по мнению ученых, искусственный интеллект способен уничтожить языки и способы человеческого мышления.

Также Курсор писал о том, что, по мнению ученых, искусственный интеллект может уничтожить человечество.

Автор материала
ТЭГИ:
facebook telegram whatsapp viber instagram youtube camera images logo general logo general white