Как переизбыток ИИ-контента может «убить» интернет?

6 552

Алгоритмы питаются контентом, который создают другие алгоритмы. Базы и данные для ИИ все чаще становятся неоднозначными. Ученые уже фиксируют: искусственный интеллект может сам себя обнулить — и заодно убить интернет.

Популярность ИИ продолжает расти, но вместе с ней растет и тревога. Исследования уже показывали: если генеративные модели учатся на данных, созданных другими ИИ, они начинают деградировать.

Это явление назвали «коллапс модели». Его последствия могут затронуть не только технологии, но и саму суть цифровой информации.

 

Как ИИ может убить интернет

Ученые обнаружили, что уже на пятом цикле «самообучения» ИИ-ответы становятся заметно хуже, а к девятому — полностью теряют смысл.

Алгоритм буквально «засоряет» сам себя и перестает распознавать даже базовые закономерности. Это особенно опасно, учитывая, что уже сегодня большая часть контента онлайн создается машинами. Например, в прошлые годы предсказывалось, якобы в 2025 году ИИ должен производить до 90% интернет-текстов.

Если тренд сохранится, ИИ будет обучаться на искаженной, низкокачественной информации — и со временем не сможет отличать реальность от вымысла. Эксперты уверены, что проблема уже очевидна: от переведенных машиной статей до искаженных описаний википедий.

Один из наглядных примеров — статья про готические шпили XIV века, которая через 9 циклов обучения ИИ превратилась в набор фраз о разноцветных зайцах.

Почему ИИ может деградировать

Суть деградации в том, что ИИ теряет доступ к «минорным» данным — менее распространенным фактам и объектам. Например, редкие породы собак исчезают из выборки, уступая место популярным в ответах от ИИ-алгоритмов.

Так, алгоритм запоминает лишь то, что повторяется, и постепенно сужает свое представление о мире. В итоге — искажение, обобщение, «галлюцинации» и рост недостоверной информации. Чтобы избежать цифрового обнуления, некоторые специалисты предлагают обеспечить доступ ИИ к новым, оригинальным данным, которые будут создавать исключительно люди.

Однако это сложно: с каждым днем становится труднее отделять тексты, написанные человеком, от машинных. Платформы запирают контент, авторские права ограничивают доступ, а объемы «искусственной информации» продолжают расти. Пока решений нет.

Возможно, интернету понадобится система верификации — вроде блокчейна или специальной «печати доверия» — чтобы отличать реальность от симуляции. Иначе нас ждет не просто крах ИИ, а крах самой идеи истины в цифровом пространстве.

https://masterok.livejournal.c...

«А что, так можно было?»
  • Nikkuro
  • Вчера 15:57
  • В топе

Главный обывательский вопрос по итогам прошедшей ночи «А что, так можно было?»   Израиль совершил то же, за что Россию с подачи объединенного Запада  подвергли тотальной о...

Конец истории. Ирана

Автор: Сергей КолясниковУ Ирана, получившего к настоящему моменту и позор, и войну — в текущей ситуации есть три варианта.Первый — это мощный удар неядерными силами по Израилю, с нанесе...

Удар Израиля по Ирану означает, что большая Синагога жертвует Израилем в новой шахматной партии...

Только вчера, 12 июня 2025 года, я написал и опубликовал статью «Представьте себе, что так называемый «коллективный Запад» — это Синагога, живущая по законам Торы». Она про то, что иудаизм (иудейская ...

Обсудить
  • Это не искусственный интеллект, это имитация...
  • Да будет так. Жизнь сама нашла лекарство от цифровизации
  • Если тренд сохранится, ИИ будет обучаться на искаженной, низкокачественной информации — и со временем не сможет отличать реальность от вымысла. ======================================================================== этот тренд судя по всему заложен изначально...