Алгоритмы питаются контентом, который создают другие алгоритмы. Базы и данные для ИИ все чаще становятся неоднозначными. Ученые уже фиксируют: искусственный интеллект может сам себя обнулить — и заодно убить интернет.
Популярность ИИ продолжает расти, но вместе с ней растет и тревога. Исследования уже показывали: если генеративные модели учатся на данных, созданных другими ИИ, они начинают деградировать.
Это явление назвали «коллапс модели». Его последствия могут затронуть не только технологии, но и саму суть цифровой информации.
Как ИИ может убить интернет
Ученые обнаружили, что уже на пятом цикле «самообучения» ИИ-ответы становятся заметно хуже, а к девятому — полностью теряют смысл.
Алгоритм буквально «засоряет» сам себя и перестает распознавать даже базовые закономерности. Это особенно опасно, учитывая, что уже сегодня большая часть контента онлайн создается машинами. Например, в прошлые годы предсказывалось, якобы в 2025 году ИИ должен производить до 90% интернет-текстов.
Если тренд сохранится, ИИ будет обучаться на искаженной, низкокачественной информации — и со временем не сможет отличать реальность от вымысла. Эксперты уверены, что проблема уже очевидна: от переведенных машиной статей до искаженных описаний википедий.
Один из наглядных примеров — статья про готические шпили XIV века, которая через 9 циклов обучения ИИ превратилась в набор фраз о разноцветных зайцах.
Почему ИИ может деградировать
Суть деградации в том, что ИИ теряет доступ к «минорным» данным — менее распространенным фактам и объектам. Например, редкие породы собак исчезают из выборки, уступая место популярным в ответах от ИИ-алгоритмов.
Так, алгоритм запоминает лишь то, что повторяется, и постепенно сужает свое представление о мире. В итоге — искажение, обобщение, «галлюцинации» и рост недостоверной информации. Чтобы избежать цифрового обнуления, некоторые специалисты предлагают обеспечить доступ ИИ к новым, оригинальным данным, которые будут создавать исключительно люди.
Однако это сложно: с каждым днем становится труднее отделять тексты, написанные человеком, от машинных. Платформы запирают контент, авторские права ограничивают доступ, а объемы «искусственной информации» продолжают расти. Пока решений нет.
Возможно, интернету понадобится система верификации — вроде блокчейна или специальной «печати доверия» — чтобы отличать реальность от симуляции. Иначе нас ждет не просто крах ИИ, а крах самой идеи истины в цифровом пространстве.
Оценили 5 человек
5 кармы