В.К. Я иногда предлагаю вашему вниманию эти небольшие заметки о "прелестях" того, то именуют ИИ и виртуальной реальностью, для того, чтобы вы понимали, куда вас отправляют алчно-тщеславные невежды, адепты цифровой трансформации сознания населения, когда вы погружаетесь с головой в свои смартфоны, вместо того, чтобы предоставить вам полную возможность осознанного пребывания в реальности, как её творения. Ну а выводы, делайте вы уже сами.
Почему нельзя полагаться на обучаемость ИИ.

Многие пользователи считают, что системы искусственного интеллекта, такие как ChatGPT, способны учиться и совершенствоваться в процессе работы. Однако на самом деле это не так. Распространённое заблуждение об «обучении» ИИ связано с тем, что в отношении таких технологий часто используют термины, привычные для описания человеческого мышления. Но механизмы, лежащие в основе работы нейросетей, принципиально отличаются от того, как человек усваивает новую информацию.
Основное отличие в том, что ИИ-модели не учатся в реальном времени. Они не запоминают отдельные события, не анализируют опыт и не делают выводы, как это делает человек. «Обучение» происходит исключительно во время тренировки модели, когда алгоритм анализирует огромные массивы текстовых данных, выявляет закономерности и фиксирует их в виде математических зависимостей. Такой процесс требует огромных вычислительных мощностей и завершается ещё до того, как пользователь начинает работать с системой.
Например, ChatGPT формирует ответы, предсказывая наиболее вероятные последовательности слов на основе уже изученной информации. Однако чат-бот не способен адаптироваться к конкретному пользователю или корректировать свои знания в зависимости от обратной связи. Даже если во время диалога пользователь исправит ошибку в ответе ИИ, система не запомнит исправление и может допустить ту же ошибку в следующем диалоге.
В отличие от ChatGPT, некоторые алгоритмы действительно могут изменять свои рекомендации на основе взаимодействия с пользователем. Например, система рекомендаций в стриминговых сервисах анализирует предпочтения зрителей и предлагает новый контент с учётом их выбора. Однако в случае с языковыми моделями обновление знаний требует сложного и дорогостоящего процесса дообучения.
Важно понимать, что ChatGPT — это языковая модель, а не модель знаний. Хотя в процессе обучения нейросети усваивают огромные объёмы информации, их главная функция заключается в обработке текста, а не в точном воспроизведении фактов. Из-за этого в ответах могут встречаться устаревшие данные, а также ошибки, связанные с недостаточным пониманием контекста.
Для решения данной проблемы разработчики используют дополнительные инструменты – интеграция с интернет-поисковиками. Некоторые версии ChatGPT могут обращаться к сети во время генерации ответа, чтобы предоставлять более актуальную информацию. Кроме того, системы могут персонализировать взаимодействие с пользователями, сохраняя данные о предпочтениях в отдельной базе. Однако это не означает, что модель становится способной к самостоятельному обучению.
Отсутствие динамического обучения означает, что пользователи должны тщательно проверять полученную информацию и использовать ИИ в качестве вспомогательного инструмента, а не абсолютного источника знаний. Развитие эффективных стратегий взаимодействия с ChatGPT и понимание ограничений помогут избежать ошибок и повысить продуктивность работы.
По матеиалам: https://www.securitylab.ru/new...
В.К. Здесь также необходимо понимать, что не важно текстовая это модель или модель знаний, как утверждается в заметке, она обучается не на знаниях, а на интерпретациях фактов, например. наблюдений, а то и вообще на базе моделирования неких комбинаций фактов без учёта причинно-следственных связей между ними, поскольку они не поняты.
Говоря другими словами, якобы знания предлагаемые этими моделями, могут быть вообще ложными, не соответствующими реальности. К чему это может привести, предположить несложно. И вот вам небольшой пример из виртуального мира, якобы дополняющей реальности.
Молодость перестала быть счастливым временем: Исследование выявило кризис психического здоровья у зумеров.
«Кризис психического здоровья «означает, что молодость больше не является одним из самых счастливых периодов жизни»: Еще одно пагубное последствие соцсетей – зумеры разучились быть счастливыми.

«С давних пор молодость считается самым счастливым периодом жизни. Однако молодые люди уже не так счастливы, как пожилые люди. Они даже не так счастливы, как люди среднего возраста. Исследователь счастья Эш видит одну причину в том, что подросткам все труднее с нетерпением ждать чего-то. В результате мир в целом все чаще воспринимается как враждебный, что снижает ощущение счастья, считает Эш.
Постоянное сравнение себя с другими в социальных сетях означает, что молодые люди часто чувствуют себя неполноценными. Они с большей вероятностью увидят свои недостатки и разовьют страх перед реальной жизнью».
Источник: https://rusvesna.su/news/17416...
В.К. Я уже приводил этот пример в другой моей публикации и он очень важен, поскольку наглядно демонстрирует именно факт того, что пребывание в плену виртуальной реальности люди отказываются от своей естественной возможности творить своё будущее разрушая, при этом, своё настоящее.
И здесь необходимо понимать, что алчно-тщеславные невежды-властолюбцы давно пытаются добиться абсолютного управления народами, прилагая к этому огромные усилия. Но для того, чтобы этого добиться, необходимо превратить народы в стадо. И вот сейчас, благодаря цифровым технологиям, они получили в свои руки такие непревзойдённые возможности. И, к сожалению, мы сами этому способствуем.
Оценил 1 человек
3 кармы