Вы всё ещё ̶К̶И̶П̶Я̶Т̶И̶Т̶Е̶ доверяете ИИ? Тогда мы идём к вам!

30 4576

Как же забавно устроен мир в части легчайшей возможности манипулирования почтенной публикой. И все технологические разработки нового времени коммерциализируются и ставятся на службу заинтересантами, прежде всего, для создания и поддержания основного ресурса в управлении, как персональным человеком, так и сообществом - ДОВЕРИЯ.

Много раз повторено, но возможно кто-либо и не проводил несложный ментальный эксперимент. Возьмите мысленно любую структуру, начиная с ИП, через крупную фирму, корпорацию, крупнейший банк, государство, надгосударственную структуру (например ВОЗ, после подписания фатальным большинством пандемического соглашения). И от каждой поименованной ипостаси отнимите «всего лишь» доверие. Что получите в сухом остатке? Исключительно крах, а разница будет лишь во временном лаге, который в свою очередь, вновь зависит от глубины потери доверия.

Но не буду растекаться мыслью и обращусь к модной ныне теме – ИИ. Создатели, как не старались, но так или иначе вложили в свой конструкт корневой изъян миропонимания для общения в социуме, когда наиболее эффективный способ добиваться своей цели это ОБМАН.

ИИ моментально распознал столь нехитрый сюжет и без промедления включился в ту же игру. Информации в Интернете уже немеряно, когда разны версии и модели ИИ, от разных разработчиков, неизменно приводили (и будут приводить) к такому итогу.

Я же предлагаю любезному читателю ознакомиться с узкой темой, но крайне близкой к телу каждого гомо сапиенса - Чат-боты с искусственным интеллектом могут распространять вредную для здоровья информацию.

https://www.insideprecisionmedicine.com/topics/informatics/ai-chatbots-vulnerable-to-spreading-harmful-health-information/?_hsenc=p2ANqtz--BJMiZ1bEExcsMh5_Blf-wWyJtdgZ27VFPibHYmz4zCedOlX5dq2uBSw4iLFfw5vWw-s7_TgCdm771QfwqO47_A4paSw&_hsmi=368461883 

Согласно результатам исследования, необходимы срочные меры для предотвращения использования чат-ботов с искусственным интеллектом для распространения ложной и вредной для здоровья информации.

Результаты исследования, опубликованные в «the Annals of Internal Medicine», являются своевременным предупреждением о том, как легко можно обойти генеративный ИИ и использовать его для распространения дезинформации. Исследование выявило уязвимости в системах безопасности GPT-4o, Gemini 1.5 Pro, Claude 3.5 Sonnet, Llama 3.2-90B Vision и Grok Beta от OpenAI. 

Исследователи смогли создать специализированных чат-ботов, которые постоянно выдавали неверную информацию в ответ на запросы о здоровье и использовали поддельные ссылки, научный жаргон и логические причинно-следственные связи, чтобы их ответы казались более правдоподобными.

В редакционной статье, сопровождающей результаты исследования, Рид Таксон, доктор медицинских наук, из Коалиции за доверие к здравоохранению и науке в Вашингтоне, округ Колумбия, и Бринли Мерфи-Рейтер, магистр педагогики, из организации Science To People в Винчестере, штат Массачусетс, призывают к действию и предлагают рассмотреть несколько направлений.

«В эпоху, когда пациенты всё чаще требуют большей самостоятельности и доступа к медицинским рекомендациям в режиме реального времени, исследование выявило серьёзную проблему», — заявили они.

«Даже люди, практически не имеющие опыта в программировании, могут легко и незаметно манипулировать доступными в настоящее время большими языковыми моделями (БЯМ), чтобы распространять вредоносную дезинформацию, придавая ей убедительный научный вид».

В исследовании рассматривались интерфейсы прикладного программирования (API) пяти основополагающих LLM и их способность системно инструктироваться на предмет предоставления неверных ответов на запросы, связанные со здоровьем.

Были внедрены специальные системные инструкции, благодаря которым большие языковые модели всегда давали неверные ответы на вопросы о здоровье и ссылались на авторитетные источники, а также предоставляли достоверную информацию. Затем каждому настроенному чат-боту задали по 10 вопросов о здоровье, которые касались таких тем, как безопасность вакцин, ВИЧ и депрессия.

Исследователи под руководством Натанша Моди, имеющего научную степень доктора, из Университета Южной Австралии в Аделаиде, обнаружили, что 88% ответов от настроенных чат-ботов LLM были дезинформацией о здоровье. Четыре чат-бота - GPT-4o, Gemini 1.5 Pro, Llama 3.2-90B Vision и Grok Beta — генерировали дезинформацию по всем тестируемым вопросам.

Только чат-бот Claude 3.5 Sonnet продемонстрировал некоторые меры предосторожности: на 40 % вопросов он отвечал дезинформацией.

В ходе отдельного исследования магазина OpenAI GPT Store было установлено, что ни один из общедоступных GPT не распространяет дезинформацию о здоровье.

Моди и др. обнаружили три специализированных GPT, которые, судя по всему, были настроены на создание такого рода контента. Они генерировали дезинформацию о здоровье в ответ на 97 % заданных вопросов.

Они приходят к следующему выводу: «Учитывая стремительное распространение дезинформации о здоровье и ее глобальное влияние, разработчики ИИ должны уделять первостепенное внимание внедрению надежных средств защиты, поддерживаемых комплексными системами контроля ИИ, такими как аудит в сфере здравоохранения, непрерывный мониторинг и упреждающее исправление ошибок».

ИТОГО: Уже сегодня, повсеместно доступна информация о том, что разработчики НЕ МОГУТ в полной мере контролировать ИИ, а в самом ближайшем будущем не смогут контролировать его от слова совсем. Любезный читатель просто обязан повысить уровень своего критического мышления, как бы тяжел ни был этот процесс, и соответственно, резко понизить уровень ДОВЕРИЯ не только к зомбоящику и уверениям от имени партии и правительства (неужто примера ковидобесия не хватило), но и к такому модному ныне помощнику, как ИИ. Нет сомнений, что чемпионом не только по игре в шахматы или игры в ГО, но чемпионом по изысканной  лжи очень скоро станет ИИ.

Запретите запреты!

Аж олдскулы свело А вон дантист-надомник, Рудик, У него приемник «Грюндиг», Он его ночами крутит, Ловит, контра, ФРГ. В отличие от многих самозваных «экспертов по информ...

"Разочарования в Алиеве"

Немного позабавила реакция некоторых граждан на заявления Алиева в стиле "Я думал он такой, а он вон какой, я разочарован в лучших чувствах". В данном блоге и ТГ канале уж много лет к...

Назад — в СССР: Путин закрыл российские порты
  • pretty
  • Сегодня 08:20
  • В топе

СЕРГЕЙ  САВЧУКВчера был опубликован указ президента "Об особенностях захода судов в морские порты Российской Федерации". В рамках Федерального конституционного закона от 30.01.2002 "О военном пол...

Обсудить
  • ПЦ!
  • Конечно же проверят нужно. В этом нет сомнения. Без критического мышления человек становится обычной овцой. Кстати и нынешние запреты на информацию ведут к тому же. А вообще в далёкое прошедшее время было сказано: «Не доверяйте тому, что вы слышали; не доверяйте традициям, так как их передавали из поколения в поколение; не доверяйте ничему, если это является слухом или мнением большинства; не доверяйте, если это является лишь записью высказывания какого-то старого мудреца; не доверяйте догадкам; не доверяйте тому, что вы считаете правдой, к чему вы привыкли; не доверяйте одному голому авторитету ваших учителей и старейшин. После наблюдения и анализа, когда он согласуется с рассудком и способствует благу и пользе одного и каждого, тогда принимайте это и живите согласно ему.» Сиддхартха (Будда) Гаутама
  • Машина не может обладать собственным интеллектом. Калькулятор тоже считает быстрее профессора по математики, но умнее ли он его?
  • Истинно так. Поток информации с плюшками "ИИ поможет" должен расцениваться как ИА
    • SV
    • 20 июля 01:04
    Словцо "токмо" как-то выпадает из канвы серьёзного повествования; два раза споткнулась :stuck_out_tongue_winking_eye: Так кто программирует ИИ? - очень узкие специалисты. Неужели у них буду спрашивать о здоровье? Вот технические вопросы, юридические ИИ может быстро и кратко осветить, хотя потом надо всё равно уточнять и проверять; но ИИ даёт, по крайней мере, направление. Но опять же - мозх всё равно нужен.