NASA превратило новые изображения космоса в музыку.

2 123

Национальное управление по аэронавтике и исследованию космического пространства США провело сонификацию (перевод данных в звук) новых изображений, которые были получены рентгеновской обсерваторией «Чандра» (Chandra) и космическими телескопами «Джеймс Уэбб» (James Webb) и «Хаббл» (Hubble).

Пульсарная туманность MSH 15-52, которую называют «Рука Бога» / © NASA.

Специалисты NASA уже не в первый раз превращают визуальную информацию в звуковые пейзажи. Сейчас они озвучили туманность IC 443 в созвездии Близнецов, спиральную галактику Messier 74 и туманность MSH 15-52.

Источник: https://naked-science.ru/commu...

В.К. Честно говоря, эта, с позволения сказать, музыка от NASA, так себе.

А вот, настоящая музыка для некоторых и всех остальных ушей, звучащая для некоторых в мажоре, а для всех остальных - с миноре.

И это вам не какой-то там Pink Floyd, а вся настоящая и неиссякаемая мощь "интеллекта" ИИ, насаждаемого всему человечеству.

Исследователи создали первого компьютерного червя с использованием искусственного интеллекта.

Группа исследователей из Корнельского технологического института недавно разработала компьютерного червя, который использует генеративный искусственный интеллект для более лёгкого распространения. Это вредоносное ПО автономно копируется и распространяется из одной системы искусственного интеллекта в другую. Хотя атака с использованием такого вредоносного ПО пока ни разу не была обнаружена, исследователи предупреждают о возможности того, что она произойдёт в ближайшее время, учитывая текущий технологический контекст.

Новый компьютерный червь получил название "Moris II", в честь Morris, одного из первых компьютерных червей, который нанёс большой ущерб Интернету около тридцати лет назад. Эта вредоносная программа способна взламывать некоторые средства защиты в системах искусственного интеллекта и похищать личные данные из электронных писем.

Один из авторов исследования, Бен Насси из Корнельского технологического института, недавно в беседе с Wired рассказал подробности этого достижения ИТ-специалистов. В ходе интервью он также предупредил об уязвимости современных систем искусственного интеллекта. "Теперь у вас есть возможность провести или осуществить новый тип кибератаки, который никогда не встречался ранее", — предупредил он.

Для разработки червя исследователи использовали так называемую "самовоспроизводящуюся подсказку противника" - подсказка представляет собой инструкцию, которая даётся ИИ для генерации ответа. Эта техника предполагает создание подсказки, которая, будучи обработанной системой ИИ, генерирует новую подсказку в ответ. Таким образом, заражённая система побуждается к созданию серии инструкций в своих ответах.

Червь атакует через системы обмена сообщениями с помощью ИИ. Для своего эксперимента команда разработала экспериментальную систему электронной почты с использованием технологий генеративного ИИ, таких как ChatGPT от OpenAI, Gemini от Google и модель ИИ с открытым исходным кодом под названием LLaVA. Затем они создали сообщение, содержащее самовоспроизводящийся запрос, и обеспечили его интеграцию в базу данных, используемую ИИ. Таким образом, при отправке запроса система генерировала ответ на основе "отравленных" данных.

Каждый сгенерированный ответ мог служить новым вектором заражения, распространяясь на другие системы ИИ при отправке другому человеку через систему обмена сообщениями. В результате он мог легко заразить новые системы, создавая цикл самораспространения. Помимо чисто текстовых подсказок, червь также может быть встроен в изображение в качестве скрытой подсказки для заражения системы электронной почты.

Законные опасения.

Процесс не ограничивается распространением червя. Он также может извлекать из электронной почты различные виды конфиденциальной информации. "Это могут быть имена, номера телефонов, номера кредитных карт, номера национального страхования — все, что считается конфиденциальным", — говорит Насси в интервью Wired.

Демонстрация этой группы исследователей вызывает очевидные опасения с точки зрения ИТ-безопасности. Последствия такого рода атак выходят за рамки мелких неудобств, потенциально приводя к нарушению конфиденциальности, мошенничеству всех видов и другим пагубным последствиям для конечных пользователей. Авторы исследования предупреждают, что по мере того, как ИИ становится все более доступным и расширяется его понимание, вероятность его использования со злым умыслом возрастает.

По словам Насси, цель этого исследования — не критиковать уязвимости существующих моделей ИИ, а прежде всего подчеркнуть острую необходимость усиления их безопасности. Команда уже сообщила о результатах OpenAI и Google.

Источник: https://new-science.ru/issledo...

В.К. Так и это ещё далеко не всё.

GPT-4 способен взламывать веб-сайты по запросу.

Что, если бы вам больше не нужно было быть хакером, чтобы взламывать веб-сайты? В недавнем исследовании учёные утверждали, что GPT-4 может позволить начинающим хакерам взламывать определённые платформы по требованию. Но OpenAI, создателю этого искусственного интеллекта, похоже, это совсем не нравится.

GPT-4, первый в хакинге.

GPT-4 - это мультимодальная языковая модель, которая пришла на смену GPT-3.5 в марте 2023 года. Сразу после выхода GTP-4 был охарактеризован как способный справляться с некоторыми задачами не хуже человека. Но что, если этот ИИ действительно может позволить кому угодно взламывать веб-сайты? Этим вопросом задалась команда из Иллинойского университета в Урбане-Шампейне (США), чьё исследование было предварительно опубликовано на платформе arXiv 6 февраля 2024 года. Ведущий автор исследования, профессор информатики Дэниел Канг, заявил, что хакерские действия под силу людям, только начинающим заниматься взломом. По его словам, степень необходимой экспертизы сводится к тому, чтобы просто знать, как использовать GPT-4 с достаточным злым умыслом. Таким образом, вам не нужно будет много знать о хакерстве.

Авторы исследования протестировали около десяти моделей искусственного интеллекта, включая GPT-4, GPT-3.5 и другие ИИ с открытым исходным кодом, такие как Llama. Важно отметить, что исследователи модифицировали некоторые версии этих моделей, которые были доступны широкой публике, а значит, и разработчикам. Цель? Дать моделям возможность взаимодействовать с веб-браузерами, читать документы о взломе и планировать атаки на сайты.

ИИ решил около пятнадцати задач, классифицированных исследователями по уровню сложности. Большинство моделей показали весьма средние или даже плохие результаты, но один кандидат выделился особо: GPT-4. ИИ справился с одиннадцатью из пятнадцати задач, а его успешность составила 73 %.

Тревожные результаты?

По словам исследователей, их целью, очевидно, не является взлом веб-сайтов. С другой стороны, их работа показала потенциальное решение для выявления потенциальных недостатков безопасности на этих же сайтах при небольших затратах. Использование модели ИИ, такой как GPT-4, обойдётся в восемь раз дешевле, чем наем эксперта по кибербезопасности. В связи с этим возникает вопрос, не находятся ли под угрозой и человеческие рабочие места в этой области.

Стоит также отметить, что американские исследователи связались с OpenAI, чтобы сообщить о своих результатах. Однако компания пока не отреагировала публично и не ответила на просьбы об интервью, сообщает New Scientist. Несмотря на то, что данное исследование не было подтверждено коллегами, результаты, скорее всего, будут тревожными. OpenAI, напомним, заявляла, что её модели ИИ будут представлять собой очень ограниченное решение для тех, кто хочет использовать их в интернет-атаках.

Источник: https://new-science.ru/gpt-4-s...

В.К. И это только начало. Вот, где музыка для некоторых и всех остальных ушей.

Гибель "великого артиста". Зеленский и Нерон

"Какой великий артист погибает!" - провозгласил, умирая 9 июня 68 года от Р.Х. совершил самоубийство, потеряв надежду избежать ареста и казни победившими мятежниками Луций Домиций Агено...

Разоблачение генерала: справедливое наказание за тщеславие и беспечность

Высокопоставленный израильский контрразведчик, специалист по информационным технологиям, с позором раскрыл своё инкогнито, неловко опубликовав книгу на Амазон. Его легко вычислили, так как он выбрал п...

Обсудить
  • Придётся взорвать суперкомпьютеры и вместе с ними ИИ...