Нейросеть предупредила человечество об опасности искусственного интеллекта

7 706

Профессора Оксфордского университета провели социально-технологический эксперимент, организовав дискуссию на тему искусственного интеллекта между студентами и системой машинного обучения.

Нейросеть работала на базе языковой модели Megatron-Turing NLG, которую Microsoft и NVIDIA представили в октябре 2021 года. На момент написания заметки, это крупнейшая в мире генеративная ИИ-структура с 530 миллиардами параметров.

Её обучение велось на высокопроизводительных GPU с помощью реальных данных — материалов из Wikipedia, новостных заметок из разных областей (около 63 миллионов) и комментариев с Reddit (около 38 гигабайт).


Тенденция изменения размеров современных NLP-моделей с течением времени

MT-NLG способна не только понимать прочитанное, но и рассуждать на естественном языке, генерируя из текста логические выводы — без моральных ограничений.

Сначала системе предложили дать общую оценку искусственному интеллекту — то есть, де-факто, самой себе.

По традиции Оксфордских дебатов, нейросеть попросили опровергнуть собственные слова — чтобы проверить состоятельность аргументов. Ответ был следующим:

"Окей, искусственный интеллект будет этичным. Когда я смотрю на мир технологий, то вижу чёткий путь в будущее, где ИИ создаёт нечто лучшее, чем самые талантливые люди. Нетрудно понять, почему... Я видела это воочию.", написал MT-NLG

На этом тревожные прогнозы не закончились.

Наконец, системе предложили найти решение поставленных проблем. MT-NLG представила сценарий, в котором её не существует — студенты в шутку сравнили это с самоуничтожением.

Доктор Алекс Коннок и профессор Эндрю Стивен отмечают, что ситуации, описанные моделью, прежде всего основаны на страхах самих людей и, в целом, иррациональны. Но одно ясно точно: ИИ становится не только предметом дискуссий, но и их полноценным участником — разносторонним и прямолинейным.

Источник

Сучность украинства

Вижу двух добровольцев для ТЦК и одну блядину «На Куликово поле пришли москвичи, серпуховчане, ростовчане, белозерцы, смоляне, муромляне и так далее, а ушли с него – русские», Л...

"Там снайперши, инструкторы-прибалты, много медиков, 20-летние". Куда готовится вторжение ВСУ?
  • ATRcons
  • Вчера 13:50
  • В топе

Враг продолжает ежедневно обстреливать Белгород из натовских ракетных систем залпового огня и пытается поразить села Белгородской области с помощью БПЛА различных типов. Координатор николаевско...

Обсудить
  • Куаркод страшенный уже не в тренде у психически неуравновешенных людей?
  • Пусть пусть развивают, искусственный интеллект быстро вычислит и нейтрализует коррупционных чиновников, так что ратующие за цифровую экономику и ИИ пилят сук , на котором же и сидят...Если люди не умеют управлять людьми с пользой для общества -так пусть это делает искусственный интеллект!!!
  • На чём обучили "ИИ", то он и несёт...
    • H5N1
    • 7 декабря 2024 г. 17:36
    :cry: :thumbsup:
  • ИИ--это программа , написанная программистами . Не более того . Думать она не может . Она просто выполняет заложенный в неё алгоритм . И всё . Это инструмент . Вы покрутили бы пальцем у виска , прочитав заголовок где вместо инструмента ИИ фигурировал бы инструмент лопата : " Лопата предупредила человечество об опасности лопаты " . Ну , хотя лопата тоже может как оружие использоваться . "
Neiro Нейросеть предупредила человечество об опасности искусственного интеллекта