Генератор текста OpenAI выпустят в ограниченный доступ. Раньше его считали слишком опасным

5 1289

Генератор текста OpenAI выпустят в ограниченный доступ. Раньше его считали слишком опасным, а эксперты предупреждали, что злоумышленники могут воспользоваться им для своих целей.

 

Лаборатория искусственного интеллекта OpenAI объявила о том, что их нейронная сеть для обработки естественного языка станет доступна для ограниченного распространения. Компания, основанная Илоном Маском и получившая грант от Microsoft в размере 1 млрд долларов, разработала генератор текста, который создает отрывки, практически неотличимые от тех, что написаны человеком.

Сначала OpenAI собирает огромные объемы данных из интернета и анализирует их на предмет стилистических закономерностей, которые позволяют реалистично предсказать, какие буквы или слова будут написаны следующими.

Когда пользователь подает в генератор слово, фразу или более длинный фрагмент текста, он улучшает этот инструмент. Полученные результаты можно использовать для создания рассказов, диссертаций, игры в шахматы, решения математических задач или создания текстовых сценариев.

Эксперты предупреждали, что система генерирует тексты очень реалистично, а мошенники могут использовать ее для публикации фейк-новостей. Первоначально исследователи анонсировали систему в феврале 2019 года, но отказались публиковать полную версию программы. Они опасались, что ее будут использовать для распространения фальшивых новостей, спама и дезинформации.

Реклама

Модель является частью нового поколения систем генерации текста, которые произвели впечатление на экспертов своей способностью генерировать текст из минимальных подсказок. Эту систему подготовили на основе 8 млн текстовых документов. К примеру, используя несколько заголовков СМИ, она может написать целую новость или, используя строчку из стихотворения, создать целый стих.

Однако эксперты, с которыми поговорило издание The Verge, отмечают, что легкий доступ к новейшим исследованиям в области генерации текста может позволить злоумышленникам пользоваться ими. Они отмечают, что OpenAI должна была ограничить публикацию своей модели по этим причинам.

https://hightech.fm/2020/06/20...

Российско-китайские отношения и "иксперды"

Ща по рюмочке и пойдём, ты мне будешь ножи в спину вставлять Ремарка для затравки. Я очень уважаю Анну Шафран, особенно после её выступления на прошлогодней конференции по информационной безопаснос...

«Это будут решать уцелевшие»: о мобилизации в России

Политолог, историк и публицист Ростислав Ищенко прокомментировал читателям «Военного дела» слухи о новой волне мобилизации:сейчас сил хватает, а при ядерной войне мобилизация не нужна.—...

Они ТАМ есть! Русский из Львова

Я несколько раз упоминал о том, что во Львове у нас ТОЖЕ ЕСТЬ товарищи, обычные, русские, адекватные люди. Один из них - очень понимающий ситуацию Человек. Часто с ним беседует. Говорим...

Обсудить
    • Doc
    • 21 июня 2020 г. 14:53
    "Сначала OpenAI собирает огромные объемы данных из интернета и анализирует их на предмет стилистических закономерностей, которые позволяют реалистично предсказать, какие буквы или слова будут написаны следующими". Традиционный современный подход к ИИ на основании частотного анализа. "Миллионы мух не могут ошибаться, это действительно гавно". Соответственно, продукт на выходе ИИ будет то же самое гавно. Шедевры-то из частотного анализа выпадают, они ж штучные и статистически не значимые.
  • всё это говнецо на гитхабе уже больше года лежит. где же опасность?
  • Мне текст этой статьи прочла Алиса, гомункул сидящий в Яндексе. Не вижу криминала, если эту статью писал другой гомункул. Есть только пожелание, нельзя слепить ещё одного гомункула, что бы вместо меня коменты тут ваял?.
  • Явно этот говновброс сгенерирован этой тупой программой. Елон Муск хворает от недостатка внимания, вот и ещё одно дерево хочет пометить, трепло маркетинговое :-1:
  • Очень полезная технология. Чем больше народу перестанет верить тому, что написано, тем больше начнут обращать внимание на то, кто это написал и от кого получена информация.