Модель как оружие или бич (+RP+)

2 805

Приходится восстанавливать очевидное. Требуется восстановить способность людей понимать элементарные двух-ходовки, чтобы сделать понятными простейшие (для 21 века) вещи. Это сделать волей-неволе — надо, утраченное обывателем на излете 20 века искусство или привычку думать приходится реставрировать.

А мысль, которое помещена далее в репосте, проста. Суть может быть изложена в виде простой двух-ходовки.

1. Любой ИИ является моделью.
2. Модель может быть оружием.

Вывод из этой двух-ходовки — ИИ может быть оружием, поэтому доступ к нему должен быть ограничен.

РЕПОСТ

Не все модели ИИ должны быть в свободном доступе, утверждает ученый-юрист

Чем более они способны, тем выше риск катастрофы, считает Лоуренс Лессиг.

БЕСПЛАТНОЕ программное обеспечение с открытым исходным кодом способствовало технологическим инновациям и распространению технических навыков. Свобода делиться и развивать программное обеспечение, разработанное другими, дала бесчисленному количеству молодых программистов возможность учиться и лежит в основе бизнеса, который питает цифровую экономику.

Поэтому многим кажется очевидным, что принципы бесплатного программного обеспечения с открытым исходным кодом следует распространить на разработку моделей ИИ . В принципе, должны. существуют важные различия Но между обычным программным обеспечением и технологией искусственного интеллекта , которые не позволяют простое распространение простого принципа на весь спектр моделей искусственного интеллекта .

ИИ — это скорее категория, чем технология. Как и категория «оружие», оно варьируется от относительно безобидного до потенциально катастрофического. Никто не поверит, что доступ, который мы разрешаем стрелкам-горошкам, должен быть таким же и для ракет «Стингер». Мы также не должны полагать, что нормы программного обеспечения, разработанные для операционных систем или медиаплееров, должны одинаково применяться и к высокопроизводительным системам искусственного интеллекта , способным нанести огромный вред.

Также не очевидно, как должны применяться нормы бесплатного программного обеспечения с открытым исходным кодом. Программное обеспечение с открытым исходным кодом — это программное обеспечение, исходный код которого выпущен по лицензиям, которые позволяют другим копировать и изменять код. Именно доступ к этому коду распространяет знания. Но модели ИИ состоят как минимум из четырех типов цифровых компонентов, только три из которых на самом деле являются программным обеспечением. Четвертый — вес модели — одновременно самый мощный и самый малоизвестный.

Веса модели — это переменные или числовые значения, используемые для перевода входных данных в выходные. Они инкапсулируют все, чему модель научилась во время обучения. Таким образом, если обучение стоит 1 миллиард долларов, веса модели отражают эту стоимость. Если обучение стоит 1000 долларов, оно, очевидно, менее эффективно и менее ценно.

Итак, какой из этих четырех компонентов должен быть общим, чтобы соответствовать ценностям открытого исходного кода?

Исходный код, конечно, один, поскольку он показывает, как была построена модель. Но "веса" /очевидно, имеются в виду статистические веса тех или иных факторов влияний, заложенных в моделях - Ю.В./ моделей — это всего лишь строки чисел. Сами по себе они ничему не учат. С помощью других компонентов программного обеспечения и данных, используемых для обучения модели, они, безусловно, могли бы научить модель понимать. Но в отличие от того, чему они учат, они просто представляют собой силу модели. По аналогии с оружием, вес модели не является конструкцией или чертежами оружия. Они являются оружием.

На мой взгляд, все четыре компонента должны быть в свободном доступе для моделей с ограниченными возможностями. Hugging Face, платформа сообщества искусственного интеллекта , предлагает более 350 000 моделей искусственного интеллекта и машинного обучения, 75 000 наборов данных и 150 000 демонстрационных приложений, все с открытым исходным кодом и общедоступны. Эти модели, вероятно, недостаточно мощны, чтобы нанести значительный вред. Их доступность поддерживает экологию свободных знаний, которая имеет решающее значение для улучшения понимания ИИ .

Однако та же логика неприменима к высокопроизводительным моделям ИИ , особенно когда дело касается определения веса модели. Чему бы ни научили веса моделей, эту выгоду необходимо сопоставить с огромным риском неправильного использования, который представляют высокопроизводительные модели. В какой-то момент этот риск становится явно слишком велик.

Марк Цукерберг, основатель Meta, создатель Llama, самой мощной версии с открытым кодом на сегодняшний день, уверяет нас, что открытые версии «должны быть значительно безопаснее, поскольку системы более прозрачны и могут быть тщательно изучены». Их можно тщательно изучить, но когда? Если опасность обнаруживается после того, как код уже опубликован, уверенность в том, что все видят проблему одинаково, не является большим утешением.

Г-н Цукерберг обещает, что базовые модели, стоящие за свободно выпускаемыми грузами, имеют ограждения для защиты от вредного или опасного неправильного использования, и что «использование Llama с ее системами безопасности, такими как Llama Guard, вероятно, будет безопаснее и надежнее, чем закрытые модели». Однако теперь исследователи демонстрируют, насколько легко можно убрать эти ограждения. У Llama 2 были ограждения, не позволявшие пользователям использовать ее в ненадлежащих или небезопасных целях. Но в 2023 году менее чем за 200 долларов команда из Palisade Research смогла отключить их и создать неограниченную версию Llama 2. Насколько опасными могут стать эти модели Франкенштейна с открытым весом, поскольку базовые модели, лежащие в их основе, станут более мощными. и методы снятия ограждений станут более изощренными?

Дело не в том, что взломать можно только релизы в открытом доступе. Но они создают уникальный риск, поскольку после выпуска их невозможно отозвать. Напротив, модели, которые предоставляют доступ через веб-порталы или регулируемые API , в принципе могут определить, когда пользователи пытаются взломать систему. В принципе, им было бы легче остановить злонамеренное использование, чем моделям, которые распространялись свободно.

В совокупности эти угрозы предполагают, что нам нужна более сложная структура для понимания того, какие части ИИ должны быть в свободном доступе, а какие нет. Это понимание должно отслеживать возможности модели и, как я объясню, возможности регулирования.

Для моделей с низкими возможностями мы должны поощрять этику «Обнимающего лица». Риски невелики, а вклад в понимание огромен. Для моделей с высокими возможностями нам необходимо регулирование, которое бы гарантировало, что как закрытые, так и открытые модели безопасны до их выпуска, а также чтобы они не выпускались способами, которые могут создать катастрофический риск. Никакая простая линия не разделит низкие возможности от высоких. Но если мы хотим обеспечить потенциал разработки с открытым исходным кодом, мы должны развивать регулирующий потенциал, чтобы провести эту границу и обеспечить ее соблюдение.

Важно отметить, что эти риски зависят от регулирующего потенциала инфраструктуры, в которой работает ИИ . Исследователи ИИ сейчас изучают способы использования чипов, на которых работают модели ИИ , для регулирования самих моделей, создавая, так сказать, управление на чипах. Если бы эта возможность вообще требовалась, она могла бы работать как своего рода автоматический выключатель, отключая неконтролируемые системы. Такие мандаты создают свои собственные риски, но техническая инфраструктура управления позволит нам сосредоточиться на рисках модели, а не на том, открыта модель или нет. И поскольку это может помочь снизить риски разработки ИИ в целом, это может ослабить аргументы против выпуска открытого исходного кода в частности.

Сами по себе частные компании, находящиеся в жесткой конкуренции друг с другом, не имеют достаточных стимулов, чтобы избежать катастрофического риска. с открытым исходным кодом также не позволит Простой запрет ИИ избежать риска причинения большого вреда. Вместо этого нам необходимо развивать нормативный потенциал, чтобы обеспечить среду, в которой можно разрабатывать безопасный ИИ , а также нормативное суждение, чтобы определять, когда общественный риск от любого ИИ становится слишком большим. развертывания

Сегодня эти риски навязываются всем нам частными лицами при незначительном государственном надзоре. В прошлом эта формула не работала с опасными технологиями. Он не будет работать с системами искусственного интеллекта будущего.

Лоуренс Лессиг — профессор права и лидерства Роя Л. Фурмана Гарвардской школы права и соучредитель Creative Commons.

Источник - https://www.economist.com/by-i...

Автоперевод Гугл-а

* * *

На правах комментария. С ожидание откликов камрад(ов)

Простейший посыл — ИИ есть простое орудие, инструмент. Назначение и использование этого орудия-инструмента определяется его обладателем. Тот, кто владеет им — тот им и управляет. Поэтому всю полноту ответственности и долженствования — как юридического, так и морального — должен нести владелец ИИ оружия.

Права на обладание и использование ИИ должны быть определенны не просто юридически, на уровне законов, а конституционно (на уровне Конституции). ИИ становится мощнейшим оружием по порабощению, по манипуляции общественным сознание и по политической слежке. Эти средства институционально нуждаются в конституционном регулировании.

Надо так же помнить, что бтчь - это орудие против раба. И необходимое средство существования рабовладельца. Если принять ИИ как современную разновидность бича, то вполне ясны мотивы рабовладельцев по пропагаде, взращиванию, распространению и защите ИИ.

Сперва под рабовладельцами находились надсмотрщики с бичами. Теперь и надсмотрщиков, и бичи заменит ИИ. Это вполне вероятно. А рабовладельцы - останутся. Но станут более отчужденными, равнодущными и неумолимыми.

Но есть и другая опасность. Она вытекает из того же посыла - ИИ как оружие. Это может побудить власть предержащих всячески ограничивать «ширнармассам» доступ к настоящим моделям ИИ, подменяя этот доступ мусором бесполезных, а то и оболванивающих игрушек и суррогатов ИИ.

Ставка ЦБ и "мы все умрём"

Ладно, раз бегали тут тупые боты с методичками «В России ставка ЦБ высокая, значит России конец», то надо об этом написать. Почему у украинских свидомитов, белорусских змагаров и росс...

Куда исчез Борман?
  • Zimin
  • Вчера 11:03
  • В топе

Его искали больше полувека. Мартин Борман бесследно исчез из Берлина в последние дни войны. Список преступлений этого человека огромен, однако приговор на Нюрнбергском процессе ему вынесли заочно....

Обсудить
  • .. тема нужная .. .. но не в таком виде .. - "Никто не поверит, что доступ, который мы разрешаем стрелкам-горошкам, должен быть таким же и для ракет «Стингер»." .. .. такие опусы ТОЛЬКО ДИСКРЕДИТИРУЮТ обсуждение ИИ как очередного оружия иудоглобалистского кагала против гоев .