Мнение: законопроект о безопасности ИИ в Калифорнии подвергается критике. Принятие закона — лучший способ его улучшить

Мнение: законопроект о безопасности ИИ в Калифорнии подвергается критике. Принятие закона — лучший способ его улучшить


29 августа Законодательное собрание Калифорнии приняло Законопроект Сената 1047 — Закон о безопасных и надежных инновациях для передовых моделей искусственного интеллекта — и отправил его губернатору Гэвину Ньюсому на подпись. Выбор Ньюсома, который должен быть сделан до 30 сентября, является бинарным: убить его или сделать законом.

Признавая возможный вред, который может быть нанесен передовым ИИ, законопроект SB 1047 требует от разработчиков технологий интегрировать меры безопасности при разработке и развертывании того, что законопроект называет «охваченными моделями». Генеральный прокурор Калифорнии может обеспечить соблюдение этих требований, возбуждая гражданские иски против сторон, которые не принимают «разумных мер предосторожности» в отношении того, что 1) их модели не нанесут катастрофического вреда или 2) их модели могут быть отключены в случае чрезвычайной ситуации.

Многие известные компании ИИ выступают против законопроекта либо индивидуально, либо через торговые ассоциации. Их возражения включают опасения, что определение охватываемых моделей слишком негибкое для учета технологического прогресса, что неразумно возлагать на них ответственность за вредоносные приложения, которые разрабатывают другие, и что законопроект в целом будет душить инновации и подрезать небольшие стартапы без ресурсов, выделяемых на соблюдение требований.

Эти возражения не являются легкомысленными; они заслуживают рассмотрения и, весьма вероятно, внесения дополнительных поправок в законопроект. Но губернатор должен подписать или одобрить его в любом случае, поскольку вето будет означать, что никакое регулирование ИИ не приемлемо сейчас и, вероятно, до тех пор, пока не произойдет катастрофический ущерб. Такая позиция не является правильной для правительств, чтобы брать на себя такую ​​технологию.

Автор законопроекта, сенатор Скотт Винер (демократ от Сан-Франциско), сотрудничал с отраслью ИИ по ряду итераций законопроекта до его окончательного принятия в законодательном порядке. По крайней мере, одна крупная фирма ИИ — Anthropic — запросила конкретные и существенные изменения в тексте, многие из которых были включены в окончательный законопроект. После того, как законодательный орган принял его, генеральный директор Anthropic сказал что его «выгоды, вероятно, перевешивают его издержки… [although] некоторые аспекты законопроекта [still] кажутся тревожными или двусмысленными». Имеющиеся на сегодняшний день публичные данные свидетельствуют о том, что большинство других компаний, занимающихся ИИ, просто решили выступить против законопроекта из принципа, а не предпринимать конкретные усилия по его изменению.

Что нам следует делать с таким противодействием, особенно с учетом того, что руководители некоторых из этих компаний публично выразили обеспокоенность по поводу потенциальных опасностей передового ИИ? Например, в 2023 году генеральные директора OpenAI и DeepMind от Google подписали открытое письмо, в котором сравнили риски ИИ с пандемией и ядерной войной.

Разумный вывод заключается в том, что они, в отличие от Anthropic, выступают против любого вида обязательного регулирования вообще. Они хотят оставить за собой право решать, когда риски деятельности или исследовательского усилия или любой другой развернутой модели перевешивают ее преимущества. Что еще важнее, они хотят, чтобы те, кто разрабатывает приложения на основе их охваченных моделей, несли полную ответственность за снижение рисков. Недавние судебные разбирательства предложенный что родители, которые дают оружие в руки своим детям, несут определенную юридическую ответственность за результат. Почему к компаниям ИИ должно быть какое-то иное отношение?

Компании, занимающиеся разработкой искусственного интеллекта, хотят, чтобы общественность предоставила им полную свободу действий, несмотря на очевидный конфликт интересов: коммерческим компаниям нельзя доверять принятие решений, которые могут помешать их перспективам получения прибыли.

Мы уже были в этом. В ноябре 2023 года совет директоров OpenAI уволил своего генерального директора, поскольку определил, что под его руководством компания движется по опасному технологическому пути. В течение нескольких дней различные заинтересованные стороны в OpenAI смогли отменить это решение, восстановив его в должности и вытеснив членов совета директоров, которые выступали за его увольнение. По иронии судьбы, OpenAI была специально структурирована, чтобы позволить совету директоров действовать так, как он действовал — несмотря на потенциал компании по получению прибыли, совет директоров должен был гарантировать, что общественные интересы на первом месте.

Если законопроект SB 1047 будет отклонен, антирегулирующие силы провозгласят победу, которая продемонстрирует мудрость их позиции, и у них будет мало стимулов работать над альтернативным законодательством. Отсутствие существенного регулирования работает им на пользу, и они будут опираться на вето, чтобы сохранить этот статус-кво.

В качестве альтернативы губернатор мог бы принять закон SB 1047, добавив открытое приглашение его оппонентам помочь исправить его конкретные дефекты. При наличии того, что они считают несовершенным законом, у противников законопроекта будет значительный стимул работать — и работать добросовестно — над его исправлением. Но основной подход будет заключаться в том, что промышленность, а не правительство, выдвинет свою точку зрения на то, что составляет надлежащую разумную заботу о свойствах безопасности его передовых моделей. Роль правительства будет заключаться в том, чтобы убедиться, что промышленность делает то, что сама промышленность говорит, что она должна делать.

Последствия отмены законопроекта SB 1047 и сохранения статус-кво существенны: компании могли бы развивать свои технологии без ограничений. Последствия принятия несовершенного законопроекта стали бы значимым шагом к лучшей нормативной среде для всех заинтересованных сторон. Это было бы скорее началом, чем концом игры в регулирование ИИ. Этот первый шаг задает тон тому, что должно произойти, и устанавливает легитимность регулирования ИИ. Губернатор должен подписать законопроект SB 1047.

Герберт Лин — старший научный сотрудник Центра международной безопасности и сотрудничества Стэнфордского университета и научный сотрудник Института Гувера. Он является автором книги «Киберугрозы и ядерное оружие».



Новости Blue 789

Leave a Reply

Your email address will not be published. Required fields are marked *