Кремниевая долина серьезно относится к искусственному интеллекту, Вашингтону следует тоже

Кремниевая долина серьезно относится к искусственному интеллекту, Вашингтону следует тоже


Общий искусственный интеллект — машины, которые могут обучаться и выполнять любые когнитивные задачи, доступные человеку, — уже давно отошел к сфере научной фантастики. Но недавние события показывают, что AGI больше не является отдаленной спекуляцией; это надвигающаяся реальность, которая требует нашего немедленного внимания.

17 сентября во время слушаний Юридического подкомитета Сената на тему «Надзор за искусственным интеллектом: взгляд инсайдеров» информаторы из ведущих компаний, занимающихся искусственным интеллектом, забили тревогу по поводу быстрого продвижения к искусственному интеллекту и вопиющего отсутствия надзора. Хелен Тонер, бывший член правления OpenAI и директор по стратегии Центра безопасности и новых технологий Джорджтаунского университета, заявила: «Самый большой разрыв, который я вижу между взглядами инсайдеров на ИИ и общественным восприятием компаний, занимающихся ИИ, — это когда дело доходит до идеи общего искусственного интеллекта». Она продолжила, что ведущие компании в области искусственного интеллекта, такие как OpenAI, Google и Anthropic, «рассматривают создание AGI как совершенно серьезную цель».

Сосвидетель Тонер Уильям Сондерс — бывший исследователь OpenAI, который недавно ушел в отставку, потеряв веру в ответственную деятельность OpenAI, — повторил Тонеру схожие чувства, заявив, что «такие компании, как OpenAI, работают над созданием общего искусственного интеллекта» и что «они повышают миллиарды долларов на достижение этой цели».

Читать далее: Когда ИИ может перехитрить нас? Это зависит от того, кого вы спросите

Все три ведущие лаборатории искусственного интеллекта — OpenAI, Anthropic и Google DeepMind — более или менее четко заявляют о своих целях AGI. Миссия OpenAI гласит: «Гарантировать, чтобы общий искусственный интеллект — под которым мы подразумеваем высокоавтономные системы, превосходящие людей в большинстве экономически ценных работ — приносил пользу всему человечеству». Anthropic фокусируется на «создании надежных, интерпретируемых и управляемых систем искусственного интеллекта», стремясь к «безопасному искусственному интеллекту». Google DeepMind стремится «решить проблемы интеллекта», а затем использовать полученные системы искусственного интеллекта «для решения всего остального», при этом соучредитель Шейн Легг недвусмысленно заявляет, что он ожидает, что «ИИ человеческого уровня будет принят в середине 2020-х годов». Новые участники гонки ИИ, такие как xAI Илона Маска и Safe Superintelligence Inc. Ильи Суцкевера, также сосредоточены на AGI.

Политики в Вашингтоне по большей части отвергли AGI, назвав его либо маркетинговой шумихой, либо расплывчатым метафорическим устройством, которое не следует понимать буквально. Но слушания в прошлом месяце, возможно, добились такого успеха, чего не удалось сделать предыдущим обсуждениям AGI. Сенатор Джош Хоули (республиканец от штата Миссури), высокопоставленный член подкомитета, отметил, что свидетелями являются «люди, побывавшие внутри [AI] компании, которые работали над этими технологиями, которые видели их воочию, и я мог бы просто заметить, что они не совсем заинтересованы в рисовании этой радужной картины и поддержке таким же образом, как это [AI company] у руководителей есть».

Сенатор Ричард Блюменталь (демократ от штата Коннектикут), председатель подкомитета, был еще более прямолинеен. «Идея о том, что через 10 или 20 лет AGI может стать умнее или, по крайней мере, таким же умным, как люди, уже не так уж далека в будущем. Это очень далеко от научной фантастики. Это здесь и сейчас — по последним прогнозам, от года до трёх лет», — сказал он. Он не стеснялся говорить о том, на ком лежит ответственность: «Что мы должны извлечь из социальных сетей, так это опыт: не доверяйте крупным технологиям».

Очевидный сдвиг в Вашингтоне отражает общественное мнение, которое более охотно принимает возможность неизбежного появления AGI. В опросе, проведенном Институтом политики искусственного интеллекта в июле 2023 года, большинство американцев заявили, что, по их мнению, искусственный интеллект будет разработан «в течение следующих 5 лет». Около 82% респондентов также заявили, что мы должны «идти медленно и осознанно» в разработке ИИ.

Это потому, что ставки астрономические. Сондерс подробно рассказал, что искусственный интеллект может привести к кибератакам или созданию «нового биологического оружия», а Тонер предупредил, что многие ведущие деятели искусственного интеллекта считают, что в худшем случае искусственный интеллект «может привести к буквальному исчезновению человечества».

Несмотря на эти ставки, США почти не установили нормативного надзора за компаниями, стремящимися к использованию AGI. Так что же это нам дает?

Во-первых, Вашингтону необходимо начать серьезно относиться к ОИИ. Потенциальные риски слишком велики, чтобы их игнорировать. Даже при хорошем сценарии ОИИ может разрушить экономику и вытеснить миллионы рабочих мест, что потребует от общества адаптации. В худшем случае AGI может стать неуправляемым.

Во-вторых, мы должны установить нормативные ограничения для мощных систем искусственного интеллекта. Регулирование должно предусматривать прозрачность со стороны правительства того, что происходит с самыми мощными системами искусственного интеллекта, создаваемыми технологическими компаниями. Прозрачность правительства уменьшит вероятность того, что общество будет застигнуто врасплох технологической компанией, разрабатывающей AGI, прежде чем кто-либо еще этого ожидает. И обязательные меры безопасности необходимы, чтобы не дать противникам США и другим злоумышленникам украсть системы AGI у американских компаний. Эти легкие меры были бы разумными, даже если бы ОИИ не был возможен, но перспектива ОИИ повышает их важность.

Читать далее: Как должен выглядеть американский подход к регулированию ИИ

В особенно тревожной части показаний Сондерса он сказал, что во время его работы в OpenAI были длительные периоды, когда он или сотни других сотрудников могли «обойти контроль доступа и украсть самые передовые системы искусственного интеллекта компании, включая GPT-4». ». Такое слабое отношение к безопасности сегодня достаточно плохо для конкурентоспособности США, но это абсолютно неприемлемый способ обращения с системами, стоящими на пути к ОИИ. Эти комментарии стали еще одним мощным напоминанием о том, что технологическим компаниям нельзя доверять саморегулирование.

Наконец, крайне важно участие общественности. AGI — это не просто техническая проблема; это социальный вопрос. Общественность необходимо информировать и вовлекать в дискуссии о том, как ОИИ может повлиять на нашу жизнь.

Никто не знает, сколько времени осталось до AGI – того, что сенатор Блюменталь назвал «вопросом на 64 миллиарда долларов», – но окно для действий, возможно, быстро закрывается. Некоторые деятели искусственного интеллекта, включая Сондерса, полагают, что это может произойти всего через три года.

Игнорирование потенциально неизбежных проблем, связанных с ОИИ, не заставит их исчезнуть. Пришло время политикам вылезти из облаков.



Новости Blue 789

Leave a Reply

Your email address will not be published. Required fields are marked *