Лидеры ИИ обсуждают ответственность и регулирование

Лидеры ИИ обсуждают ответственность и регулирование


ОВ среду светила в области искусственного интеллекта собрались в Serpentine North, бывшем пороховом магазине, превращенном в выставочное пространство, на первый TIME100 Impact Dinner London. После аналогичного мероприятия, проведенного в Сан-Франциско в прошлом месяце, на ужин собрались влиятельные лидеры, эксперты и лауреаты списков TIME 100 влиятельных людей в области искусственного интеллекта за 2023 и 2024 годы — все они играют роль в формировании будущего технологий.

После обсуждения между генеральным директором TIME Джессикой Сибли и руководителями спонсоров мероприятия — Розанной Кинкейд-Смит, главным операционным директором группы Northern Data Group, и Яапом Зейдервельдом, вице-президентом Nvidia по Европе, Ближнему Востоку и Африке — и после основного курса были вручены, внимание переключилось на панельную дискуссию.

В дискуссии приняли участие лауреаты премии TIME 100 AI Джейд Люнг, технический директор Британского института безопасности искусственного интеллекта, учреждения, созданного в прошлом году для оценки возможностей передовых моделей искусственного интеллекта; Виктор Рипарбелли, генеральный директор и соучредитель британской компании видеокоммуникаций с искусственным интеллектом Synthesia; и Абеба Бирхане, ученый-когнитивист и адъюнкт-профессор Школы компьютерных наук и статистики Тринити-колледжа Дублина, чьи исследования сосредоточены на аудите моделей ИИ для выявления эмпирического вреда. Дискуссия, которую модерировала старший редактор TIME Аеша Джавед, была сосредоточена на текущем состоянии ИИ и связанных с ним проблемах, вопросе о том, кто несет ответственность за воздействие ИИ, а также на потенциале видео, созданных ИИ, изменить то, как мы общаемся.

Мнения участников дискуссии о рисках, связанных с ИИ, отражают различные области их интересов. Для Люнга, чья работа включает в себя оценку того, могут ли передовые модели ИИ использоваться для облегчения кибер-, биологических или химических атак, а также оценку моделей любых других вредоносных возможностей в более широком смысле, основное внимание уделялось необходимости «осмыслить эмпирические данные». это расскажет нам гораздо больше о том, что происходит и какие риски с этим связаны».

Тем временем Бирхан подчеркнула, что она считает «массовой шумихой» вокруг возможностей и потенциала ИИ, который может представлять экзистенциальный риск. «Эти модели на самом деле не оправдывают своих требований». Бирхан утверждал, что «ИИ — это не просто вычислительные вычисления. Это весь конвейер, который позволяет создавать и поддерживать системы», ссылаясь на важность обращения внимания на то, откуда берутся данные, на воздействие систем искусственного интеллекта на окружающую среду (особенно в отношении использования ими энергии и воды), а также на недостаточно оплачиваемую рабочую силу. маркировщиков данных в качестве примеров. «Как у крупных компаний, так и у стартапов должен быть стимул проводить тщательную оценку не только самих моделей, но и всего процесса ИИ», — сказала она. Рипарбелли предположил, что «решение проблем, уже существующих сегодня в обществе», и размышление о «сценариях в стиле Терминатора» важны и на них стоит обратить внимание.

Участники дискуссии согласились с жизненной важностью оценок систем искусственного интеллекта как для понимания их возможностей, так и для выявления их недостатков, когда дело касается таких вопросов, как сохранение предрассудков. Из-за сложности технологии и скорости развития этой области «лучшие методы решения различных проблем безопасности меняются очень быстро», — сказал Люнг, указывая на «большую асимметрию между тем, что публично известно ученым и гражданскому обществу, а также то, что известно внутри самих этих компаний».

Участники дискуссии также согласились, что и компании, и правительства должны сыграть свою роль в минимизации рисков, связанных с ИИ. «На компаниях лежит огромная ответственность за продолжение внедрения инноваций в области техники безопасности», — сказал Люнг. Рипарбелли согласился, предположив, что у компаний может быть «моральный долг» обеспечивать безопасность своих систем. В то же время «правительства должны сыграть здесь свою роль. Это совершенно не подлежит обсуждению», — сказал Люн.

Точно так же Бирхан ясно дал понять, что необходимо «эффективное регулирование», основанное на «эмпирических данных». «Многие правительства и политики рассматривают ИИ как возможность, способ развития экономики ради финансовой выгоды», — сказала она, указывая на противоречия между экономическими стимулами и интересами обездоленных групп. «Правительствам необходимо рассматривать оценки и регулирование как механизм для создания более совершенных систем искусственного интеллекта, приносящих пользу широкой общественности и людям, находящимся на дне общества».

Когда дело доходит до глобального управления, Люн подчеркнул необходимость ясности относительно того, какие ограничения были бы наиболее желательными, как с технической, так и с политической точки зрения. «Какие лучшие практики, стандарты и протоколы мы хотим гармонизировать в разных юрисдикциях?» — спросила она. «Это недостаточно ресурсный вопрос». Тем не менее, Люн указал на тот факт, что Китай участвовал в прошлогоднем саммите по безопасности искусственного интеллекта, организованном Великобританией, как на повод для оптимизма. «Очень важно убедиться, что они сидят за столом», — сказала она.

Одной из конкретных областей, где мы можем наблюдать за развитием возможностей ИИ в режиме реального времени, является видео, генерируемое ИИ. В синтетическом видео, созданном с помощью технологий его компании, ИИ-двойник Рипарбелли заявил, что «текст как технология в конечном итоге преходящ и станет пережитком прошлого». Развивая эту мысль, настоящий Рипарбелли сказал: «Мы всегда стремились к более интуитивным и прямым способам общения. Текст был оригинальным способом хранения и кодирования информации, а также разделения времени и пространства. Сейчас мы живем в мире, где, по крайней мере, большинство потребителей предпочитают смотреть и слушать их контент».

Он представляет себе мир, в котором ИИ устраняет разрыв между текстом, который создается быстро, и видео, которое более трудоемко, но и более увлекательно. ИИ «позволит любому создать голливудский фильм, не выходя из спальни, не требуя ничего, кроме воображения», — сказал он. Эта технология создает очевидные проблемы с точки зрения возможности злоупотреблений, например, путем создания дипфейков или распространения дезинформации, но Рипарбелли подчеркивает, что его компания предпринимает шаги, чтобы предотвратить это, отмечая, что «каждое видео, прежде чем оно будет создано, проходит проверку контента». процесс модерации, где мы проверяем, что он соответствует нашей политике в отношении контента».

Рипарбелли предполагает, что вместо «технологически ориентированного» подхода к регулированию ИИ следует сосредоточиться на разработке политики, снижающей вредные последствия. «Давайте сосредоточимся на вещах, которых мы не хотим, и будем регулировать их».

Ужин TIME100 Impact Dinner в Лондоне: Лидеры, формирующие будущее искусственного интеллекта, был представлен Northern Data Group и Nvidia Europe.



Новости Blue 789

Leave a Reply

Your email address will not be published. Required fields are marked *