Почему Сэм Альтман покидает комитет по безопасности OpenAI

Почему Сэм Альтман покидает комитет по безопасности OpenAI


ОГенеральный директор penAI Сэм Альтман покидает свой пост во внутреннем комитете, который компания создала для консультирования совета директоров по «критически важным решениям в области безопасности» в условиях гонки за разработку еще более мощной технологии искусственного интеллекта.

Комитет, сформированный в мае, оценивал процессы и меры безопасности OpenAI в течение 90 дней. OpenAI опубликовал рекомендации комитета после оценки 16 сентября. Первым в списке: создание независимого управления для обеспечения безопасности.

Таким образом, Альтман, который, помимо работы в совете директоров OpenAI, также курирует бизнес-операции компании в качестве генерального директора, больше не будет входить в состав комитета по безопасности. В соответствии с рекомендациями комитета, OpenAI заявляет, что новый независимый комитет будет возглавлять Зико Колтер, директор департамента машинного обучения в Университете Карнеги-Меллона, который присоединился к совету директоров OpenAI в августе. Другими членами комитета будут члены совета директоров OpenAI: соучредитель и генеральный директор Quora Адам Д’Анджело, отставной генерал армии США Пол Накасоне и бывший президент Sony Entertainment Николь Селигман. Вместе с Альтманом из комитета также выйдут председатель совета директоров OpenAI Брет Тейлор и несколько технических и политических экспертов компании.

Читать далее: TIME100 самых влиятельных людей в сфере искусственного интеллекта 2024 года

Другие рекомендации комитета включают усиление мер безопасности, прозрачность работы OpenAI и унификацию фреймворков безопасности компании. Он также заявил, что будет изучать больше возможностей для сотрудничества с внешними организациями, такими как те, которые использовались для оценки недавно выпущенной OpenAI серии моделей рассуждений o1 для опасных возможностей.

Комитет по безопасности и защите — не первая попытка OpenAI создать независимый надзор. Коммерческое подразделение OpenAI, созданное в 2019 году, контролируется некоммерческой организацией с «большинством независимых» членов совета, которому поручено следить за тем, чтобы оно действовало в соответствии со своей миссией по разработке безопасного и широко полезного искусственного интеллекта (AGI) — системы, которая превосходит людей во многих отношениях.

В ноябре совет директоров OpenAI уволил Альтмана, заявив, что он не был «последовательно откровенен в своих коммуникациях с советом директоров, что мешало ему выполнять свои обязанности». После того, как сотрудники и инвесторы взбунтовались, а член совета директоров и президент компании Грег Брокман ушел в отставку, его быстро восстановили в должности генерального директора, а члены совета директоров Хелен Тонер, Таша Макколи и Илья Суцкевер ушли в отставку. Позже Брокман вернулся в качестве президента компании.

Читать далее: Хронология всех последних обвинений, выдвинутых против OpenAI и Сэма Альтмана

Инцидент выявил ключевую проблему для быстрорастущей компании. Критики, включая Тонера и Макколи, утверждают, что наличие формально независимого совета директоров не является достаточным противовесом сильным стимулам прибыли, с которыми сталкивается компания. Ранее в этом месяце агентство Reuters сообщило, что продолжающиеся усилия OpenAI по сбору средств, которые могут резко поднять ее оценку до 150 миллиардов долларов, могут зависеть от изменения ее корпоративной структуры.

Тонер и Макколи говорят, что независимость совета директоров не заходит достаточно далеко, и что правительства должны играть активную роль в регулировании ИИ. «Даже с самыми лучшими намерениями, без внешнего надзора, этот вид саморегулирования в конечном итоге окажется неисполнимым», — написали бывшие члены совета директоров в журнале Economist в мае, размышляя о ноябрьском провале совета директоров OpenAI.

В прошлом Альтман призывал к регулированию систем ИИ, но OpenAI также лоббировала законопроект Калифорнии об ИИ, который бы обязывал разработчиков соблюдать протоколы безопасности. Вопреки позиции компании, более 30 нынешних и бывших сотрудников OpenAI публично поддержали законопроект.

Создание Комитета по безопасности и защите в конце мая последовало за особенно бурным месяцем для OpenAI. Илья Суцкевер и Ян Лейке, два руководителя команды «супервыравнивания» компании, которая занималась обеспечением того, чтобы системы ИИ, превосходящие уровень человеческого интеллекта, оставались под контролем человека, ушли в отставку. Лейке обвинил OpenAI в том, что она отдает приоритет «блестящим продуктам» над безопасностью в посте на X. После их ухода команда была расформирована. В том же месяце OpenAI подверглась критике за то, что попросила уходящих сотрудников подписать соглашения, которые не позволяли им критиковать компанию или лишаться своего законного капитала. (Позже OpenAI заявила, что эти положения не были и не будут реализованы, и что они будут удалены из всех документов об увольнении в будущем).



Новости Blue 789

Leave a Reply

Your email address will not be published. Required fields are marked *