Cryptonews

Исследователи получают финансирование для выявления потенциальных рисков в системах искусственного интеллекта на фоне сообщений о расформировании внутренних подразделений по управлению рисками

Источник
cryptonewstrend.com
Опубликовано
Исследователи получают финансирование для выявления потенциальных рисков в системах искусственного интеллекта на фоне сообщений о расформировании внутренних подразделений по управлению рисками

Важным шагом является то, что OpenAI представила программу стипендий по безопасности, предлагающую значительную еженедельную стипендию в размере 3850 долларов США внешним исследователям, которым поручено изучить потенциальные риски, связанные с передовым искусственным интеллектом. Это заявление, сделанное 6 апреля, совпало с разоблачающим расследованием The New Yorker, которое выявило, что OpenAI распустила свои группы внутренней безопасности и удалила термин «безопасно» из своего заявления о миссии, поданного в IRS. Целью стипендии, задуманной как пилотная программа, является содействие независимым исследованиям в области безопасности и выравнивания, а также воспитание нового поколения талантов в этой важной области.

Щедрые стимулы программы включают еженедельную стипендию в размере 3850 долларов США, что эквивалентно более чем 200 000 долларов США в год, а также вычислительные ресурсы на сумму около 15 000 долларов США и наставничество со стороны экспертов-исследователей OpenAI. Стипендиаты будут иметь возможность работать из рабочего пространства Constellation в Беркли или удаленно, а прием заявок закроется 3 мая. Примечательно, что стипендия не ограничивается специалистами в области искусственного интеллекта, поскольку OpenAI активно ищет кандидатов с различным опытом, включая кибербезопасность, социальные науки и взаимодействие человека и компьютера, а также компьютерные науки.

Время объявления особенно примечательно, поскольку оно появилось сразу после отчета Ронана Фэрроу о расследовании в The New Yorker, в котором задокументировано прекращение деятельности трех последовательных групп внутренней безопасности в OpenAI в течение 22 месяцев. Команда суперсогласования была первой, которая была расформирована в мае 2024 года, за ней последовала группа готовности AGI в октябре 2024 года и, наконец, команда согласования миссий в феврале 2026 года. Поразительное замечание представителя OpenAI в ответ на вопрос журналиста об исследователях экзистенциальной безопасности подчеркнуло очевидное изменение приоритетов компании: «Что вы подразумеваете под экзистенциальной безопасностью?

Важно отметить, что Товарищество по безопасности не предназначено для замены распущенной внутренней инфраструктуры. Вместо этого стипендиаты будут получать кредиты API и вычислительные ресурсы, но не будут иметь прямого доступа к системам OpenAI, что позиционирует программу как форму независимого финансирования исследований. Программа исследований стипендии охватывает семь ключевых областей, включая, среди прочего, оценку безопасности, этику, надежность и масштабируемые меры по смягчению последствий. Ожидается, что к завершению программы в феврале 2027 года каждый стипендиат представит значительный результат, например, исследовательскую работу, тест или набор данных. OpenAI подчеркнула, что она отдает приоритет исследовательским способностям, техническим суждениям и исполнительским возможностям, а не конкретным академическим достижениям.

Последствия этого развития выходят далеко за рамки отрасли искусственного интеллекта, поскольку оно имеет существенное влияние на более широкий рынок. Уверенность в обязательствах передовых ИИ-компаний по обеспечению безопасности служит важнейшим рыночным сигналом, влияющим на распределение капитала в инфраструктуре ИИ, токенах ИИ, а также протоколах DePIN и агентах ИИ, которые находятся на стыке криптовалюты и искусственного интеллекта. Поскольку инвесторы внимательно следят за траекторией расходов и операционными приоритетами OpenAI, успех этой программы стипендий будет внимательно наблюдать. На вопрос о том, могут ли внешние исследователи, работающие без внутреннего доступа, существенно повлиять на разработку моделей, появится ответ, когда в начале 2027 года будет обнародовано исследование первой группы.