Антропические люди используют «маркетинг, основанный на страхе» для продвижения мифов Клода: Сэм Альтман

Вкратце
Генеральный директор OpenAI Сэм Альтман предположил, что конкурирующая фирма Anthropic использует «маркетинг, основанный на страхе», для продвижения своей модели Claude Mythos.
Клод Мифос продемонстрировал беспрецедентную способность находить уязвимости программного обеспечения.
Правительства и исследователи предупреждают об защитных и наступательных рисках, связанных с Mythos.
Генеральный директор OpenAI Сэм Альтман выступил против растущей тревоги по поводу новой мощной модели искусственного интеллекта конкурента Anthropic Claude Mythos, предположив, что компания использует «страх» для продвижения продукта на рынок.
Выступая на подкасте Core Memory, который ведет технический журналист Эшли Вэнс, Альтман утверждал, что использование «маркетинга, основанного на страхе», было направлено на то, чтобы удержать ИИ в руках «меньшей группы людей».
«Вы можете оправдать это множеством разных способов, и некоторые из них вполне реальны, например, что это будет законным беспокойством по поводу безопасности», — сказал Альтман.
«Но если вы хотите, чтобы «нам нужен контроль над ИИ, только мы, потому что мы заслуживающие доверия люди», я думаю, что маркетинг, основанный на страхе, вероятно, является наиболее эффективным способом оправдать это».
Альтман добавил, что, хотя существуют обоснованные опасения по поводу безопасности ИИ, «очевидно, что это невероятный маркетинг — говорить: «Мы построили бомбу. Мы собираемся сбросить ее вам на голову. Мы продадим вам бомбоубежище за 100 миллионов долларов. Оно вам нужно, чтобы пробежаться по всем вашим вещам, но только если мы выберем вас в качестве клиента».
Он отметил, что «не всегда легко» сбалансировать новые возможности ИИ с верой OpenAI в то, что технология должна быть доступной.
Мифы Клода из Anthropic
Модель Claude Mythos от Anthropic, представленная в прошлом месяце, привлекла пристальное внимание исследователей, правительств и индустрии кибербезопасности, особенно после того, как испытания показали, что она может автономно выявлять уязвимости программного обеспечения и выполнять сложные кибероперации. Модель распространяется только ограниченному кругу организаций через ограниченную программу.
Внедрение отражает более широкий раскол в отрасли искусственного интеллекта по поводу того, как следует развертывать мощные системы: некоторые компании делают упор на контролируемый доступ, а другие выступают за более широкое распространение для ускорения инноваций и понимания технологии.
Мифы стали центром внимания в этих дебатах. Возможности модели были описаны Anthropic как прорыв в обороне, позволяющий быстрее обнаруживать критические недостатки программного обеспечения, и как потенциальный наступательный риск в случае неправильного использования. В начале этого месяца во время тестирования компания выявила сотни уязвимостей в браузере Mozilla Firefox, а также продемонстрировала способность проводить многоэтапное моделирование кибератак.
Anthropic ограничила доступ к системе через Project Glasswing, предоставив избранным компаниям, включая Amazon, Apple и Microsoft, возможность протестировать ее возможности. Компания также выделила значительные ресурсы на поддержку усилий по обеспечению безопасности с открытым исходным кодом, утверждая, что защитники должны извлечь выгоду из этой технологии, прежде чем она станет более широко доступной.
Эксперты по безопасности предупреждают, что те же возможности, которые позволяют Mythos выявлять уязвимости, также могут быть использованы для их масштабной эксплуатации. Испытания, проведенные британским Институтом безопасности искусственного интеллекта, показали, что модель может автономно выполнять сложные кибероперации.
Модель также выявила ограничения в существующих системах оценки ИИ: Anthropic признала, что многих текущих тестов кибербезопасности уже недостаточно для измерения возможностей ее последней системы.
Тем не менее, на прошлой неделе группа исследователей заявила, что им удалось воспроизвести результаты Mythos, используя общедоступные модели.
Несмотря на призывы некоторых членов правительства США прекратить использование этой технологии из-за опасений по поводу ее потенциального применения в войне и наблюдении, Агентство национальной безопасности, как сообщается, начало тестирование предварительной версии модели в секретных сетях. На рынке прогнозов Myriad, принадлежащем материнской компании Decrypt Dastan, пользователи оценивают 49% вероятность того, что Claude Mythos будет представлен широкой публике к 30 июня.
Альтман предположил, что риторика вокруг чрезвычайно опасных систем ИИ может усилиться по мере улучшения возможностей, но заявил, что не все подобные утверждения следует принимать за чистую монету.
"Будет гораздо больше разговоров о моделях, которые слишком опасны для выпуска. Будут также очень опасные модели, которые придется выпускать разными способами", - сказал он. «Я уверен, что Mythos — отличная модель кибербезопасности, но я думаю, что у нас есть план, который нам нравится, как мы представим такие возможности миру».
Альтман также отверг предположения о том, что OpenAI сокращает расходы на инфраструктуру, заявив, что компания продолжит наращивать свои вычислительные мощности, несмотря на меняющиеся мнения.
«Я не знаю, откуда это взялось… люди действительно хотят написать историю отступления», — сказал он. «Но очень скоро снова будет что-то вроде: «OpenAI настолько безрассудна. Как они могут тратить такую сумасшедшую сумму?»»