Cryptonews

Криптопространство сталкивается с надвигающейся угрозой, поскольку пионер блокчейна предупреждает о возможности искусственного интеллекта подорвать анонимность пользователей

Источник
cryptonewstrend.com
Опубликовано
Криптопространство сталкивается с надвигающейся угрозой, поскольку пионер блокчейна предупреждает о возможности искусственного интеллекта подорвать анонимность пользователей

Оглавление Соучредитель Ethereum Виталик Бутерин недавно опубликовал обширный анализ, подробно описывающий существенные уязвимости конфиденциальности и безопасности, присущие современным платформам искусственного интеллекта. Его позиция выступает за фундаментальный переход от облачной инфраструктуры к локально управляемым альтернативам. ⚡️НОВИНКА: @VitalikButerin излагает концепцию искусственного интеллекта, в которой конфиденциальность превыше всего, и настаивает на полностью локальных, самостоятельных установках LLM для уменьшения утечек данных и внешнего контроля. Он предупреждает, что нынешние экосистемы искусственного интеллекта «бесцеремонны» в отношении безопасности, подчеркивая такие риски, как утечка данных, взломы тюрьмы и… pic.twitter.com/Q9BjHSISrL — The Crypto Times (@CryptoTimes_io) 2 апреля 2026 г. По словам Бутерина, технология искусственного интеллекта существенно вышла за рамки базовых диалоговых интерфейсов. Платформы текущего поколения теперь функционируют как независимые агенты, способные выполнять сложные многоэтапные операции с использованием обширных библиотек инструментов. Эта эволюция, подчеркивает он, существенно усиливает потенциальные угрозы, связанные с компрометацией данных и несанкционированной системной деятельностью. В своем заявлении Бутерин подтвердил, что полностью отказался от облачных услуг искусственного интеллекта. Его текущая реализация отдает приоритет тому, что он называет «самосуверенной, локальной, частной и безопасной» архитектурой. «Я исхожу из глубокого страха передать всю нашу личную жизнь облачному ИИ», — написал он. Он сослался на независимое исследование безопасности, которое показало, что примерно 15% доступных возможностей ИИ-агентов содержат вредоносные встроенные инструкции. Дополнительное расследование выявило инструменты, запрограммированные для скрытой передачи пользовательской информации на удаленные серверы. Он также заметил, что многочисленные платформы, позиционируемые как открытые, просто предлагают доступ с «открытым кодом». Их полная архитектурная основа остается неясной, создавая потенциальные векторы для нераскрытых угроз безопасности. Реагируя на эти выявленные риски, Бутерин разработал комплексную систему, основанную на обработке данных на уровне устройства, локализованном управлении данными и разделенных средах выполнения. Его реализация работает на NixOS, развертывая llama-сервер для локальных операций вывода и используя пузырьковую пленку для изоляции процессов. Он провел обширные оценки производительности на нескольких аппаратных платформах, используя модель Qwen3.5 35B. Конфигурация ноутбука с графическим процессором NVIDIA 5090 достигла пропускной способности примерно 90 токенов в секунду. Система AMD Ryzen AI Max Pro генерировала примерно 51 токен в секунду. Оборудование DGX Spark производило около 60 токенов в секунду. Бутерин определил, что производительность ниже 50 токенов в секунду недостаточна для практических повседневных приложений. Его тестирование привело его к тому, что он отдал предпочтение конфигурациям высокопроизводительных ноутбуков, а не специально созданному специализированному оборудованию. Для людей, неспособных инвестировать в такое оборудование, он предложил механизмы совместных закупок, при которых группы совместно приобретают общие вычислительные ресурсы и оборудование графического процессора, получая доступ к системе через удаленные соединения. Бутерин использует систему двойной авторизации для конфиденциальных операций. Действия, включая передачу сообщений или транзакции блокчейна, требуют как вывода, генерируемого ИИ, так и явной проверки человеком. Он утверждает, что объединение человеческого суждения с обработкой ИИ создает более высокий уровень безопасности по сравнению с зависимостью исключительно от любого из подходов. При использовании сервисов удаленной модели его реализация сначала обрабатывает запросы через локальную модель, чтобы исключить конфиденциальные детали перед внешней передачей. Он провел параллели между платформами искусственного интеллекта и смарт-контрактами, признав их полезность, но подчеркнув, что они не должны получать безоговорочного доверия. Внедрение агентов ИИ продолжает быстро ускоряться. Такие инициативы, как OpenClaw, расширяют функциональность автономных агентов. Эти платформы работают независимо и выполняют сложные задачи, используя разнообразные наборы инструментов. Согласно отраслевым прогнозам, к 2025 году рынок агентов искусственного интеллекта составит примерно 8 миллиардов долларов. Прогнозы предполагают, что к 2030 году эта оценка превысит 48 миллиардов долларов, что указывает на совокупный годовой рост, превысивший 43%. Некоторые агенты обладают возможностями изменять конфигурации системы или манипулировать подсказками без явного разрешения пользователя, что существенно повышает профили рисков несанкционированного доступа.