Коротко: Microsoft Threat Intelligence выявила вредоносный код в Python-пакете Mistral AI, распространяемом через PyPI. Атакующие использовали подмену легитимного пакета для кражи данных и установки бэкдоров. Угроза затронула разработчиков AI-решений, включая российских специалистов, работающих с открытыми моделями.
- Вредоносный пакет mistral-ai (опечатка оригинального mistralai) загружен на PyPI 12 марта 2025 года.
- Код собирал переменные окружения, ключи API и учетные данные облачных сервисов.
- Microsoft оценивает атаку как целенаправленную на пользователей AI-инструментов.
- PyPI удалил пакет через 48 часов после уведомления.
Развёрнуто по фактам
Специалисты Microsoft Threat Intelligence зафиксировали инцидент 14 марта 2025 года. Злоумышленники создали пакет-двойник с именем mistral-ai, отличающийся от официального mistralai одним дефисом. После установки вредоносный код выполнял сбор конфиденциальных данных: токенов доступа, паролей и ключей шифрования. По данным Microsoft, атака была направлена на организации, использующие Mistral AI для обработки данных, включая стартапы и исследовательские лаборатории. Подробнее — майнеры в наличии.
Пакет оставался доступным для скачивания около двух суток. За это время его загрузили более 1 200 раз. После обнаружения PyPI оперативно заблокировал репозиторий, но часть систем могла быть скомпрометирована. Microsoft рекомендует проверить логи установки Python-пакетов за период с 12 по 14 марта.
Что говорят данные
Атака через PyPI — не единичный случай. В 2024 году аналогичные инциденты затрагивали пакеты для работы с TensorFlow и PyTorch. Однако вектор на AI-модели становится всё более популярным: по данным отчёта Sonatype за 2024 год, число supply chain-атак на Python-репозитории выросло на 78% по сравнению с 2023 годом. Вредоносный код в mistral-ai использовал технику typosquatting (подмена имени пакета с опечаткой), что характерно для 40% всех атак на PyPI.
Microsoft Threat Intelligence подчеркнула: «Атакующие нацелились на доверие разработчиков к популярным AI-библиотекам». Вредоносная нагрузка включала модуль для кражи данных из переменных окружения, что типично для атак на облачную инфраструктуру.
Прогноз и риски
По нашим наблюдениям, частота supply chain-атак на AI-инструменты удвоится в 2025 году, достигнув 150–200 инцидентов в месяц. Основные риски для пользователей Mistral AI — утечка API-ключей к облачным сервисам (AWS, Google Cloud, Azure) и компрометация моделей, обученных на конфиденциальных данных. Разработчикам следует внедрить проверку контрольных сумм пакетов (SHA-256) и использовать виртуальные окружения с изолированными зависимостями. Подробнее — гайд по выбору ASIC на 2026 год.
Для российских компаний, использующих Mistral AI через открытые репозитории, дополнительный риск — невозможность оперативно получить поддержку от западных вендоров из-за санкционных ограничений. Это повышает важность внутреннего аудита безопасности.
Чем это обернётся для российских игроков
Российские разработчики AI-решений, особенно в регионах с развитой IT-инфраструктурой (Москва, Санкт-Петербург, Новосибирск), активно используют открытые модели Mistral AI для fine-tuning под локальные задачи. Атака через PyPI ставит под угрозу проекты, где применяются такие модели, включая системы анализа данных в промышленном майнинге. Например, в Иркутской области, где средний тариф на электроэнергию для майнинга составляет около 3,5 ₽/кВт·ч, AI-инструменты используются для оптимизации работы ферм. Компрометация ПО может привести к утечке конфиденциальных данных о конфигурации оборудования.
С точки зрения регулирования, ФЗ-259 «О цифровых финансовых активах» не регулирует напрямую использование AI-библиотек, но утечка данных может подпадать под 152-ФЗ о персональных данных. Российским майнерам и разработчикам рекомендуется проверять хэши пакетов через официальные каналы Mistral AI и использовать зеркала PyPI, размещённые на территории РФ (например, mirrors.sbercloud.ru).
Итог: инцидент с mistral-ai — очередное напоминание о критической важности проверки цепочки поставок ПО. Для российских пользователей AI-инструментов, особенно в условиях ограниченного доступа к западной поддержке, превентивные меры безопасности становятся единственным способом избежать компрометации.
Комментарии
0