Mistral AI опубликовал Devstral, большую языковую модель для работы с кодом
Дата публикации:Fri, 23 May 2025 15:27:40 +0300
Компания Mistral AI представила большую языковую модель Devstral, оптимизированную для решения проблем, возникающих в процессе разработки ПО. В отличие от типовых AI-моделей, Mistral AI выходит за рамки написания отдельных функций и дополнения кода, и предоставляет возможности, позволяющие анализировать и контекстуализировать (определять назначение и логику работы) большие кодовые базы, определять связи между компонентами и определять трудновыявляемые ошибки в запутанных функциях.
Модель охватывает 23.6 миллиардов параметров, учитывает контекст в 128 тысяч токенов и опубликована под лицензией Apache 2.0. Загружаемый архив с Devstral занимает 47 ГБ и пригоден для использования на локальных системах - для выполнения модели достаточно одного ПК с видеокартой NVIDIA GeForce RTX 4090 и 32 ГБ ОЗУ. Модель можно использовать в открытых инструментариях SWE-agent и OpenHands для автоматизации исправления ошибок, анализа кода и внесения изменений.
Система может применяться для решения конкретных проблем (issue) на GitHub и заметно опережает другие проекты в тестовом наборе SWE-Bench Verified, проверяющем корректность решения типовых проблем в коде (предлагается 500 тестов на основе реальных сообщений об ошибках на GitHub). В данном тесте модель Devstral набрала 46.8%, в то время как модель Claude 3.5 Haiku получила 40.6%, SWE-smith-LM 32B - 40.2% и GPT-4.1-mini - 23.6%. Среди прочего Devstral опередила такие крупные модели, как Deepseek-V3-0324 671B (38.8%) и Qwen3 232B-A22B (34.4%), охватывающие сотни миллиардов параметров.
Новость позаимствована с opennet.ru
Ссылка на оригинал: https://www.opennet.ru/opennews/art.shtml?num=63286