Читаем вместе. ИИ в AppSec: могут ли LLM работать с уязвимым кодом
Привет, Хабр!На связи Максим Митрофанов, ML-лид команды Application Security в Positive Technologies. Мы занимаемся прикладными вопросами машинного обучения по направлению безопасной разработки, регулярно изучаем новые технические репорты и доменные статьи, разбором одной из которых я и хотел бы поделиться с вами.Исследуя подходы к оценке больших языковых моделей в разрезе безопасной разработки, мы наткнулись на статью «LLMs Cannot Reliably Identify and Reason About Security Vulnerabilities (Yet?): A Comprehensive Evaluation, Framework, and Benchmarks», которая посвящена анализу применения LLM в задаче обнаружения уязвимостей в исходном коде. Обзор на статью не является дословным переводом, содержит личные комментарии и размышления, возникшие в процессе чтения. На мой взгляд, разбор будет особенно интересен специалистам по информационной безопасности и ML-инженерам, внедряющим ИИ в R&D процессы компаний. Читать далее