[Перевод] Генерация BPMN с помощью LLM в диалоговом режиме: эксперименты и выводы
newsare.net
Авторы свежей научной работы попробовали заставить обычные открытые LLM (от 1B до 70B) генерировать валидный BPMN-XML прямо в чате по текстовому опис[Перевод] Генерация BPMN с помощью LLM в диалоговом режиме: эксперименты и выводы
Авторы свежей научной работы попробовали заставить обычные открытые LLM (от 1B до 70B) генерировать валидный BPMN-XML прямо в чате по текстовому описанию процесса.Если вкратце, то без дообучения — полный провал. 80% токенов тратится на XML-мусор, модели сыплются на синтаксисе, забывают ветки и галлюцинируют теги. Работает только на больших моделях и то не очень хорошо.Но вроде просматривается рабочий вариант для генерации BPMN — берем 7–13B модель, дообучаем через LoRA/QLoRA на нормальном датасете, переходим на компактный JSON вместо XML и добавляем Preference Tuning + CoT. Тогда может быть взлетит. Читать далее Read more












