AI дизайн вышел на новый уровень
У Figma давно был MCP-сервер. Работал он в режиме read-only, и сценарий выглядел так: дизайнер (или вы сами) рисовали макеты руками, потом разработчик скармливал агенту ссылку на файл в Figma, агент разбирал его по слоям, вытаскивал структуру, цвета, отступы, шрифты, и на выходе генерил код, который более-менее соответствовал тому, что было нарисовано.Вчера Figma обновила свой MCP-сервер, и теперь она умеет не только читать, но и рисовать дизайн. Причём речь не про «нарисуй мне кнопку» или «сделай один экран». Агент может собрать полноценный лендинг целиком или выстроить UX-флоу на несколько экранов. И самое ценное: он делает это в рамках вашей дизайн-системы. Берёт ваши компоненты, ваши токены, ваши стили и собирает из них макет, который выглядит как часть вашего продукта, а не как что-то из генератора 2015 года.До этого обновления все попытки генерировать дизайн через AI выглядели так себе. Результат глючил, визуал был устаревший, компоненты не из вашего UI Kit, а откуда-то из дефолтных библиотек. Пользоваться этим в проде было нельзя, максимум для наброска. Сейчас ситуация другая. Вы подключаете свою дизайн-систему (UI Kit), и агент собирает макеты, которые реально пригодны для использования. Я считаю для быстрых экспериментов и проверки гипотез это гигантский шаг вперёд.Параллельно обновился Stitch от Google. У них тоже появились новые возможности по генерации интерфейсов, и для стадии брейншторма он вполне подходит: накидать вариантов, посмотреть на разные подходы к экрану, быстро визуализировать идею. Читать далее