Работу нейросетей для генерации изображений ускорили почти в 30 раз

Исследователи искусственного интеллекта (ИИ) из Массачусетского технологического института в США нашли способ многократно ускорить работу нейросетей, генерирующих изображения по текстовым запросам. Статья размещена на портале научных публикаций arXiv.

Ученые разработали метод под названием «дистилляция соответствия распределению» (DMD), который учит новые модели искусственного интеллекта имитировать существующие генераторы изображений, известные как диффузионные модели, такие как DALL-E 3, Midjourney и Stable Diffusion. 

Эта структура позволяет создавать более компактные ИИ-модели, которые могут генерировать изображения гораздо быстрее без потерь качества.

Диффузионные модели создают изображения в ходе многоэтапного процесса, включающего до 100 шагов. Исследователям удалось сократить количество операций до одной. В результате ИИ потратил на выполнение всего 90 миллисекунд вместо стандартных 2,59 секунды, что в 28,8 раза быстрее.

DMD состоит из двух компонентов, которые работают вместе, чтобы уменьшить количество необходимых модели итераций, прежде чем она выдаст пригодное для использования изображение. 

«Уменьшение количества итераций было Святым Граалем в диффузионных моделях с момента их создания», — заявил соавтор научной работы, профессор электротехники и информатики Федро Дюран.

Ученые отметили, что новый подход значительно снижает требуемые вычислительные мощности для ИИ-генераторов графики.

Ранее российские ученые сумели в 20 раз ускорить обучение нейросетей.

Что думаешь?

Комментарии