Google представила Learn2Compress, технологию оптимизации нейросетей для мобильных устройств

learn2compress

Google рассказала в своем блоге об одной из ключевых технологий нового SDK для разработки мобильных нейросетей ML Kit — Learn2Compress. Она позволяет эффективно использовать возможности фреймворка TensorFlow Lite и автоматически оптимизирует использование памяти и скорость работы модели машинного обучения.

Как она работает?

Для уменьшения размера модели и оптимизации ее работы технология использует как образец «взрослую» TensorFlow-модель и автоматически генерирует мобильную сеть на ее основе.

Learn2Compress auto generating

Для этого Learn2Compress использует следующие техники:

  • сокращение операций, наименее важных для точности предсказаний;
  • квантование, ускоряющее работу модели путем уменьшения количества битов, которыми она оперирует;
  • совместное обучение и «дистилляция» — использование TensorFlow-модели в качестве учителя для нескольких мобильных нейросетей и выбор той, которая лучше подходит для нужд разработчика.

Сжимает хорошо?

По словам разработчиков, созданные с помощью Learn2Compress нейросети в разы превосходят созданные на других архитектурах по производительности и занимаемой памяти. Они приводят в пример социальную платформу для рыболовов Fishbrain, создатели которой уменьшили размер облачной модели классификации изображений с 80 до 5 мегабайт с сохранением такой же точности.

На момент написания новости Learn2Compress доступна ограниченному числу разработчиков. Для желающих открыта регистрация на предварительный доступ.

На прошедшей конференции для разработчиков Google I/O 2018 много внимания было уделено технологиям машинного обучения и компьютерного зрения. Обо всех анонсах можно прочитать в нашем материале.

Источник: блог Google AI

Ещё интересное для вас:
Тест: что вы знаете о работе мозга?
Что посмотреть и куда сходить разработчку — ближайшие события