Зачем Google открывает исходники для разработки AI моделей?
Обновлено 01 января 2025 - 7 дней назад. Techcrunch.com.
В обычном году на Cloud Next - одной из двух главных ежегодных конференций Google для разработчиков, второй из которых является I/O, - почти исключительно представлены управляемые и другие продукты и сервисы с закрытым исходным кодом, закрытыми и заблокированными API. Но в этом году, то ли для того, чтобы поддержать добрую волю разработчиков, то ли для развития своих экосистемных амбиций (или и то, и другое), Google представила ряд инструментов с открытым исходным кодом, в первую очередь направленных на поддержку проектов и инфраструктуры генеративного ИИ.
Первая, MaxDiffusion, которую Google без лишнего шума выпустила в феврале, представляет собой коллекцию эталонных реализаций различных моделей диффузии - таких как генератор изображений Stable Diffusion - которые работают на устройствах XLA. "XLA" означает Accelerated Linear Algebra (ускоренная линейная алгебра) - аббревиатура, обозначающая технику, которая оптимизирует и ускоряет определенные типы рабочих нагрузок ИИ, включая тонкую настройку и обслуживание.
Собственные тензорные процессоры (TPU) Google являются устройствами XLA, как и недавние графические процессоры Nvidia.
Помимо MaxDiffusion, Google запускает JetStream, новый движок для запуска генеративных моделей ИИ - в частности, моделей, генерирующих текст (это не Stable Diffusion). В настоящее время JetStream поддерживает только TPU, а совместимость с GPU предположительно появится в будущем. По словам Google, JetStream предлагает в 3 раза более высокую "производительность на доллар" для таких моделей, как Gemma 7B от Google и Llama 2 от Meta.
"По мере того как заказчики внедряют свои рабочие нагрузки ИИ в производство, растет потребность в экономичном стеке вычислений, обеспечивающем высокую производительность", - написал Марк Лохмайер, руководитель отдела вычислений и инфраструктуры машинного обучения Google Cloud, в блоге, предоставленном TechCrunch. "JetStream помогает удовлетворить эту потребность... и включает в себя оптимизации для популярных открытых моделей, таких как Llama 2 и Gemma".
Улучшение в 3 раза - это довольно громкое заявление, и не совсем понятно, как Google пришла к этой цифре. Используя какое поколение TPU? По сравнению с каким базовым движком? И как вообще определяется понятие "производительность"?
Предпоследними в списке вкладов Google в открытый код стали новые дополнения к MaxText, коллекции моделей ИИ, генерирующих текст и предназначенных для облачных вычислений на TPU и GPU Nvidia. В MaxText теперь входят Gemma 7B, GPT-3 (предшественник GPT-4) от OpenAI, Llama 2 и модели от ИИ-стартапа Mistral - все они, по словам Google, могут быть настроены в соответствии с потребностями разработчиков.
Мы значительно оптимизировали производительность моделей на TPU, а также тесно сотрудничали с Nvidia для оптимизации производительности на больших кластерах GPU", - сказал Лохмайер. "Эти улучшения позволяют максимально эффективно использовать GPU и TPU, что ведет к повышению энергоэффективности и оптимизации затрат".
Наконец, Google в сотрудничестве с Hugging Face, стартапом в области ИИ, создала Optimum TPU, который предоставляет инструменты для переноса определенных рабочих нагрузок ИИ на TPU. По словам Google, цель состоит в том, чтобы снизить барьер для внедрения генеративных моделей ИИ на оборудование TPU - в частности, моделей, генерирующих текст.
Но в настоящее время Optimum TPU немного ограничен в возможностях. Единственная модель, с которой он работает, - Gemma 7B. И Optimum TPU пока не поддерживает обучение генеративных моделей на TPU - только их запуск.
Эта статья является экземпляром Турбо-текста. Такие тексты отлично продвигают сайты в ТОП органического поиска Яндекс и Google. Здесь я пишу об этом более подробно.
Искренне Ваш,
Nikita Interactive
Это реальная история!
Раздел с Турбо-текстами привлек 18 090 пользователей за 9 месяцев.
На новом сайте. Без ссылок.
Измеримые результаты и устойчивый успех.