Microsoft представила собственный 128-ядерный процессор Arm Datacenter, массивный графический процессор Maia 100, предназначенный для AI

Microsoft представила собственный 128-ядерный процессор Arm Datacenter, массивный графический процессор Maia 100, предназначенный для AI

Инициативы Microsoft в области искусственного интеллекта привели к созданию пользовательских чипов. На Microsoft Ignite, конференции компании для разработчиков-партнеров, Microsoft анонсировала два пользовательских чипа, разработанных в ее кремниевой лаборатории в Редмоне, штат Вашингтон: ускоритель искусственного интеллекта Azure Maia 100 и процессор Azure Cobalt 100. Оба чипа производятся на “новейшем технологическом узле” в TSMC, сообщили в Microsoft Tom’s Hardware.

Эти чипы появятся “в начале следующего года” в центрах обработки данных Microsoft, которые начнут работать с Microsoft Copilot, Azure OpenAI и другими сервисами. Когда его спросили, сколько чипов будет доступно, представитель сказал только, что Microsoft находится на “первых этапах развертывания” с подключенными к сети “начальными серверами” в своих центрах обработки данных. Компания по-прежнему будет предлагать клиентам услуги, использующие чипы от таких партнеров, как Nvidia и AMD.

Microsoft не раскрывает подробных спецификаций, что затрудняет сравнение новых предложений с опциями Nvidia и AMD.

Отвечая на вопрос о более подробной информации, Microsoft сообщила Tom’s Hardware , что Maia 100 производится по 5-нанометровому техпроцессу и может похвастаться 105 миллиардами транзисторов, “что делает его одним из крупнейших чипов, которые могут быть изготовлены с использованием современных технологий”.

“Серверы Maia спроектированы с использованием полностью настраиваемого сетевого протокола на основе Ethernet с общей пропускной способностью 4,8 терабит на ускоритель, что обеспечивает лучшее масштабирование и производительность сквозной рабочей нагрузки”, – добавила Microsoft.

Что мы точно знаем, так это то, что ускоритель искусственного интеллекта Maia 100 – графический процессор – предназначен для больших языковых моделей. Microsoft говорит, что OpenAI “предоставил отзывы” о разработках Maia 100.

“Мы были взволнованы, когда Microsoft впервые поделилась своими разработками для чипа Maia, и мы работали вместе, чтобы усовершенствовать и протестировать его на наших моделях”, – заявил генеральный директор OpenAI Сэм Альтман в блоге Microsoft.

Microsoft

“Комплексная архитектура AI Azure, теперь оптимизированная вплоть до кремниевой с Maia, прокладывает путь для обучения более производительных моделей и удешевления этих моделей для наших клиентов ”.

Брайан Харри, технический сотрудник Microsoft, возглавляющий команду Maia, сказал, что Maia 100 была создана специально для существующей инфраструктуры Microsoft и что она может “обеспечить огромный прирост производительности и экономичности”.

Между тем, процессор Cobalt 100 основан на Arm, и Уэс Маккалоу, корпоративный вице-президент по разработке аппаратных продуктов, сказал в блоге, что “разработан с учетом энергоэффективности”.

“Azure Cobalt использует лицензионный дизайн от Arm на основе ARM Neoverse CSS, настроенный для целей Microsoft”, – сообщили в Microsoft Tom’s Hardware. “64-разрядный 128-ядерный чип обеспечивает повышение производительности до 40% по сравнению с текущими поколениями серверов Azure Arm”.

Компания также заявляет, что разработка собственных чипов позволяет увеличить охлаждение в центрах обработки данных и увеличить пропускную способность существующих объектов. Компания заявила, что не существует серверных стоек, которые могли бы “удовлетворить уникальные требования серверных плат Maia 100”, что требовало создания стоек с нуля.

Microsoft представила собственный 128-ядерный процессор Arm Datacenter, массивный графический процессор Maia 100, предназначенный для AI
Microsoft

“Эти стойки шире, чем обычно устанавливаются в центрах обработки данных компании”, – говорится в сообщении Microsoft в блоге.

Эта расширенная конструкция обеспечивает достаточно места как для силовых, так и для сетевых кабелей, необходимых для уникальных требований рабочих нагрузок AI”.

Компании также нужно было придумать решение для жидкостного охлаждения этих чипов во время сложных задач искусственного интеллекта, но у нее не было центров обработки данных, оборудованных для “больших жидкостных чиллеров”. Таким образом, Microsoft использует то, что она называет “sidekick”, который может располагаться рядом со стойкой серверов Maia 100, отправлять холодную жидкость на холодные пластины, подключенные к чипам Maia 100, а затем отправлять теплую жидкость обратно в sidekick, чтобы отводить тепло и снова возвращать жидкость в стойку.

Microsoft заявляет, что поделилась с отраслевыми партнерами разработанными на заказ стойками и системами охлаждения. “Все, что мы создаем, будь то инфраструктура, программное обеспечение или прошивка, мы можем использовать независимо от того, внедряем ли мы наши чипы или чипы наших отраслевых партнеров”, – сказал Пэт Стемен, менеджер партнерской программы Microsoft по аппаратным системам и инфраструктуре Azure.

“Это выбор, который должен сделать заказчик, и мы пытаемся предоставить ему наилучший набор опций, будь то производительность, стоимость или любой другой аспект, который их волнует”. Компания уже работает над версиями второго поколения как ускорителя AI Maia, так и процессора Azure Cobalt. В дополнение к новому оборудованию Microsoft также анонсировала Azure Boost, который, по ее словам, может ускорить процессы хранения данных и сетевые процессы, переместив их с хост-серверов на аппаратное и программное обеспечение, разработанное специально для этих целей.

Microsoft также объявила о дальнейших партнерских отношениях как с AMD, так и с Nvidia. Со стороны Team Red Microsoft добавит виртуальные машины AMD MI300X на свою платформу Azure. Для Ndvidia представлен предварительный просмотр новой серии виртуальных машин NC H100 v5, разработанных для графических процессоров Nvidia H00 Tensor Core. Многие подробности о Maia и Cobalt были недоступны на момент написания этой статьи. Но мы обратились к Microsoft с дополнительными вопросами, так что ожидайте более подробного освещения здесь в ближайшее время. Но одно можно сказать наверняка: в условиях перенаселенности заказными процессорами облачных центров обработки данных с такими игроками, как Meta, Oracle и Google, этот шаг Microsoft, вероятно, окажет огромное влияние.

Эти анонсы, вероятно, повлияют на опорные центры обработки данных старой школы, такие как Intel, AMD и Nvidia, а также на сравнительных новичков, таких как Ampere, и им придется предпринимать собственные смелые шаги.

Translate »
 
Чат Telergram

Привет, готов ответить на Ваши вопросы

Открыть чат
1
Отсканируйте код
Здравствуйте!
Возможно я могу Вам чем-то помочь?