Розробка власного апаратного забезпечення для штучного інтелекту від Microsoft зазнала серйозної затримки. Майбутній чип Maia, відомий під кодовою назвою Braga, не надійде в масове виробництво до 2026 року, що означає затримку на шість місяців. Згідно з інформацією, ця затримка ставить під сумнів здатність Microsoft конкурувати з Nvidia на ринку чипів для ШІ, підкреслюючи технічні та організаційні труднощі в розробці конкурентоспроможного силікону.

Microsoft почала розробку чипів для зменшення залежності від високопродуктивних графічних процесорів Nvidia, які використовуються в більшості дата-центрів для ШІ по всьому світу. Як і конкуренти Amazon та Google, компанія активно інвестує у створення власних чипів для ШІ-навантажень. Однак остання затримка означає, що чип Braga, ймовірно, відставатиме від чипів Nvidia Blackwell за продуктивністю, що ще більше збільшить різницю між компаніями.

Процес розробки чипа Braga стикнувся з численними труднощами. Джерела, знайомі з проектом, розповідають, що неочікувані зміни в дизайні, нестача кадрів та високий рівень плинності кадрів неодноразово затримували виконання робіт.


AI chip delay

Серія Maia, до якої входить Braga, є частиною зусиль Microsoft із вертикальної інтеграції своєї інфраструктури ШІ, розробляючи чипи, оптимізовані для навантажень у хмарному середовищі Azure. Презентований наприкінці 2023 року, Maia 100 використовує передову технологію 5-нм виробництва та оснащений спеціальним управлінням енергоспоживанням та рідким охолодженням для ефективної роботи з інтенсивними тепловими вимогами ШІ.

Чипи були оптимізовані для обробки інференційних завдань, а не для більш складних тренувальних задач. Такий підхід відповідає стратегії компанії використовувати чипи в дата-центрах для таких сервісів, як Copilot і Azure OpenAI. Однак, Maia 100 досі знаходиться на етапі внутрішніх тестувань, оскільки розробка відбулася до різкого зростання популярності генеративного ШІ та великих мовних моделей.

«Який сенс будувати ASIC, якщо він не буде кращим за вже доступний?» – Генеральний директор Nvidia, Дженсен Хуанг

Натомість чипи Blackwell від Nvidia, які почали надходити в серію в кінці 2024 року, спроектовані як для тренування, так і для інференції на масивному масштабі. Ці чипи, що містять понад 200 мільярдів транзисторів, виробляються за спеціальним процесом компанії TSMC, що забезпечує високу швидкість та енергоефективність. Така технологічна перевага закріпила за Nvidia лідерство на ринку інфраструктури для ШІ по всьому світу.

Важливість цієї гонки за лідерство в розробці чипів для ШІ велика. Затримка Microsoft означає, що клієнти Azure доведеться ще деякий час покладатися на обладнання Nvidia, що може призвести до збільшення витрат та обмежити здатність Microsoft відрізняти свої хмарні сервіси від конкурентів. Тим часом Amazon та Google активно розвивають власні чипи: Amazon із чипами Trainium 3 та Google з сьомими поколіннями Tensor Processing Units, які набирають популярності в дата-центрах.

Компанія Nvidia, здається, не стурбована конкуренцією. Дженсен Хуанг, генеральний директор Nvidia, нещодавно зазначив, що хоча великі технологічні компанії інвестують у власні чипи для ШІ, він сумнівається в доцільності цього, якщо продукти Nvidia вже встановлюють стандарт по продуктивності та ефективності.