BitcoinWorld
Чіпи Google AI розкуто: запуск TPU 8t і 8i для виклику домінуванню Nvidia
У стратегічному кроці для захоплення більшої частки бурхливо зростаючого ринку штучного інтелекту Google Cloud оголосив про запуск своїх чіпів AI восьмого покоління в середу, 30 квітня, у Сан-Франциско, Каліфорнія. Компанія представила роздвоєний підхід, випустивши два спеціалізовані чіпи: TPU 8t для навчання моделей AI та TPU 8i для робочих навантажень з інференсу. Цей розвиток сигналізує про найзначніший крок Google, щоб запропонувати підприємствам потужну та економічно ефективну альтернативу галузевим стандартним GPU Nvidia, хоча пошуковий гігант стверджує, що його партнерство з лідером у галузі чіпів міцніше, ніж будь-коли.
Рішення Google розділити блок тензорної обробки (TPU) восьмого покоління на дві окремі моделі є значною еволюцією в його апаратній стратегії. Історично TPU обробляли як навчання, так і інференс, але вибухове зростання попиту на спеціалізовані обчислення для AI спонукало до цього архітектурного зрушення. TPU 8t розроблений спеціально для обчислювально інтенсивного процесу навчання великих мовних моделей та інших систем AI. Натомість TPU 8i оптимізований для інференсу — постійного процесу запуску навчених моделей для генерації відповідей на запити користувачів.
Згідно з еталонними показниками продуктивності Google, нові чіпи забезпечують суттєві покращення порівняно з попередниками. Компанія стверджує, що TPU 8t пропонує до 3 разів швидше навчання моделей AI та на 80% кращу продуктивність за долар. Крім того, інженерія Google тепер дозволяє понад одному мільйону TPU працювати разом в одному масивному кластері. Такий масштаб дозволяє навчати фронтирні моделі наступного покоління, що раніше були нездійсненними. Для хмарних клієнтів це означає значно більшу обчислювальну потужність при нижчому споживанні енергії та витратах.
Оголошення Google ставить його в центр ширшої тенденції великих хмарних провайдерів, що розробляють власний кремній. Amazon Web Services (AWS) має свої чіпи Graviton і Trainium, тоді як Microsoft Azure розробляє акселератори Maia. Цей рух, який часто називають «гонкою чіпів гіперскейлерів», зумовлений бажанням отримати більший контроль над ланцюгом постачання, оптимізацією продуктивності для конкретних програмних стеків та покращенням маржі витрат. Однак аналітики застерігають, що це не гра з нульовою сумою проти Nvidia.
«Наратив "гіперскейлери проти Nvidia" часто перебільшений», — пояснює Патрік Мур, відомий аналітик ринку чіпів. «Ці компанії будують додаткові потужності та оптимізують свої власні екосистеми. Вони не прагнуть повністю витіснити Nvidia, особливо в короткостроковій перспективі.» Мур у 2016 році передбачив, що перший TPU Google може загрожувати Nvidia та Intel, — прогноз, що виявився передчасним, оскільки ринкова капіталізація Nvidia відтоді зросла майже до 5 трильйонів доларів. Нинішня реальність є більш симбіотичною. Google, наприклад, підтвердив, що пропонуватиме наступний чіп Nvidia Vera Rubin у своїй хмарі пізніше цього року.
Фактично Google наголошує на своїй постійній співпраці з Nvidia. Два технологічні гіганти спільно розробляють рішення для комп'ютерних мереж, щоб системи на основі Nvidia працювали ефективніше на інфраструктурі Google Cloud. Ключовий проєкт включає вдосконалення Falcon — мережевої технології на основі програмного забезпечення, яку Google створив та відкрив у 2023 році. Ця співпраця підкреслює критичне галузеве розуміння: зростання хмарних сервісів AI розширює загальний адресований ринок для всього продуктивного кремнію, незалежно від того, чи він носить бренд Nvidia або хмарного провайдера.
Фінансова логіка зрозуміла. Оскільки підприємства дедалі більше переносять свої навантаження AI в хмару, попит на обчислення зростає. Хмарні провайдери можуть спрямовувати певні оптимізовані навантаження на свої власні чіпи, пропонуючи широку сумісність GPU Nvidia для інших. Ця гібридна модель дозволяє їм підвищувати прибутковість для деяких навантажень, зберігаючи повний вибір для клієнтів. Для Nvidia кожен новий додаток AI, розміщений у Google Cloud, є потенційним клієнтом для мережевого обладнання, програмних ліцензій і, в багатьох випадках, GPU.
Технічні характеристики нових TPU Google свідчать про скорочення розриву в продуктивності з найкращими в класі GPU. Увага до продуктивності за долар та енергоефективності вирішує дві основні проблеми для підприємств, що масштабують AI: стрімко зростаючі витрати та вплив на навколишнє середовище. Здатність Google з'єднувати понад мільйон TPU також безпосередньо кидає виклик одній з ключових переваг Nvidia — провідній технології NVLink для з'єднання великої кількості GPU.
Ключові переваги нових TPU Google:
Тим не менш, екосистема Nvidia, зокрема програмна платформа CUDA, залишається потужною перевагою. Мільйони розробників AI навчені на CUDA, і незліченні додатки побудовані для неї. Хоча чіпи Google підтримують популярні фреймворки, потреба в потенційному перенесенні додатків створює певні труднощі. Довгострокова боротьба може бути менш пов'язана зі швидкістю транзисторів і більше — з тим, яка платформа пропонує найбільш переконливе комплексне рішення для розробників і підприємств.
Запуск Google TPU 8t і TPU 8i знаменує переломний момент в еволюції інфраструктури AI. Це демонструє серйозну відданість компанії конкуренції на висококонкурентному ринку апаратного забезпечення AI, пропонуючи підприємствам потужні нові чіпи Google AI для спеціалізованих завдань. Однак оголошення також підкреслює складну, кооперативну природу сучасної напівпровідникової галузі. Замість фронтального наступу Google реалізує складну двошляхову стратегію: просування власного кремнію з одночасним поглибленням партнерства з Nvidia. Такий підхід забезпечує Google Cloud здатність задовольняти найширший можливий діапазон навантажень AI — від оптимізованих для власних TPU до тих, що вимагають універсального стандарту GPU Nvidia. Кінцевими переможцями, ймовірно, стануть підприємства, які виграють від посиленої конкуренції, більшого вибору та безперервних інновацій у продуктивності та вартості.
З1: Яка різниця між чіпами TPU 8t і TPU 8i Google?
TPU 8t розроблений спеціально для навчання моделей AI — процесу навчання моделі з використанням великих наборів даних. TPU 8i оптимізований для інференсу — процесу використання навченої моделі для прогнозування або генерації відповідей у режимі реального часу.
З2: Чи припинить Google Cloud пропонувати GPU Nvidia?
Ні. Google прямо заявив, що не замінює Nvidia. Компанія підтвердила, що пропонуватиме GPU Nvidia наступного покоління Vera Rubin у своїй хмарі пізніше цього року та активно співпрацює з Nvidia в галузі мережевих технологій.
З3: Як нові чіпи AI Google порівнюються з попередніми версіями TPU?
Google стверджує, що нові TPU восьмого покоління пропонують до 3 разів швидше навчання та на 80% кращу продуктивність за долар порівняно з попередніми поколіннями. Вони також підтримують кластери з понад одним мільйоном чіпів, що уможливлює навчання моделей більшого масштабу.
З4: Чому хмарні провайдери, як-от Google, будують власні чіпи AI?
Хмарні провайдери розробляють власний кремній для оптимізації продуктивності під конкретне програмне забезпечення та сервіси, отримання більшого контролю над ланцюгом постачання, підвищення економічної ефективності та диференціації своїх пропозицій на конкурентному ринку.
З5: Що це означає для майбутнього Nvidia?
Хоча власні чіпи від гіперскейлерів є конкуренцією, загальне зростання ринку AI розширює попит на всі високопродуктивні обчислення. Надійна програмна екосистема Nvidia (CUDA) та постійні інновації означають, що вона, ймовірно, залишиться домінуючою силою, навіть співпрацюючи з компаніями, що будують альтернативний кремній.
Ця публікація «Чіпи Google AI розкуто: запуск TPU 8t і 8i для виклику домінуванню Nvidia» вперше з'явилася на BitcoinWorld.


