Угода OpenAI-NVIDIA на 100 мільярдів доларів: 10-гігаватна AI-інфраструктура
Рукостискання між Дженсеном Хуангом і Семом Альтманом - це більше, ніж корпоративна дипломатія. Їхні компанії щойно взяли на себе зобов'язання побудувати 10 гігават інфраструктури ШІ - достатньо обчислювальної потужності, щоб обслуговувати в мільярд разів більше можливостей, ніж одна система DGX, яку Хуанг особисто доставив в офіс OpenAI дев'ять років тому.¹ NVIDIA планує інвестувати до 100 мільярдів доларів у розгортання цих систем OpenAI, відзначаючи те, що Хуанг називає "найбільшим проектом інфраструктури штучного інтелекту в історії"².
Партнерство підійшло до критичного моменту. OpenAI обслуговує 700 мільйонів щотижневих активних користувачів, які в сукупності генерують обчислювальні запити, що перевершують можливості більшості національних суперкомп'ютерних центрів.³ Тим часом платформа NVIDIA наступного покоління Vera Rubin обіцяє вісім екзафлопс продуктивності ШІ та 100 ТБ швидкої пам'яті в одній стійці. Ці специфікації звучать як наукова фантастика, але вони стануть основою виробничих робочих навантажень з кінця 2026 року.⁴ Конвергенція модельних інновацій OpenAI з апаратними досягненнями NVIDIA створює інфраструктурну гру, яка змінює те, як ми думаємо про економіку ШІ.
Десятирічне партнерство досягає переломного моменту.
Співпраця між NVIDIA та OpenAI нагадує історію походження з Кремнієвої долини. У 2016 році Хуанг власноруч доставив перший суперкомп'ютер NVIDIA DGX до штаб-квартири OpenAI у Сан-Франциско, і ця мить закарбувалася на тепер уже культових фотографіях. Президент OpenAI Грег Брокман (Greg Brockman) згадує цей момент: "Партнерство представляє в мільярд разів більшу обчислювальну потужність, ніж той початковий сервер".
Компанії разом розсунули межі завдяки численним технологічним стрибкам. Апаратне забезпечення NVIDIA забезпечило розвиток серії GPT від OpenAI, починаючи з ранніх мовних моделей і закінчуючи вибуховим дебютом ChatGPT. Кожне покоління вимагало експоненціально більших обчислень, що змушувало NVIDIA прискорювати цикли розробки чіпів, а OpenAI вдосконалювала архітектуру моделей для максимізації ефективності апаратного забезпечення.
Нова угода формалізує те, про що спостерігачі індустрії давно підозрювали: ці компанії потрібні одна одній. OpenAI потребує величезних обчислювальних ресурсів для навчання суперінтелектуальних систем, в той час як NVIDIA отримує вигоду від модельних інновацій OpenAI, які демонструють її апаратні можливості. Компанії "кооптимізують свої дорожні карти для моделі та інфраструктури OpenAI", що передбачає глибоку технічну співпрацю, яка виходить за рамки простої динаміки "покупець-постачальник"⁶.
Платформа Vera Rubin перевизначає межі обчислень.
Платформа NVIDIA Vera Rubin NVL144 CPX від NVIDIA представляє собою стрибок нового покоління в проектуванні інфраструктури ШІ. Система інтегрує 144 графічні процесори Rubin CPX, 144 графічні процесори Rubin та 36 графічних процесорів Vera в одній стійці, що забезпечує в 7,5 разів більшу продуктивність ШІ, ніж системи NVIDIA GB300 NVL72.⁷ Ці цифри вражають навіть досвідчених інженерів інфраструктури. 1,7 петабайт на секунду пропускної здатності пам'яті дозволяє моделям обробляти контексти з мільйонами тегів без погіршення продуктивності.
Архітектура Rubin CPX представляє спеціалізовані схеми, оптимізовані для механізмів уваги мовних моделей і робочих навантажень з обробки відео. Кожен Rubin CPX має 128 гігабайт пам'яті GDDR7 на одному кристалі, а продуктивністьплатформи досягає 50 петафлопс у FP4 -це в 2,5 рази більше, ніж 20 петафлопс у Blackwell.⁸ NVIDIA розробила ці системи спеціально для робочих навантажень на виведення, які будуть домінувати в економіці ШІ, коли моделі перейдуть від досліджень до виробництва.
Vera представляє перший власний дизайн CPU від NVIDIA, заснований на архітектурі ядра Olympus. 88-ядерний процесор на базі Arm обіцяє вдвічі більшу продуктивність, ніж процесор Grace, що використовується в сучасних системах Blackwell.⁹ Тісна інтеграція між процесорами Vera та графічними процесорами Rubin через систему NVIDIA MGX усуває традиційні вузькі місця, які страждають від архітектур розподілених обчислень.
Економіка інфраструктури трансформує бізнес-моделі ШІ.
Фінансова інженерія, що стоїть за партнерством, показує, як розвивалася економіка інфраструктури ШІ. Зобов'язання NVIDIA інвестувати до 100 мільярдів доларів поступово, після розгортання кожного гігавата, створює нову модель фінансування, яка узгоджує стимули постачальника обладнання з успіхом клієнтів.⁰ Ця угода дозволяє OpenAI масштабувати інфраструктуру без значних початкових капітальних витрат, в той час як NVIDIA бере участь у створенні цінності, яку забезпечує її обладнання.
У масштабі платформа Vera Rubin обіцяє 30-50-кратну рентабельність інвестицій, що потенційно може призвести до 5 мільярдів доларів доходу з капітальних витрат у 100 мільйонів доларів.¹¹ Ці економічні показники докорінно змінюють те, як компанії оцінюють рішення щодо інфраструктури ШІ. Вартість одиниці інтелекту - показник, на якому наголошують обидві компанії, - різко знижується, коли системи досягають достатнього масштабу і використання.
Структура партнерства свідчить про те, що обидві компанії винесли уроки з циклів буму-спаду майнінгу криптовалют. Замість того, щоб продавати обладнання для спекулятивного попиту, NVIDIA пов'язує свої інвестиції з реальним розгортанням та використанням. OpenAI отримує передбачуване розширення потужностей відповідно до зростання кількості користувачів і термінів розробки моделей.
Регіональні наслідки змінюють географію центрів обробки даних.
Розгортання 10-гігаватної системи вимагає безпрецедентної потужності центрів обробки даних, яка змінить карти світової інфраструктури. Для порівняння, 10 гігават приблизно дорівнює енергоспоживанню 10 мільйонів будинків або центрального мегаполісу. Пошук локацій з доступною потужністю електроживлення, охолодження та мережевим підключенням такого масштабу представляє інженерні виклики, які конкурують з обчислювальною складністю.
Розвиток інфраструктури створює можливості для регіональних ринків центрів обробки даних, зокрема в Азіатсько-Тихоокеанському регіоні з надійними електромережами та перевагами охолодження. Країни з надлишком відновлюваної енергії та сприятливим регуляторним середовищем позиціонують себе як такі, що можуть взяти на себе частину цього розгортання. Графік партнерства - перші системи будуть введені в експлуатацію наприкінці 2026 року - дає операторам центрів обробки даних і урядам вузьке вікно для підготовки інфраструктури.
Професійний досвід розгортання стає критично важливим у таких масштабах. Різниця між теоретичними специфікаціями та експлуатаційною продуктивністю часто зводиться до ефективності охолодження, розподілу живлення та оптимізації з'єднань. Такі компанії, як Introl, з досвідом розгортання масивних кластерів графічних процесорів у різних географічних регіонах, розуміють нюанси, які визначають, чи забезпечать ці системи обіцяну продуктивність.
Конкуренція посилюється, але модель партнерства стає домінуючим підходом.
Альянс OpenAI-NVIDIA сигналізує про ширший зсув індустрії в бік глибокого партнерства між розробниками моделей і постачальниками обладнання. Співпраця Anthropic з Amazon Web Services та внутрішня розробка TPU в Google є варіаціями на ту саму тему. Розвиток ШІ вимагає безпрецедентної координації між програмними та апаратними інноваціями.
Позиція Microsoft додає складності в цю ситуацію. Як найбільший інвестор і хмарний партнер OpenAI, Microsoft повинна збалансувати свої інвестиції в інфраструктуру Azure з прямими відносинами OpenAI з NVIDIA. Компанії позиціонують свої зусилля як взаємодоповнюючі, але рішення про розподіл ресурсів будуть перевіряти цей наратив, оскільки обчислювальні потреби стрімко зростають.
Переваги партнерської моделі стають зрозумілими при розгляді альтернативних підходів. Створення власного кремнію вимагає років розробок і мільярдів доларів інвестицій з невизначеним результатом. Покладання лише на хмарних провайдерів призводить до збільшення маржі, що робить широкомасштабне навчання економічно складним. Пряма співпраця між OpenAI та NVIDIA усуває посередницькі витрати та прискорює інноваційні цикли.
Графік показує агресивний, але досяжний графік розгортання.
Перший гігават систем буде запущено в другій половині 2026 року, що збігається з виходом NVIDIA Rubin CPX.¹² Агресивний графік вимагає паралельного виконання декількох робочих потоків: виготовлення чіпів, будівництво центрів обробки даних, розгортання енергетичної інфраструктури та оптимізація програмного забезпечення. Кожен елемент має потенційні вузькі місця, які можуть затримати реалізацію 10-гігаватного бачення.
Виробничі партнери NVIDIA, в першу чергу TSMC, повинні виділити значні потужності для виробництва Rubin. Передові технології пакування, необхідні для Rubin CPX, додають складності за межами традиційного виробництва графічних процесорів. Диверсифікація ланцюжка поставок стає критично важливою, щоб уникнути єдиної точки відмови, яка може зірвати графік розгортання.
Період розгортання 2026-2030 років збігається з кількома технологічними переходами. Модернізація енергетичної інфраструктури, особливо в частині інтеграції відновлюваних джерел енергії, прискорюється, щоб задовольнити потреби центрів обробки даних. Технології оптичного з'єднання дозріли для задоволення зростаючих вимог до пропускної здатності. Інновації в галузі охолодження, від прямого рідинного охолодження до занурювальних систем, стають стандартними, а не експериментальними.
Інженерні виклики вимагають інновацій по всьому стеку.
Розгортання інфраструктури штучного інтелекту потужністю 10 гігават ставить перед інженерами інженерні виклики, які виводять сучасні технології за межі їхніх можливостей. Постачання електроенергії в таких масштабах вимагає координації з комунальними компаніями та потенційно виділених генеруючих потужностей. Одна стійка Vera Rubin, що споживає мегавати енергії, генерує тепло, яке традиційне повітряне охолодження не може ефективно розсіювати.
Мережева архітектура повинна розвиватися, щоб підтримувати паралелізм моделей на тисячах графічних процесорів. Пропускна здатність пам'яті 1,7 петабайта в секунду в стійці Vera Rubin означає, що зовнішня мережа стає основним вузьким місцем для розподіленого навчання. Інвестиції NVIDIA в технології оптичних з'єднань і комутаційний кремній усувають ці обмеження, але вимагають ретельного проектування системи.
Оптимізація програмного забезпечення стає не менш важливою. Моделі OpenAI повинні ефективно використовувати спеціалізовані схеми Rubin CPX для механізмів уваги. Прагнення компаній до спільної оптимізації своїх дорожніх карт передбачає глибоку співпрацю над технологіями компіляторів, оптимізацією ядра та еволюцією архітектури моделей. Приріст продуктивності від оптимізації програмного забезпечення часто перевищує покращення апаратного забезпечення в цьому масштабі.
Наслідки для ринку виходять за межі безпосередніх учасників.
Хвилеподібні ефекти партнерства поширюються на всю технологічну екосистему. Постачальники технологій охолодження спостерігають безпрецедентний попит на рішення для рідинного охолодження. Компанії, що займаються енергетичною інфраструктурою, прискорюють проекти з модернізації електромереж. Виробники оптичних компонентів масштабують виробництво, щоб задовольнити вимоги до інтерконекторів.
Війна за таланти загострюється, оскільки обидві компанії масштабують інженерні команди. Інженери з інфраструктури, які розуміються на оптимізації кластерів графічних процесорів, отримують преміальну винагороду. Інженери програмного забезпечення з досвідом розподіленого навчання стають безцінними. Партнерство створює тисячі високооплачуваних робочих місць у різних дисциплінах та географічних регіонах.
Невеликі компанії, що займаються штучним інтелектом, стоять перед суворим вибором: співпрацювати з хмарними провайдерами, які націнюють обладнання NVIDIA, або прийняти обчислювальні обмеження, що обмежують амбіції моделі. Економіка інфраструктури ШІ дедалі більше сприяє масштабуванню, створюючи природний тиск для консолідації в галузі.
Дорожня карта майбутнього натякає на сталий інноваційний ритм
Хоча поточна угода зосереджена на розгортанні Vera Rubin, обидві компанії сигналізують про тривалу співпрацю після 2030 року. Щорічна каденція архітектур NVIDIA (Blackwell, Rubin та неназвані майбутні платформи) передбачає постійне покращення продуктивності. Просування OpenAI до штучного загального інтелекту вимагає обчислювальних ресурсів, які зростають в геометричній прогресії з кожним стрибком у можливостях.
Зобов'язання щодо кооптимізації передбачає спільну розробку технологій, яка може призвести до інновацій, яких жодна з компаній не змогла б досягти самостійно. В результаті такої співпраці можуть з'явитися спеціальний кремній для конкретних модельних архітектур, нові підходи до охолодження для надщільних розгортань або проривні технології з'єднання.
Інші учасники можуть співпрацювати таким чином у майбутньому. Виробники чіпів, спеціалісти з охолодження та постачальники енергетичної інфраструктури можуть приєднатися до екосистеми, створивши інтегрований стек, оптимізований для робочих навантажень штучного інтелекту. Переваги вертикальної інтеграції стають нездоланними для конкурентів, які намагаються зібрати подібні можливості з окремих компонентів.
Висновок
Партнерство OpenAI та NVIDIA перетворює інфраструктуру ШІ з допоміжної технології на стратегічний диференціатор. Зобов'язання в розмірі 100 мільярдів доларів і цільовий показник розгортання 10 гігават встановлюють нові орієнтири для обчислювальних амбіцій. Коли ці системи з'являться в мережі з 2026 року, вони забезпечать можливості ШІ, які сьогодні існують лише в наукових роботах і науковій фантастиці.
Модель співпраці (глибока технічна інтеграція, узгоджені економічні стимули та спільні ризики) забезпечує шаблон для того, як трансформаційні технології досягають масштабу. Хоча залишаються проблеми з енергопостачанням, ефективністю охолодження та оптимізацією програмного забезпечення, структура партнерства заохочує вирішувати ці проблеми, а не оминати їх.
Для організацій, які планують інвестиції в інфраструктуру штучного інтелекту, послання зрозуміле: ера поступового нарощування потужностей добігла кінця. Конкурентоспроможне розгортання ШІ вимагає мислення гігаватами, а не мегаватами. Професійні інфраструктурні партнери, які розуміють цю динаміку масштабів, стають важливими для отримання вигоди від наступного етапу розвитку ШІ. Обчислювальне майбутнє, яке передбачають OpenAI та NVIDIA, настане швидше, ніж багато хто очікує. Питання лише в тому, хто буде готовий його використати.
Посилання
NVIDIA. "NVIDIA та OpenAI оголосили про найбільше розгортання інфраструктури штучного інтелекту в історії". Блог NVIDIA. 22 вересня 2025 року. https://blogs.nvidia.com/blog/openai-nvidia/.
NVIDIA. "NVIDIA та OpenAI оголосили про найбільше розгортання інфраструктури штучного інтелекту в історії". Блог NVIDIA. 22 вересня 2025 року. https://blogs.nvidia.com/blog/openai-nvidia/.
NVIDIA. "NVIDIA та OpenAI оголосили про найбільше розгортання інфраструктури штучного інтелекту в історії". Блог NVIDIA. 22 вересня 2025 року. https://blogs.nvidia.com/blog/openai-nvidia/.
AI Magazine. "Зсередини угоди OpenAI та Nvidia про створення АІ-інфраструктури вартістю $100 млрд". AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.
NVIDIA. "NVIDIA та OpenAI оголосили про найбільше розгортання інфраструктури штучного інтелекту в історії". Блог NVIDIA. 22 вересня 2025 року. https://blogs.nvidia.com/blog/openai-nvidia/.
AI Magazine. "Зсередини угоди OpenAI та Nvidia про створення АІ-інфраструктури вартістю $100 млрд". AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.
AI Magazine. "Зсередини угоди OpenAI та Nvidia про створення АІ-інфраструктури вартістю $100 млрд". AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.
Напіваналіз. "NVIDIA GTC 2025 - створена для міркувань, Віра Рубін, Kyber, CPO, Dynamo Inference, Jensen Math, Feynman". 19 березня 2025 року. https://semianalysis.com/2025/03/19/nvidia-gtc-2025-built-for-reasoning-vera-rubin-kyber-cpo-dynamo-inference-jensen-math-feynman/.
Wccftech. "NVIDIA Rubin та Rubin Ultra з процесорами наступного покоління Vera почнуть надходити в наступному році: До 1 ТБ пам'яті HBM4, графічні процесори розміром з 4-гігабайтну карту, 100PF FP4 і 88 процесорних ядер". 18 березня 2025 року. https://wccftech.com/nvidia-rubin-rubin-ultra-next-gen-vera-cpus-next-year-1-tb-hbm4-memory-4-reticle-sized-gpus-100pf-fp4-88-cpu-cores/.
NVIDIA. "NVIDIA та OpenAI оголосили про найбільше розгортання інфраструктури штучного інтелекту в історії". Блог NVIDIA. 22 вересня 2025 року. https://blogs.nvidia.com/blog/openai-nvidia/.
AI Magazine. "Зсередини угоди OpenAI та Nvidia про створення АІ-інфраструктури вартістю $100 млрд". AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.
AI Magazine. "Зсередини угоди OpenAI та Nvidia про створення АІ-інфраструктури вартістю $100 млрд". AI Magazine. 2025. https://aimagazine.com/news/behind-openai-and-nvidias-landmark-10gw-ai-data-centre-deal.