CoreWeave: Революція в інфраструктурі штучного інтелекту - як стартап з майнінгу криптовалют став основою штучного інтелекту вартістю 23 мільярди доларів
CoreWeave пройшла шлях від майнінгу криптовалют до найбільш спеціалізованого у світі постачальника хмарної інфраструктури для штучного інтелекту, експлуатуючи суперкомп'ютери на графічних процесорах у безпрецедентних масштабах, одночасно впроваджуючи рідинне охолодження та безметалеві архітектури, що відрізняють її від традиційних гіперскалерів. Перехід компанії від майнінгу Ethereum у 2017 році до роботи на GPT-моделях OpenAI є найдраматичнішим поворотом у Кремнієвій долині, підтвердженим борговим фінансуванням у розмірі $7,5 млрд при оцінці в $19 млрд (травень 2024 року) з подальшим вторинним продажем за $23 млрд (жовтень 2024 року), вибуховим зростанням доходу на 737% у 2024 році, а також рейтингом одного з найкращих у новій платформі ClusterMAX від SemiAnalysis; у звіті підкреслюється ізоляція користувачів, пустотіла архітектура Kubernetes і зрілість операційної системи CoreWeave.
Технічний рів, який побудувала CoreWeave, використовує спеціалізовану архітектуру, оптимізовану виключно для прискорених обчислень. Якщо традиційні хмарні провайдери балансують робочі навантаження загального призначення з обчисленнями на графічних процесорах, то CoreWeave цілеспрямовано створив кожен рівень свого стеку для додатків штучного інтелекту та високопродуктивних обчислень (ШІ та HPC). Їх архітектура Kubernetes на базі "голого металу" повністю усуває накладні витрати на віртуалізацію, а рідинне охолодження безпосередньо на чіпі дозволяє використовувати 130-кіловатні стійки, з якими не можуть зрівнятися системи з повітряним охолодженням. Ця фундаментальна архітектурна перевага в поєднанні з плануванням з урахуванням топології та мережею InfiniBand забезпечує, за даними CoreWeave, понад 50% модельного використання FLOPS на графічних процесорах класу Hopper - приблизно на 20% вище, ніж у базових моделях публічних фондів, згідно з їхніми внутрішніми бенчмарками.
Симбіотичні відносини компанії з NVIDIA виходять за рамки типових партнерських відносин з постачальниками: станом на березень 2025 року NVIDIA зберігає приблизно 6% акцій і постійно обирає CoreWeave для перших розгортань проривних архітектур. CoreWeave першою стала загальнодоступною з системами GB200 NVL72 (лютий 2025) і першою розгорнула системи GB300 NVL72 (3 липня 2025). Розгортання GB300 обіцяє те, що NVIDIA описує як "50-кратне покращення продуктивності виводу моделі міркувань", хоча це скоріше маркетинговий хід виробника, ніж результати незалежних тестів. (Маркетингові вказівки NVIDIA; незалежне тестування очікується).
Фінансові показники підкреслюють величезний ринковий попит на спеціалізовану інфраструктуру ШІ: CoreWeave досягла квартального доходу в $1,21 млрд (2 квартал 2025 року), утримуючи бэклог за контрактами на $30,1 млрд і заручившись підтримкою основних клієнтів - Microsoft (62% доходу в 2024 році), OpenAI (контракт до $11,9 млрд плюс розширення на $4 млрд) та інших лідерів ШІ, які потребують рівня продуктивності, оптимізованого для широкомасштабного навчання та висновків. Первинне розміщення акцій у березні 2025 року за ціною $40 за акцію принесло близько $1,5 млрд, завдяки чому CoreWeave стала публічною компанією, яка має всі шанси отримати вигоду зі зростанням глобального попиту на обчислення ШІ.
Однак за цим вибуховим зростанням криється значний ризик виконання зобов'язань, оскільки CoreWeave має борг у розмірі понад $11 млрд з відсотковими витратами у $267 млн у другому кварталі 25-го року (проти $67 млн у другому кварталі 24-го року), що означає річний темп приросту капіталу понад $1 млрд у міру зростання балансу. Така структура капіталу вимагає бездоганного виконання, оскільки компанія намагається розгорнути інфраструктуру, випереджаючи конкурентів-гіперскалерів. Надзвичайна концентрація клієнтів: на Microsoft припадає 62% доходів у 2024 році, а на двох найбільших клієнтів - 77%.
У цьому глибокому аналізі досліджується, як CoreWeave з самого початку створювала спеціалізовану інфраструктуру штучного інтелекту, чому їхні технічні переваги виявляються значущими в умовах конкуренції гіперскалерів і чи може їхня агресивна стратегія розширення зберегти технологічне лідерство, одночасно орієнтуючись на капіталомісткі реалії побудови інфраструктури ексафлоплексних обчислень. За допомогою технічної документації, тестів продуктивності та галузевого аналізу ми показуємо, як компанія, що почала майнити криптовалюту в гаражі в Нью-Джерсі, позиціонує себе як критично важливу інфраструктуру для розвитку штучного інтелекту - і які фінансові виклики можуть вплинути на цю траєкторію.
Перевага CoreWeave: Спеціально створена інфраструктура для робочих навантажень ШІ
Фундаментальне розуміння CoreWeave, що робочі навантаження ШІ вимагають кардинально іншої інфраструктури, ніж традиційні хмарні обчислення, зумовило архітектурні рішення, які тепер забезпечують вимірювані переваги в продуктивності для робочих навантажень навчання, тонкого налаштування та виводу. У той час як гіперскалятори інвестували сотні мільярдів доларів в оптимізацію веб-додатків, баз даних та корпоративного програмного забезпечення, CoreWeave визнала, що великі мовні моделі та нейронні мережі потребують надзвичайної пропускної здатності пам'яті, наднизької затримки з'єднань та стійкого тепловідведення, які центри обробки даних загального призначення намагаються забезпечити на постійній основі.
Технічна диференціація починається з повної вертикальної інтеграції, оптимізованої виключно для робочих навантажень на GPU. Підхід CoreWeave, заснований на bare-metal Kubernetes, забезпечує прямий апаратний доступ до ресурсів GPU, CPU, мережі та сховища без рівнів віртуалізації. Планування з урахуванням топології мінімізує затримки між GPU-зв'язком, а виділена мережа InfiniBand забезпечує пропускну здатність 400 Гбіт/с на GPU-з'єднання. Варто зазначити, що гіперскалькерні графічні процесори найвищого рівня тепер також пропонують високошвидкісну мережу - екземпляри A3 в Google Cloud забезпечують 3,2 Тбіт/с на віртуальну машину, ND H100 v5 від Azure забезпечує підключення класу 1,6-3,2 Тбіт/с, а кластери AWS P5 забезпечують мережу екземплярів 3200 Гбіт/с за допомогою SR-IOV/EFA. Різниця полягає не стільки в початковій швидкості каналу, скільки в топології кластера CoreWeave, оптимізації розміщення планувальника та управлінні тепловим режимом рідинного охолодження в масштабі стійки.
Згідно з опублікованими бенчмарками NVIDIA, Cohere досягає до 3 разів швидшого навчання на системах CoreWeave GB200 NVL72 у порівнянні з попереднім поколінням графічних процесорів Hopper - хоча це скоріше покращення апаратного забезпечення покоління, ніж порівняння між хмарами. Інші заяви про продуктивність циркулюють в галузевих дискусіях, але не мають публічного підтвердження від самих компаній.
Інновація бізнес-моделі виявляється не менш важливою - зосередившись виключно на обчисленнях на GPU, а не пропонуючи сотні послуг, CoreWeave може оптимізувати кожен аспект своєї діяльності для робочих навантажень зі штучним інтелектом. Ця спеціалізація забезпечує швидке розгортання нових поколінь обладнання (тижні проти кварталів у традиційних хмарах), спрощення операцій зі зменшенням витрат на управління, прямі відносини з клієнтами, для яких продуктивність є пріоритетом, та гнучкі моделі споживання, включаючи зарезервовані екземпляри, на вимогу та спотове ціноутворення, які будуть запущені наприкінці 2025 року.
Конкуренція між гіперскальперами посилюється, оскільки вони визнають стратегічну важливість інфраструктури ШІ: AWS, Google Cloud та Microsoft Azure розширюють свої пропозиції графічних процесорів за рахунок покращених мережевих можливостей та "голих" опцій. Проте спеціалізований підхід CoreWeave та перевага першопрохідця з новітнім обладнанням NVIDIA створюють диференціацію. Будучи єдиним одержувачем рейтингу ClusterMAX платинового рівня від SemiAnalysis станом на березень-квітень 2025 року, CoreWeave демонструє технічне лідерство - хоча ця рейтингова система планує оновлення кожні 3-6 місяців, а конкурентна динаміка продовжує розвиватися.
Від майнінгу Ethereum до навчання фундаментальних моделей: Малоймовірна історія походження
Трансформація CoreWeave з майнінгу криптовалют у потужну інфраструктуру ШІ розпочалася у 2017 році, коли співзасновники Майкл Інтратор, Брайан Вентуро та Бреннін Макбі усвідомили, що їхній досвід роботи з графічними процесорами може слугувати більш цінним цілям, ніж розв'язання криптографічних головоломок. Компанія з Віхокена, штат Нью-Джерсі, спочатку зосередилася на майнінгу Ethereum, накопичуючи тисячі графічних процесорів, розробляючи індивідуальні рішення для охолодження та програмне забезпечення для оркестрування, яке згодом виявилося безцінним для робочих навантажень штучного інтелекту.
Переломний момент настав у 2019 році, коли перехід Ethereum до системи підтвердження частки поставив під загрозу повне застарівання майнінгу на графічних процесорах. Замість того, щоб ліквідувати активи, як більшість майнерів, засновники CoreWeave визначили можливість нового ринку - надання обчислень на графічних процесорах для дослідників машинного навчання, які мали проблеми з доступом до апаратного забезпечення в традиційних хмарах. Серед перших клієнтів були академічні установи, які потребували швидких обчислень для експериментів, студії візуальних ефектів, що рендерили CGI для фільмів, та стартапи, що навчали моделі комп'ютерного зору.
Пандемія 2020 року прискорила розвиток CoreWeave, оскільки віддалена робота стимулювала попит на хмарний рендеринг, одночасно каталізуючи впровадження штучного інтелекту в різних галузях. Компанія підписала свій перший великий корпоративний контракт з хедж-фондом, який вимагав масивної паралельної обробки для моделювання ризиків, підтвердивши, що її бізнес-модель виходить за рамки криптовалютних спекуляцій. На кінець року CoreWeave використовувала понад 10 000 графічних процесорів, які обслуговували різноманітні робочі навантаження - від симуляції згортання білка до перекодування відео в реальному часі.
Прорив стався у 2022 році, коли OpenAI обрала CoreWeave в якості інфраструктурного партнера для навчання моделі GPT, приваблена можливістю швидкого розгортання тисяч графічних процесорів A100 з мережею InfiniBand - конфігурацією, оптимізованою для широкомасштабного навчання. Успішне розгортання підтвердило безпрецедентний масштаб архітектури CoreWeave, що призвело до розширення контрактів, які охоплюють додаткові базові моделі. Цей ключовий клієнт забезпечив стабільність доходів і технічну надійність, що привабило інших піонерів у галузі ШІ.
Венчурний капітал визнав стратегічну позицію CoreWeave у ланцюжку поставок ШІ: Magnetar Capital очолив серію B на суму 200 мільйонів доларів у 2022 році, після чого відбулося стрімке зростання оцінки. Залучення боргового фінансування в розмірі $7,5 млрд у травні 2024 року від Blackstone, Coatue та інших компаній при оцінці в $19 млрд стало одним з наймасштабніших приватних кредитних ліній в історії технологій, що дозволило провести агресивне розширення інфраструктури для задоволення зростаючого попиту.
Культурна ДНК майнінгу криптовалют - технічні ризики, оптимізація ефективності, надійність роботи в режимі 24/7 - ідеально перенесена на вимоги до інфраструктури штучного інтелекту. Ті самі інженери, які витискали з графічних процесорів максимальну швидкість хешування, тепер оптимізують тензорні операції, а фінансова дисципліна, необхідна для отримання прибутку від волатильних крипторинків, допомагає керувати капіталомістким інфраструктурним бізнесом. Ця малоймовірна історія походження демонструє, що технологічні прориви часто виникають не в традиційних галузях, а в суміжних, коли аутсайдери, не обмежені застарілим мисленням, створюють спеціалізовані рішення з перших принципів.
Складна структура капіталу відображає як можливості, так і ризики.
Структура капіталу CoreWeave відображає як величезні можливості інфраструктури ШІ, так і капіталомісткий характер конкуренції в гіпермасштабі. Історія фінансування включає $7,5 млрд боргових зобов'язань під приблизно 14% річних (травень 2024 року), загальний обсяг акціонерного фінансування, що перевищив $1 млрд у кількох раундах, вторинний продаж акцій, який оцінив компанію в $23 млрд (жовтень 2024 року), а також IPO на суму $1,5 млрд за ціною $40 за акцію (28 березня 2025 року), що дозволило створити публічну компанію з вартістю підприємства понад $35 млрд, включаючи борг.
Якірні інвестори демонструють стратегічну цінність, що виходить за рамки капіталу. Приблизно 6%-ва частка NVIDIA вартістю 900 мільйонів доларів станом на березень 2025 року та майже 1,6 мільярда доларів до травня гарантує привілейований доступ до поставок графічних процесорів під час обмежень розподілу, а також забезпечує технічну співпрацю з оптимізації апаратного/програмного забезпечення. Відносини Microsoft з клієнтами підтверджують, що CoreWeave є важливою інфраструктурою, особливо з огляду на масштабне партнерство з OpenAI, яке вимагає значних обчислювальних ресурсів. Консорціум інвесторів, до якого входять Fidelity, BlackRock та Altimeter, забезпечує інституційну довіру, що має вирішальне значення для корпоративних продажів та майбутнього залучення капіталу.
Концентрація клієнтів несе в собі як переваги, так і ризики. Відповідно до звітів за формою S-1, на Microsoft припадало приблизно 62% доходів CoreWeave у 2024 році - залежність, яка уможливила швидке масштабування, але створює вразливість у разі перегляду контрактів або стратегічних змін. Довгостроковий характер цих контрактів забезпечує певну стабільність, хоча конкретні терміни їх дії не розголошуються публічно (замовлення зазвичай тривають від двох до п'яти років). Зобов'язання OpenAI інвестувати до 11,9 мільярдів доларів, а також подальше розширення на 4 мільярди доларів, про яке повідомляється в матеріалах компанії для інвесторів, забезпечує додатковий якірний дохід. Розширення клієнтської бази, включаючи IBM та провідні фінансові установи, демонструє розширення ринку за межі початкових якірних орендарів.
Станом на 2 квартал 2025 року бэклог доходів у розмірі $30,1 млрд пропонує безпрецедентну видимість для інфраструктурної компанії, оскільки контрактні доходи представляють собою багаторічні форвардні зобов'язання - хоча ризик виконання залишається значним, враховуючи складність розгортання та експлуатації сотень тисяч графічних процесорів у десятках центрів обробки даних. Визнання доходу залежить від доступності інфраструктури, що створює тиск на підтримку агресивних графіків розгортання, забезпечуючи при цьому надійність, якої вимагають корпоративні клієнти.
Фінансові показники свідчать про складну питому економіку інфраструктури штучного інтелекту. Результати другого кварталу 2025 року показали $1,21 млрд доходу, але збитки зростають: компанія стикається з величезними амортизаційними відрахуваннями на обладнання, що швидко розвивається, процентні витрати наближаються до $1 млрд на рік, враховуючи боргове навантаження, а операційні витрати зростають разом із розгортанням інфраструктури. Шлях до прибутковості вимагає досягнення більшого масштабу для амортизації фіксованих витрат, покращення коефіцієнтів використання та підтримання цінової дисципліни, незважаючи на конкурентний тиск - тонкого балансу між зростанням та стійкістю.
Придбання у травні 2025 року компанії Weights & Biases за приблизно 1,7 мільярда доларів (за даними TechCrunch та галузевих звітів, хоча офіційні умови залишаються нерозкритими) додає можливості MLOps, одночасно збільшуючи складність інтеграції. Угода завершилася 5 травня 2025 року, об'єднавши інфраструктуру з інструментами розробки моделей, якими користуються понад 1 400 підприємств.
Ринкова позиція посилюється завдяки спеціалізації та партнерству.
Ринкова стратегія CoreWeave перевертає традиційні підходи до хмарних платформ, навмисно обмежуючи можливості для досягнення неперевершеної глибини обчислень на графічних процесорах. У той час як AWS пропонує понад 200 сервісів для всіх можливих робочих навантажень, CoreWeave надає спеціалізовану обчислювальну інфраструктуру на GPU, оптимізовану для навчання та висновків штучного інтелекту. Ця спеціалізація дозволяє оптимізувати архітектуру та підвищити операційну ефективність, яку універсальні платформи балансують з більш широкими вимогами.
Конкурентна динаміка продовжує стрімко розвиватися. Гіперскалятори значно розширили свої пропозиції графічних процесорів: AWS, Google Cloud та Azure тепер пропонують високошвидкісні мережеві опції, пустотілі екземпляри та покращену доступність графічних процесорів. Диференціація все більше зосереджується на доступності кластерного масштабу, оптимізації топології, терморегулюванні та інтеграції програмного стеку, а не лише на сирих специфікаціях.
Стратегія партнерства CoreWeave посилює її цілеспрямований підхід завдяки глибокій інтеграції екосистеми. Відносини NVIDIA виходять за рамки динаміки відносин між замовником і постачальником - частка участі NVIDIA в акціонерному капіталі і послідовний вибір CoreWeave для запуску нової архітектури (GB200 NVL72 в лютому 2025 року, GB300 NVL72 в липні 2025 року) демонструють стратегічну узгодженість. Партнерство з Databricks, Hugging Face та іншими платформами ШІ забезпечує сумісність робочих процесів без необхідності CoreWeave створювати конкуруючі сервіси.
Географічне розширення слідує за інноваційними центрами штучного інтелекту: 3,5 мільярда доларів США виділено на європейську інфраструктуру, в тому числі 1 мільярд фунтів стерлінгів на операції у Великобританії та об'єкти в Норвегії, Швеції та Іспанії, що використовують відновлювані джерела енергії. Станом на 2025 рік компанія управляє 33 центрами обробки даних з приблизно 470 МВт активної ІТ-потужності та близько 2,2 ГВт законтрактованої потужності (2 квартал 2025 року), позиціонуючись для подальшого зростання.
Стійка конкурентна перевага є результатом складних ефектів, коли спеціалізована інфраструктура приваблює вимогливих клієнтів, концентрований попит виправдовує постійні інвестиції, а технічне лідерство забезпечує ранній доступ до нових апаратних засобів. Це дає CoreWeave унікальну позицію, хоча ризики виконання залишаються значними, враховуючи вимоги до капіталу та конкурентний тиск.
Технічна інфраструктура: Інжиніринг ШІ в безпрецедентних масштабах
Станом на 2025 рік центр обробки даних CoreWeave охоплює 33 операційні об'єкти в США та Європі, що представляє одне з найбільших розгортань спеціалізованих графічних процесорів у світі. Географічний розподіл включає 28 американських локацій з основними розгортаннями, такими як об'єкт в Плано, штат Техас, вартістю 1,6 мільярда доларів, в якому розміщено 3500+ графічних процесорів H100 на 454 421 квадратному футі. В рамках MLPerf Training v5.0 (червень 2025) CoreWeave, NVIDIA та IBM досягли найбільшого в історії бенчмарку, використавши 2496 графічних процесорів GB200 для навчання Llama 3.1 405B за 27,3 хвилини - більш ніж удвічі швидше, ніж кластери порівнянного розміру від інших учасників.
Енергетична інфраструктура є критично важливим фактором диференціації з приблизно 470 мегават активної потужності та близько 2,2+ гігават, законтрактованих станом на 2 квартал 2025 року, включаючи потужності, розроблені для виняткової ефективності. Технологія рідинного охолодження, що підтримує 130 кіловат на стійку - у порівнянні з традиційними 30-кіловатними обмеженнями повітряного охолодження - дозволяє розгортати щільні конфігурації, такі як системи NVIDIA GB200 NVL72, що містять 72 графічні процесори в одній стійці.
Парк графічних процесорів базується на новітніх архітектурах NVIDIA і налічує близько 250 000 графічних процесорів. До складу входять варіанти H100 в конфігураціях SXM5 і PCIe, графічні процесори H200 з пам'яттю HBM3e об'ємом 141 ГБ, а також початкові розгортання систем на базі GB200 NVL72. CoreWeave досягла першої загальної доступності на ринку GB200 NVL72 (лютий 2025) і першого розгортання GB300 NVL72 (3 липня 2025), підтримуючи свою модель раннього доступу до нового обладнання NVIDIA.
Мережева основа використовує NVIDIA Quantum-2 InfiniBand, що забезпечує 400 Гбіт/с на GPU через адаптери ConnectX-7 у неблокуючих топологіях Fat Tree, що дозволяє досягти субмікросекундної затримки при високій пропускній здатності, хоча вихідна швидкість мережі тепер відповідає пропозиціям гіперскалерів топового рівня. Відмінність полягає в оптимізації топології, інтеграції планувальника та узгодженої конфігурації між кластерами.
Архітектура сховища базується на розгортанні VAST Data Platform з використанням дезагрегованої архітектури для незалежного масштабування. Система досягає стабільної пропускної здатності до 1 ГБ/с на графічний процесор завдяки оптимізованим схемам вводу/виводу, що відрізняють навчальні читання від контрольних записів. Технологія LOTA (Local Object Transfer Accelerator) від CoreWeave кешує дані, до яких часто звертаються, на вузлах GPU, зменшуючи мережевий трафік і одночасно підвищуючи пропускну здатність.
Програмний стек оптимізовано для роботи на голому залізі.
Архітектура Kubernetes CoreWeave усуває накладні витрати на віртуалізацію, запускаючи Kubernetes безпосередньо на апаратному забезпеченні. Цей підхід забезпечує прямий доступ до апаратного забезпечення, підтримуючи при цьому багатокористувацьку роботу за допомогою NVIDIA BlueField DPU. Внутрішні бенчмарки стверджують, що це забезпечує понад 50% модельного використання FLOPS на графічних процесорах Hopper - приблизно на 20% вище, ніж у загальнодоступних базових версіях, хоча незалежна перевірка цих конкретних цифр залишається обмеженою.
CoreWeave Kubernetes Service (CKS) виходить за рамки типового керованого Kubernetes, дозволяючи клієнту контролювати компоненти площини даних, в той час як CoreWeave керує площиною керування. Попередньо сконфігурований з драйверами графічних процесорів, мережевими/сховищними інтерфейсами та плагінами спостережливості, CKS інтегрується з інструментами оркестрування робочих навантажень, включаючи Slurm, KubeFlow та KServe.
SUNK (Slurm на Kubernetes) поєднує парадигми HPC та хмарних обчислень, розгортаючи Slurm як контейнерні ресурси Kubernetes, що дозволяє динамічно розподіляти ресурси між пакетними завданнями та довготривалими сервісами. Високий рівень використання досягається завдяки плануванню з урахуванням топології, оптимізованому для конфігурацій тканин InfiniBand.
Технологія Tensorizer прискорює розгортання моделей завдяки оптимізованій серіалізації та потоковому завантаженню, досягаючи швидкості завантаження моделей у 5 разів більшої, ніж стандартні підходи, згідно з тестами CoreWeave. Інструмент з відкритим вихідним кодом забезпечує завантаження "нульової копії", тобто потокове завантаження моделей фрагмент за фрагментом, замість того, щоб завантажувати моделі цілком в оперативну пам'ять.
Передові розгортання з перевіреними показниками продуктивності
Досягнення інфраструктури CoreWeave включають верифіковані подання MLPerf, які демонструють масштаб і продуктивність. У червні 2025 року MLPerf Training v5.0 з використанням 2496 графічних процесорів NVIDIA GB200 завершив навчання Llama 3.1 405B за 27,3 хвилини - це найбільший показник серед усіх хмарних провайдерів і більш ніж удвічі швидше, ніж у кластерів аналогічного розміру.
Згідно з результатами MLPerf Inference v5.0, продуктивність виведення досягає 800 токенів/сек на Llama 3.1 405B з використанням систем GB200, демонструючи 2,86-кратне покращення на чіп у порівнянні з H200. Архітектура GB200 NVL72 поєднує 72 графічних процесора Blackwell і 36 процесорів Grace в одній стійці, забезпечуючи 1,44 exaFLOPS з 13,5 ТБ пам'яті, підключеної через NVLink.
Рейтингова система ClusterMAX від SemiAnalysis помістила лише CoreWeave до платинового рівня на момент запуску в березні-квітні 2025 року, оцінюючи порівняно з AWS, Google Cloud, Azure та іншими провайдерами за більш ніж 50 технічними вимогами. Ця незалежна оцінка підтверджує технічну диференціацію, хоча рейтингова система планує регулярні оновлення в міру розвитку конкурентного середовища.
Технологічні партнерства розширюють можливості платформи.
Партнерство з NVIDIA виходить за рамки типових відносин з постачальниками: станом на травень 2025 року NVIDIA володіє приблизно 6% акцій компанії вартістю близько 1,6 мільярда доларів. Ця глибока інтеграція проявляється в послідовному розгортанні нових архітектур першими на ринку та спільній роботі над оптимізацією. Спільні заявки MLPerf демонструють цю технічну співпрацю.
IBM розгортає інфраструктуру CoreWeave для навчання за моделлю Granite, використовуючи системи GB200 з мережею Quantum-2 InfiniBand. Інфраструктурне партнерство Dell включає сервери PowerEdge XE9712 з GB200 NVL72 в стійках з рідинним охолодженням. VAST Data забезпечує зберігання даних у всіх центрах обробки даних CoreWeave завдяки своїй платформі з дезагрегованою архітектурою.
Придбання Weights & Biases за приблизно 1,7 мільярда доларів (завершено 5 травня 2025 року) створить інтегровану платформу штучного інтелекту, що поєднує інфраструктуру з можливостями MLOps. Платформа, яку використовують понад 1400 підприємств, включаючи OpenAI та Meta, підтримує інтероперабельність, додаючи інструменти для розробки та моніторингу моделей.
Майбутня траєкторія балансує між зростанням та фінансовою стійкістю.
Перспективні ініціативи CoreWeave включають кілька ключових розробок. Розгортання GB300 NVL72 (липень 2025) обіцяє те, що NVIDIA позиціонує як "50-кратне покращення продуктивності виводу моделі міркувань", хоча це скоріше прогнози постачальника, ніж незалежно перевірені тести. Спотовий прокат графічних процесорів, який буде запущено наприкінці 2025 року, забезпечить дешевші переривчасті екземпляри з динамічним ціноутворенням.
Європейська експансія загальною вартістю 3,5 мільярда доларів встановлює суверенітет даних за допомогою поновлюваних джерел енергії, що відповідають вимогам GDPR. Компанія продовжує масштабування до 1,6 гігават контрактної потужності, одночасно розширюючи можливості рідинного охолодження для підтримки обладнання наступного покоління.
Фінансові виклики вимагають ретельної навігації. Маючи понад 11 мільярдів доларів боргу, що генерує приблизно 1 мільярд доларів щорічних витрат на виплату відсотків, CoreWeave має збалансувати агресивне зростання та шлях до прибутковості. Ризик концентрації клієнтів залишається високим, оскільки на Microsoft припадає 62% доходів у 2024 році. Компанія повідомила про збільшення збитків у 2 кварталі 2025 року, незважаючи на досягнення $1,21 млрд квартального доходу.
Ринкові можливості залишаються значними: за прогнозами IDC, до 2027 року щорічні витрати на інфраструктуру штучного інтелекту становитимуть 500 мільярдів доларів США. Спеціалізований підхід і технічні переваги CoreWeave дають їм змогу отримати значну вигоду, хоча ризики виконання залишаються, враховуючи вимоги до капіталу, динаміку конкуренції та необхідність диверсифікувати клієнтську базу, зберігаючи при цьому темпи зростання.
Висновок
CoreWeave розробила спеціалізовану інфраструктуру штучного інтелекту, яка забезпечує відчутні переваги завдяки безметалевій архітектурі Kubernetes, рідинному охолодженню, що підтримує щільність стійок 130 кВт, і послідовному впровадженню новітніх технологій NVIDIA першими на ринку. Перехід від майнінгу криптовалют до статусу єдиного постачальника з платиновим рейтингом у системі ClusterMAX від SemiAnalysis (станом на березень 2025 року) демонструє успішну реалізацію цілеспрямованої стратегії. Завдяки досягненням, які можна перевірити, включаючи найбільше подання MLPerf Training - Llama 3.1 405B за 27,3 хвилини з використанням 2 496 графічних процесорів GB200 - і 30,1 мільярда доларів за контрактами, CoreWeave зарекомендував себе як критична інфраструктура для розвитку ШІ.
Однак шлях вперед вимагає подолання суттєвих викликів, серед яких борг у понад 11 мільярдів доларів, концентрація клієнтів, на яких припадає більша частина доходів у 2024 році, та конкуренція з боку все більш потужних пропозицій гіперскалерів. У міру того, як компанія масштабується до приблизно 2,2 гігават контрактної потужності і розгортає системи наступного покоління, її здатність зберігати технічне лідерство при досягненні фінансової стійкості визначатиме, чи зможе цей колишній крипто-майнер назавжди змінити ландшафт інфраструктури ШІ.
Дані станом на 15 серпня 2025 року. Джерела включають звітність компаній, документи Комісії з цінних паперів та бірж, бенчмарки MLPerf та галузевий аналіз від SemiAnalysis.
Посилання
CoreWeave, Inc. - Форма S-1 (первинна реєстраційна заява), SEC США, подана 3 березня 2025 року. (Історія доходів; зростання на 737% у 2024 році; історія компанії.)(SEC)
CoreWeave, Inc. - Проспект емісії (Форма 424B4), SEC США, квітень 2025 року. (Концентрація клієнтів; Microsoft = 62% доходу за 2024 рік.)(SEC)
CoreWeave - "CoreWeave повідомляє про сильні результати за другий квартал 2025 року", Business Wire/IR, 12 серпня 2025 року. (Дохід у другому кварталі $1,21 млрд, бэклог $30,1 млрд; ~470 МВт активних, ~2,2 ГВт законтрактованих; OpenAI $11,9 млрд + $4 млрд розширення).(Business Wire)
Reuters - "Виручка CoreWeave перевершила прогнози на бумі ШІ, але акції впали на більших збитках", 12 серпня 2025 року. (Результати 2-го кварталу; 33 центри обробки даних.)(Reuters).
Reuters - "CoreWeave залучає $7,5 млрд боргу при оцінці в $19 млрд", 17 травня 2024 року. (Приватний кредит; оцінка $19 млрд).
Reuters - "CoreWeave закриває вторинний продаж акцій на 650 мільйонів доларів... оцінений у 23 мільярди доларів", 13 листопада 2024 року.( Вторинна оцінка$23 млрд.)(Reuters)
SemiAnalysis - "Представляємо систему оцінки продуктивності хмарних графічних процесорів - ClusterMAX (Q2 2025)", квітень 2025. (Методологія ClusterMAX; CoreWeave = Platinum.)(SemiAnalysis).
CoreWeave - "Blackwell в масштабі: Загальна доступність GB200 NVL72 на CoreWeave", 4 лютого 2025 року. (Вперше для GA з GB200 NVL72.)(Reuters).
CoreWeave - "Перше розгортання NVIDIA GB300 NVL72" (блог), 3 липня 2025 року. (Перше розгортання GB300 NVL72.)(CoreWeave).
Блог розробників NVIDIA - "Blackwell Ultra для епохи штучного інтелекту", 19 березня 2025 року. (**"10× TPS на користувача" + "5× TPS на МВт" ⇒ "до 50-кратної продуктивності" - маркетингова заява).(Розробник NVIDIA)
MLCommons - MLPerf Training v5.0 Результати (2025). (Llama-3.1 405B 27.3 хвилини на 2,496 GB200; найбільше подання.)(Microsoft Learn)
MLCommons - MLPerf Inference v5.0 (Центр обробки даних) Результати (2025). (Llama-3.1 405B пропускна здатність/затримка в т.ч. порівняння GB200 та H200, що використовується в оглядах постачальників).(Microsoft Learn)
AWS - P5 Instances / EFA Networking (офіційний документ/блог).( Мережа примірниківдо 3200 Гбіт/с на p5 з EFA/SR-IOV.)(Amazon Web Services, Inc.)
Microsoft Azure - сторінка продукту "ND H100 v5-Series (Preview)".( Мережакласу 1,6-3,2 Тбіт/с.)(Документація AWS).
Блог Google Cloud - "A3 Ultra: 3,2 Тбіт/с GPU-мережі на віртуальну машину" (матеріал про запуск A3/A3 Ultra).(3,2 Тбіт/с на віртуальну машину.)(Google Cloud)
Dell Technologies - "Dell постачає перші сервери PowerEdge XE9712 з NVIDIA GB200 NVL72 для CoreWeave", 20 червня 2025 року. (Партнер з постачання серверів з рідинним охолодженням.)(CoreWeave).
VAST Data - "Масштабування продуктивності ШІ в CoreWeave" (тематичне дослідження/сторінка з рішеннями), 2025 рік. (VAST розгорнутий у всіх центрах обробки даних CoreWeave; архітектура вводу-виводу.)(CoreWeave).
Weights & Biases - "Ми приєднуємося до CoreWeave" (оголошення про придбання), 5 травня 2025 року. (W&B закриття угоди/терміни; напрямок інтеграції.)(FinTech Weekly - Головна сторінка)
Reuters - "CoreWeave інвестує додаткові $2,2 млрд в Європу, довівши загальну суму до $3,5 млрд", 5 червня 2024 року. (Масштаб європейської експансії/місцезнаходження.)(Reuters).
Investor's Business Daily - "Подача заявки на IPO CoreWeave за підтримки Nvidia демонструє великий стрибок доходів... Microsoft 62%; частка Nvidia 6%", березень 2025 року. (Підтверджує ~6% частку NVIDIA, зазначену в документах/пресі.)(Інвестори)