Google legt 40 Milliarden in Anthropic nach

10 Mrd. sofort, 30 Mrd. an Milestones gebunden, 5 GW zusätzliche TPU-Kapazität. Wie sich der Compute-Krieg auf Claude-Nutzer im DACH-Raum auswirkt.

Google hat am 24. April 2026 angekündigt, bis zu 40 Milliarden US-Dollar in Anthropic zu investieren. 10 Milliarden fließen sofort als Cash bei einer Anthropic-Bewertung von 350 Milliarden Dollar, weitere 30 Milliarden sind an Performance-Meilensteine gekoppelt. Parallel weitet Anthropic den am 22. April angekündigten TPU-Deal aus: 5 zusätzliche Gigawatt Google-Cloud-Kapazität über die nächsten fünf Jahre.

Die Zahl in Kontext

40 Milliarden für ein einzelnes Unternehmen klingen nach viel. Im aktuellen AI-Funding-Klima sind sie es nur bedingt:

Laut Crunchbase flossen im ersten Quartal 2026 weltweit 297 Milliarden Dollar in Venture Capital, davon 81 Prozent in KI-Unternehmen. Das ist mehr als das gesamte AI-Funding-Volumen des Jahres 2025 (211 Mrd.) in einem einzigen Quartal. OpenAI, Anthropic und xAI zusammen halten mittlerweile knapp eine Billion Dollar an privater Bewertung.

Was Google damit kauft

Drei Dinge:

  1. Compute-Vermarktung. Anthropic wird einen großen Teil seines Trainings und seiner Inferenz auf Google-TPUs verschieben. Die 5 GW Kapazität kommen ab 2027. Google verkauft Cloud, Anthropic kauft. Geld läuft in beide Richtungen.
  2. Strategische Versicherung. Claude überholt Gemini gerade im Enterprise-Segment, vor allem im US-Großkundengeschäft. Wenn Google nicht selbst gewinnt, gewinnt Google am Sieger mit. The Next Web nennt das "smart hedging in einem Markt, in dem niemand mehr sicher ist, wer das nächste dominante Modell baut".
  3. Anti-NVIDIA-Position. Anthropic war bisher stark auf NVIDIA-GPUs ausgerichtet. Mit dem TPU-Deal verschiebt sich das Trainings-Setup. Für Google ist jeder TPU-Workload bei einem Frontier-Lab eine Validierung des eigenen Stacks gegenüber CUDA.

Anthropic hat mittlerweile drei große Compute-Anker: AWS Bedrock (Amazon-Investment), Google Vertex AI plus TPU-Training (Google), eigene Direkt-API. Das macht das Lab finanziell sicherer, aber auch verflochtener.

Was Claude-Nutzer im DACH-Raum davon haben

Kurzfristig nichts Sichtbares. Pricing, Modelle und Verfügbarkeit ändern sich durch Investitionsdeals nicht über Nacht. Mittelfristig lohnt sich ein Blick auf drei Punkte:

  • Hosting-Optionen. Claude läuft schon heute in Claude Managed Agents, Amazon Bedrock, Google Vertex AI, Microsoft Foundry und GitHub Copilot. Mit dem zusätzlichen TPU-Investment verschiebt sich Anthropics Default-Hosting weiter in Richtung Google-Stack. Teams, die aus Compliance-Gründen schon heute zwischen Bedrock und Vertex wählen, sollten 2027 die Latenz-Profile neu vermessen.
  • Modell-Roadmap. Mehr Compute heißt schneller größere Modelle. Anthropic spricht in der Amazon-Compute-Ankündigung vom 20. April selbst von "inevitable strain" auf der Infrastruktur durch wachsende Enterprise-, Entwickler- und Consumer-Nachfrage. Das ist mit dem zusätzlichen 5-GW-Boost adressiert. Claude Opus 4.8 oder ein Mythos-Nachfolger werden damit wahrscheinlicher, nicht unwahrscheinlicher.
  • Pricing-Druck. Mehr Hyperscaler-Geld bedeutet auch: mehr Druck zum Skalieren. Der GitHub-Copilot-Pricing-Umbau vom 20. April und der GPT-5.5-Preisaufschlag zeigen, in welche Richtung sich die Rechnung bewegt. Die Investitionen müssen sich am Ende über Token-Preise refinanzieren.

Einordnung

Ein 40-Milliarden-Deal wäre 2023 die Schlagzeile des Jahres gewesen. 2026 ist es Mittwochsroutine. Was sich verändert hat: Geld fließt nicht mehr in Form klassischer Eigenkapital-Runden, sondern in Mischformen aus Cash, Compute-Krediten und Milestone-Klauseln. Anthropic, OpenAI und xAI sind dabei keine klassischen Startups mehr, sondern strategische Beteiligungen der Hyperscaler an deren eigenen Lieferketten.

Für IT-Profis im DACH-Raum heißt das pragmatisch: Die Modelle, mit denen wir täglich arbeiten, hängen finanziell und infrastrukturell tief in den US-Hyperscaler-Stacks. Wer das aus Compliance- oder Souveränitätsgründen problematisch findet, sollte die Diskussion um souveräne KI und um Open-Weight-Modelle wie Gemma 4 oder das gerade erschienene DeepSeek V4 nicht aus den Augen verlieren. Die Frontier ist gerade sehr gut finanziert, aber sehr eng konzentriert.

Quellen10