Kühlung
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Kühlung innerhalb von Rechenzentren auf JetztStarten.de.
Einordnung
Dieses Cluster bündelt aktuelle Links, Zusammenfassungen und Marktinformationen zu einem klar abgegrenzten Thema.
Rubrik: KI Infrastruktur, Hardware & Rechenzentren
Unterrubrik: Rechenzentren
Cluster: Kühlung
Einträge: 75
Shenzhen launches China's first full-stack domestic 14,000P AI cluster
Am 26. März 2026 hat Shenzhen Chinas ersten vollwertigen 14.000P AI-Cluster mit einer vollständig inländischen Technologieplattform in Betrieb genommen. Ziel ist es, die Abhängigkeit von ausländischer Hardware und Software zu verringern. Der Cluster kombiniert eine 11.000P-Phase mit einer vorherigen 3.000P-Phase und bietet eine umfassende Infrastruktur für das Training großer KI-Modelle. In der heutigen Wettbewerbslandschaft ist es entscheidend, nicht nur die Leistung einzelner Chips zu berücksichtigen, sondern auch die Effizienz der Systeme in Bezug auf Stromversorgung, Kühlung und Vernetzung. Die innovative Supernode-Architektur des Clusters verbessert die Effizienz durch lokale Kommunikation innerhalb der Knoten und reduziert den Verkehrsaufwand zwischen Clustern. Mit einer Trainingslinearität von 93,12 % und einer niedrigen täglichen Ausfallrate von 0,3‰ zeigt das System hohe Zuverlässigkeit. Shenzhen positioniert den Cluster als kosteneffiziente und zuverlässige Infrastruktur, die sowohl für Entwickler als auch für Unternehmen von großem Interesse ist.
AI Data Center Market to Reach USD 123,596.19 Million by 2035 Amid Rapid Adoption of Generative AI, High-Performance Computing, and AI-Optimized Infrastructure - DC Market Insights
Der globale Markt für AI-Datenzentren wird bis 2035 voraussichtlich einen Wert von 123.596,19 Millionen USD erreichen, mit einem jährlichen Wachstum von 18,91 %. Dieses Wachstum wird durch die zunehmende Einführung von generativer KI, maschinellem Lernen und fortschrittlicher Analytik in verschiedenen Branchen gefördert. Unternehmen investieren verstärkt in leistungsstarke Recheninfrastrukturen, um komplexe KI-Modelle und große Datenmengen zu verarbeiten. Nordamerika dominiert den Markt mit über 38 % Marktanteil, während die Region Asien-Pazifik mit etwa 30 % das schnellste Wachstum zeigt. Herausforderungen wie hoher Energieverbrauch und komplexe Wärmeverwaltung stellen jedoch bedeutende Hürden dar. Marktteilnehmer müssen sich anpassen, um den Anforderungen an Energieeffizienz und regulatorische Vorgaben gerecht zu werden. Zukünftige Entwicklungen werden durch Innovationen in der Netzwerktechnologie, nachhaltigem Design und fortschrittlicher Kühlung geprägt sein, wobei hyperskalierte Einrichtungen die Haupttreiber des Marktwachstums bleiben.
Artilux Announces Inception™: A Hybrid Optoelectronic Architecture for the Next-Generation AI Computing
Artilux hat mit Inception™ eine innovative hybride optoelektronische Architektur für die nächste Generation des KI-Computings vorgestellt. Diese Technologie bietet signifikante Verbesserungen in Energie- und Flächeneffizienz, ohne auf fortschrittliche CMOS-Prozesse oder aktive Kühlung angewiesen zu sein. Inception™ zielt darauf ab, die Limitierungen traditioneller digitaler Prozessoren bei der Verarbeitung von KI-Workloads zu überwinden, indem sie Photonik und Elektronik in einem integrierten System kombiniert. Dies ermöglicht massive parallele Berechnungen und eliminiert die Notwendigkeit herkömmlicher Recheneinheiten. Die Architektur nutzt optoelektronische Neuronen, die Lichtemitter und Photodetektoren integrieren, um Eingaben und Gewichte effizient zu speichern und zu verarbeiten. Dadurch wird der Energieverbrauch durch reduzierte Datenbewegung gesenkt, während dynamische Gewichtsanpassungen für transformerbasierte KI-Modelle unterstützt werden. Artilux plant die Entwicklung eines ersten Prozessorkerns, der hohe Leistung bei niedrigem Energieverbrauch bieten soll, und positioniert sich damit an der Spitze der KI-Computing-Branche.
Gigabyte Aorus Mainboard: Warum Gaming-PC-Upgrades in DACH jetzt boomen
Der Markt für Gaming-PC-Upgrades in Deutschland, Österreich und der Schweiz erlebt einen Boom, insbesondere durch die Beliebtheit der Gigabyte Aorus Mainboards, die für ihre hohe Leistung und Stabilität geschätzt werden. Diese Mainboards bieten fortschrittliche Funktionen wie effektive Kühlung und Unterstützung für die neuesten AMD- und Intel-CPUs, was sie für Gamer und Content Creator attraktiv macht. Die wachsende Nachfrage nach leistungsstarker Hardware wird durch Trends im Gaming und in der KI-Anwendung verstärkt, während die Community in der DACH-Region kontinuierlich wächst. Gigabyte hebt sich durch automatisierte Fertigung und nachhaltige Komponenten ab, was die Qualität und Langlebigkeit ihrer Produkte unterstreicht. Im Vergleich zu Wettbewerbern wie ASUS und MSI bietet Aorus ein gutes Preis-Leistungs-Verhältnis, das es Retail-Käufern erleichtert, hochwertige Hardware zu erwerben. Mit Unterstützung für moderne Technologien wie DDR5-RAM und PCIe 5.0 sind die Mainboards zukunftssicher. Gigabyte investiert zudem stark in Forschung und Entwicklung, um innovative Features zu integrieren. Trotz geopolitischer Risiken und Herausforderungen in der Lieferkette bleibt die Verfügbarkeit von Produkten entscheidend, während die Diversifikation in verschiedene Hardware-Segmente das Potenzial hat, die Marktanteile weiter zu erhöhen.
Is This Sector the Hidden Bottleneck of the AI Boom? (Hint: It's Not Semiconductors.)
Der Artikel "Is This Sector the Hidden Bottleneck of the AI Boom? (Hint: It's Not Semiconductors.)" beleuchtet die entscheidende Rolle von Wasser in der Infrastruktur von Datenzentren, die für das Wachstum der Künstlichen Intelligenz (KI) in den USA unerlässlich sind. Wasser wird benötigt, um die Hardware in diesen Zentren zu kühlen, was die Effizienz von Transport, Filtration und Kühlung zu einem zentralen Marktaspekt macht. Unternehmen wie Xylem profitieren von dieser Entwicklung, da sie innovative Kühltechnologien und Lösungen zur Wasserverwaltung anbieten. Xylem verzeichnete ein Umsatzwachstum von 4 % und eine Steigerung der Nettobestellungen um 9 %. Auch American Water Works profitiert von regulierten Kapitalrenditen, die für den Ausbau der Wasserinfrastruktur notwendig sind, und meldete einen Betriebsumsatz von 5,1 Milliarden Dollar. Die steigende Nachfrage nach Wasser und den dazugehörigen Technologien könnte diese Unternehmen zu Schlüsselakteuren im KI-Sektor machen, obwohl ihre Aktien derzeit als teuer gelten.
Column: Corintis uses algorithms to target chip hotspots for precise cooling
Corintis hat innovative Algorithmen entwickelt, die gezielt heiße Stellen in Hochleistungsrechnern (HPC) und KI-Prozessoren identifizieren, um eine präzise Kühlung zu gewährleisten. Mit der zunehmenden Transistordichte in modernen Chips entstehen ungleichmäßige Wärmeverteilungen, die sich in scharfen Hotspots äußern. Diese Hotspots können die Leistung und Lebensdauer der Chips erheblich beeinträchtigen, weshalb eine effektive Kühlung unerlässlich ist. Die Algorithmen von Corintis optimieren die Kühlung, steigern die Gesamtleistung der Prozessoren und maximieren die Effizienz der Systeme. Durch die gezielte Ansprache der Wärmequellen werden potenzielle Überhitzungsprobleme minimiert, was langfristig zu einer verbesserten Zuverlässigkeit und Langlebigkeit der Hochleistungsrechner führen könnte.
Data Centre Liquid Cooling Market Growth Analysis: AI and HPC-Driven Demand Outlook
Der Markt für Flüssigkeitskühlung in Rechenzentren wird laut einer Analyse von Data Bridge Market Research von 4,40 Milliarden USD im Jahr 2026 auf 20,95 Milliarden USD bis 2033 wachsen, was einer jährlichen Wachstumsrate von 24,96 % entspricht. Dieser Anstieg wird durch die steigende Nachfrage nach KI- und Hochleistungsrechneranwendungen (HPC) sowie durch die Notwendigkeit effizienter Kühlung in hyperskaligen Rechenzentren vorangetrieben. Nordamerika zeigt die höchste Nachfrage, während die Region Asien-Pazifik das schnellste Wachstum verzeichnet, unterstützt durch Investitionen in digitale Infrastrukturen. Innovative Technologien wie Direct-to-Chip- und Immersionskühlung verbessern die Effizienz und werden zunehmend Standard in neuen Rechenzentrumsdesigns. Betreiber sehen sich jedoch Herausforderungen wie hohen Anfangsinvestitionen und der Notwendigkeit spezialisierter Wartung gegenüber, was die Einführung verlangsamen kann. Trotz dieser Hürden ergeben sich Chancen durch die Expansion in aufstrebenden digitalen Märkten und die wachsende Nachfrage nach Edge-Computing-Infrastrukturen.
Microloops rides AI boom, aims to double 2026 revenue
Microloops, ein Hersteller von Kühlmodulen, profitiert von einem Anstieg der Bestellungen eines wichtigen Kunden im Cloud-Dienstleistungssektor, was zu einem signifikanten Wachstum der Lieferungen von Kühlprodukten für künstliche Intelligenz führt. Dieser Trend begann im zweiten Quartal 2026 und verdeutlicht die hohe Nachfrage nach Kühlungslösungen in der AI-Branche. In Reaktion auf diese gesteigerte Nachfrage hat Microloops seine Umsatzprognosen für 2026 überarbeitet, mit dem Ziel, den Umsatz bis dahin zu verdoppeln. Die Entwicklungen im Bereich der künstlichen Intelligenz und die damit verbundenen Anforderungen an Kühlung könnten die Marktposition von Microloops langfristig stärken. Diese strategische Ausrichtung auf die Bedürfnisse der Cloud-Service-Provider (CSPs) könnte auch andere Unternehmen in der Branche beeinflussen, die ähnliche Produkte anbieten.
AI server cooling demand boosts heat sink makers' growth outlook
Die Hersteller von Kühlkörpern erleben einen signifikanten Aufschwung, bedingt durch die steigende Nachfrage nach KI-gesteuerten Servern. Unternehmen wie Asia Vital Components (AVC), Auras und Jentech verzeichnen im März 2026 Rekordumsätze, die auf die Einführung flüssiger Kühllösungen zurückzuführen sind. Diese Technologien ermöglichen eine effiziente Wärmeabfuhr in leistungsstarken Servern und sind entscheidend für die Kühlanforderungen der KI-Industrie. Die positive Marktentwicklung deutet darauf hin, dass die Nachfrage nach innovativen Kühltechnologien weiter steigen wird. In den kommenden Jahren könnten die Kühlkörperhersteller von einer stabilen Wachstumsdynamik profitieren, da die Notwendigkeit für effektive Kühlung in der zunehmend datenintensiven KI-Welt wächst.
The Heat Island Effect is Warming Up the AI Data Center Controversy
Der Artikel "The Heat Island Effect is Warming Up the AI Data Center Controversy" untersucht die Auswirkungen des Wärmeinseleffekts, der durch die Abwärme von Datenzentren verursacht wird. Eine aktuelle Studie zeigt, dass diese Abwärme die Umgebungstemperatur im Durchschnitt um etwa 2 Grad Celsius erhöhen kann, in extremen Fällen sogar um bis zu 9,1 Grad Celsius. Diese Wärme gelangt entweder in Gewässer oder direkt in die Atmosphäre, was in bereits hitzeanfälligen städtischen Gebieten problematisch ist. Obwohl theoretische Modelle die Effekte beschreiben, fehlen konkrete Messungen zur Bestätigung der tatsächlichen Auswirkungen. Die urbanen Wärmeinseln, die durch dunkle Oberflächen entstehen, stellen ein bekanntes Problem dar. Maßnahmen wie kühlende Farben oder grüne Dächer sind zwar hilfreich, reichen jedoch nicht aus, um die hohen Energiemengen, die für die Kühlung von KI-Anwendungen benötigt werden, zu kompensieren. Einige Experten schlagen vor, Datenzentren außerhalb städtischer Gebiete zu verlagern, um die negativen Klimaauswirkungen zu reduzieren.
New AI uses real-time weather insights to cut data center cooling costs by 25%
Ein Forschungsteam der Penn State hat ein innovatives KI-System entwickelt, das Echtzeit-Wetterdaten nutzt, um die Kühlkosten von Rechenzentren um 25 % zu senken. Angesichts des wachsenden Bedarfs an Cloud-Computing und KI stehen Betreiber unter Druck, Energiekosten zu minimieren, ohne die Leistung zu beeinträchtigen. Das System analysiert klimatische und wirtschaftliche Daten und empfiehlt Anpassungen der Kühlung zur Effizienzsteigerung. Durch den Einsatz eines digitalen Zwillings kann die KI verschiedene Szenarien simulieren, bevor sie in der Praxis umgesetzt werden. Diese adaptive Kühlung reagiert dynamisch auf externe Bedingungen, was eine flexible Anpassung der Kühlung ermöglicht, je nach Strompreisen. Diese Methode könnte auch die Effizienz im Kryptowährungs-Mining verbessern, wo Kühlungskosten hoch sind. Anstatt teure Hardware-Upgrades vorzunehmen, können Betreiber ihre bestehenden Systeme durch diese Software optimieren. Die Ergebnisse werden im Mai auf der IEEE ITherm-Konferenz präsentiert.
Starcloud raises $170M at a $1.1B valuation to build data centres in orbit
Starcloud, ein aufstrebendes Unternehmen aus Redmond, Washington, hat in einer Series-A-Finanzierungsrunde 170 Millionen Dollar gesammelt, was zu einer Bewertung von 1,1 Milliarden Dollar führt. Mit dieser Finanzierung plant das Startup den Bau von orbitalen Datenzentren, die durch unbegrenzte Solarenergie und passive Kühlung kosteneffizienter sein sollen als terrestrische Einrichtungen. CEO Philip Johnston hebt hervor, dass die strukturellen Vorteile, wie das Wegfallen von Genehmigungen und Landkäufen, entscheidend für die Kostensenkung sind, vorausgesetzt, die Startkosten sind tragbar. Starcloud hat bereits den Satelliten Starcloud-1 erfolgreich ins All gebracht, der die erste KI-Modellierung im Orbit durchführte. Die nächste Mission, Starcloud-2, ist für Oktober 2026 geplant und wird leistungsstärkere Hardware beinhalten. Langfristig strebt das Unternehmen an, eine Konstellation von 88.000 Satelliten zu etablieren, um die Kluft zwischen orbitalen und terrestrischen Kapazitäten zu schließen. Der Wettbewerb im Bereich orbitaler Datenzentren nimmt zu, da auch Unternehmen wie SpaceX und Blue Origin ähnliche Ambitionen verfolgen.
A Million New SpaceX Satellites Will Destroy the Night Sky — For Everyone on Earth
SpaceX plant, eine Million neue Starlink-Satelliten als orbitalen Datenzentren zu starten, was die Sichtbarkeit von Sternen am Nachthimmel erheblich beeinträchtigen würde. Derzeit sind bereits über 10.000 Starlink-Satelliten im Orbit, und Prognosen deuten darauf hin, dass die neue Anzahl die Sichtbarkeit von Sternen übersteigen könnte. Diese Satelliten würden in höheren Umlaufbahnen positioniert, was ihre Sichtbarkeit verlängert. Die Auswirkungen auf die Astronomie wären gravierend, da die künstlichen Lichter die natürlichen Himmelskörper überstrahlen würden. Zudem ignoriert SpaceX wichtige Aspekte wie atmosphärische Verschmutzung und Kollisionsrisiken. Die Technologie zur effektiven Kühlung der Satelliten und zur Vermeidung von Abfallproblemen ist noch nicht ausgereift, was die Machbarkeit des Projekts in Frage stellt. Trotz der Bedenken von Astronomen genehmigte die US-amerikanische Federal Communications Commission (FCC) den Antrag von SpaceX und eröffnete eine kurze Kommentierungsfrist. Kritiker warnen, dass die unregulierte Expansion von Satelliten nicht nur den Nachthimmel, sondern auch die Atmosphäre und die Sicherheit auf der Erde gefährden könnte.
Data center cooling demand will outlast AI bubble, Ecolab says
Ecolab Inc. hat kürzlich einen bedeutenden Deal im Wert von 4,75 Milliarden Dollar abgeschlossen, um CoolIT Systems Inc. zu erwerben. Das Unternehmen erwartet, dass die Nachfrage nach Datenzentrumskühlung auch bei einer möglichen Verlangsamung des KI-Ausbaus weiter wachsen wird. Josh Magnuson, Geschäftsführer für globale Wasserlösungen bei Ecolab, prognostiziert ein Umsatzwachstum von mindestens 20% pro Jahr im Datenzentrumsbereich, bedingt durch die steigende Nachfrage nach Rechenleistung und die Notwendigkeit, ältere Einrichtungen zu modernisieren. Unabhängig von der Diskussion über eine KI-Blase wird die Notwendigkeit für Kühlung in Datenzentren zunehmen, da neue Technologien und energieintensive Chips entwickelt werden. Ecolab sieht großes Potenzial in der Kombination seiner Wasserbehandlungsdienste mit den Kühlsystemen von CoolIT. Derzeit nutzen nur 5% der Datenzentren Flüssigkeitskühlung, doch Magnuson erwartet, dass dieser Anteil in den nächsten zehn Jahren erheblich steigen wird. Die Akquisition von CoolIT spiegelt einen Trend wider, bei dem Unternehmen in der Datenzentrumsinfrastruktur aktiv nach Wachstumschancen suchen.
ModulEdge and Comino Partner to Deliver Turnkey On-Premise AI Infrastructure for European Enterprises
ModulEdge und Comino haben eine Partnerschaft gegründet, um integrierte On-Premise-AI-Infrastrukturen für Unternehmen in Europa und dem MENA-Raum anzubieten. Ziel dieser Zusammenarbeit ist es, die langen Beschaffungszyklen traditioneller Infrastrukturen von 12 bis 18 Monaten auf 3 bis 6 Monate zu verkürzen, um Unternehmen einen schnelleren Zugang zu KI-Technologien zu ermöglichen. Durch die Kombination von ModulEdge's modularen Rechenzentren mit Cominos flüssigkeitsgekühlten GPU-Systemen wird nicht nur die Bereitstellungszeit verkürzt, sondern auch die Datenhoheit und Kontrolle vor Ort sichergestellt. Die innovative flüssige Kühlung senkt zudem die Betriebskosten und den CO2-Fußabdruck im Vergleich zu herkömmlichen Systemen. Diese Partnerschaft reagiert auf die wachsende Nachfrage nach schnellen und sicheren KI-Computing-Lösungen, ohne die Komplexität der Verwaltung mehrerer Anbieter. ModulEdge und Comino nehmen bereits Bestellungen entgegen, mit einer typischen Lieferzeit von 3 bis 6 Monaten.
Schneider Electric und NVIDIA entwickeln validierte Blueprints für KI-Rechenzentren im Gigawattbereich
Schneider Electric und NVIDIA haben innovative Blueprints für KI-Rechenzentren im Gigawattbereich entwickelt, um den wachsenden Anforderungen an Energieeffizienz und Leistung gerecht zu werden. Diese Initiative umfasst eine umfassende Referenzarchitektur für Stromversorgung und Kühlung sowie eine Lifecycle-Digital-Twin-Architektur, die den Betrieb und Aufbau solcher Rechenzentren optimiert. Durch den Einsatz von Software und digitalen Zwillingen können Betreiber ihre Infrastrukturen simulieren und optimieren, was Risiken minimiert und die Implementierung beschleunigt. Die neue Architektur berücksichtigt spezifische Infrastrukturanforderungen, wie erhöhte Versorgungsspannungen und verbesserte IT-Raumarchitekturen, um die Effizienz zu steigern. Zudem wird ein KI-gestützter Ansatz für das Alarmmanagement erprobt, der Echtzeitdaten nutzt, um Störungen schneller zu diagnostizieren und zu beheben. Diese Entwicklungen zielen darauf ab, die Zeit bis zum produktiven Betrieb zu verkürzen und die Resilienz der Rechenzentren zu erhöhen.
SiMa.ai Introduces Modalix PCIe HHHL Card, Purpose-Built to Support LLMs for Industrial PCs and Edge Server Physical AI Applications
SiMa.ai hat die Modalix PCIe HHHL Card vorgestellt, die speziell für die Anforderungen von Physical AI entwickelt wurde und die Leistung ihres Vorgängermodells verdoppelt. Diese Karte ermöglicht die Ausführung komplexer multimodaler Modelle und LLMs in energieeffizienten Umgebungen und ist im Standard-Half-Height, Half-Length-Format konzipiert. Sie integriert GMSL-Kamera-Schnittstellen und Ethernet-Konnektivität, wodurch der Betrieb ohne zusätzliche Stromversorgung oder aktive Kühlung möglich ist. Mit der Unterstützung von bis zu 16 Video-Kanälen ist die Modalix-Karte besonders geeignet für kostensensitive Anwendungen in den Bereichen Einzelhandel, Fertigung und Verteidigung. SiMa.ai verfolgt das Ziel, die Integration von KI in bestehende und neue industrielle PC-Infrastrukturen zu erleichtern und so die Effizienz und Leistung zu steigern. Die Verfügbarkeit der Karten beginnt im zweiten Quartal, mit Angeboten für sowohl kommerzielle als auch industrielle Temperaturvarianten.
Expanding computing resources with light for AI datacenters
Der Artikel mit dem Titel "Expanding computing resources with light for AI datacenters" behandelt innovative Ansätze zur Erweiterung der Rechenressourcen in Rechenzentren für Künstliche Intelligenz (KI) durch den Einsatz von Lichttechnologien. Angesichts der steigenden Nachfrage nach Rechenleistung und der damit verbundenen Herausforderungen in Bezug auf Energieverbrauch und Kühlung wird die Nutzung von optischen Technologien als vielversprechende Lösung hervorgehoben. Durch die Implementierung von Lichtwellenleitern und photonischen Schaltkreisen können Datenübertragungsraten erheblich gesteigert und gleichzeitig der Energieverbrauch gesenkt werden. Der Artikel beleuchtet auch die potenziellen Vorteile dieser Technologien für die Effizienz und Skalierbarkeit von KI-Anwendungen. Abschließend wird die Notwendigkeit weiterer Forschung und Entwicklung in diesem Bereich betont, um die Integration von Licht in zukünftige Rechenzentrumsarchitekturen voranzutreiben.
Foxconn Interconnect Technology pushes deeper into AI infrastructure with photonic-thermal integration play
Foxconn Interconnect Technology (FIT) hat im Jahr 2026 auf verschiedenen Branchenveranstaltungen innovative Lösungen für Konnektivität, Energie und Kühlung vorgestellt, um seine Rolle in der KI-Computing-Lieferkette zu erweitern. Das Unternehmen setzt dabei auf die Integration von photonischen und thermischen Technologien, um die Effizienz der Datenübertragung und Kühlung zu steigern. Diese Entwicklungen könnten die Leistungsfähigkeit von KI-Systemen erheblich verbessern, indem sie schnellere und effizientere Datenverarbeitung ermöglichen. FITs Engagement in diesem Bereich verdeutlicht die Notwendigkeit für Unternehmen, sich an neue Technologien anzupassen, um im wettbewerbsintensiven KI-Markt erfolgreich zu sein. Durch strategische Kooperationen und innovative Produkte strebt FIT an, seine Position im Bereich der KI-Infrastruktur zu festigen.
ASUS Unveils Game-Changing Liquid-Cooled AI Infrastructure Powered by NVIDIA Vera Rubin Platform
ASUS hat auf der NVIDIA GTC 2026 eine bahnbrechende, vollständig flüssigkeitsgekühlte KI-Infrastruktur vorgestellt, die auf der NVIDIA Vera Rubin-Plattform basiert. Diese innovative Lösung ermöglicht es Unternehmen und Cloud-Anbietern, leistungsstarke und energieeffiziente KI-Cluster zu erstellen, die durch hohe Flexibilität und Effizienz bestechen. Das Flaggschiffprodukt, der ASUS AI POD, ist darauf ausgelegt, massive KI-Workloads effizient zu verarbeiten. Durch strategische Partnerschaften mit führenden Anbietern für Kühlung und Komponenten werden maßgeschneiderte Lösungen angeboten. Die neuen Server-Serien, die auf NVIDIA HGX Rubin NVL8-Systemen basieren, erfüllen die Anforderungen moderner Rechenzentren und erleichtern die Umstellung auf Flüssigkeitskühlung. Zudem hat ASUS ein robustes Datenspeicher-Ökosystem entwickelt, um die Entwicklung von KI zu demokratisieren und skalierbare Lösungen bereitzustellen. Mit dem ASUS AI Hub wird eine Plattform angeboten, die Unternehmen bei der Entwicklung maßgeschneiderter KI-Assistenten und der Nutzung von Echtzeit-Business-Intelligence unterstützt. Nachhaltigkeit ist ein zentrales Element der Designphilosophie von ASUS, wobei innovative Technologien zur Reduzierung des Energieverbrauchs und der Umweltauswirkungen integriert sind.
Compal Introduces High-Density NVIDIA HGX™ Rubin NVL8 Integrated Solution at GTC 2026
Compal hat auf der GTC 2026 die hochdichte NVIDIA HGX™ Rubin NVL8 integrierte Lösung vorgestellt. Diese innovative Technologie zielt darauf ab, die Leistung und Effizienz in Rechenzentren zu steigern, indem sie eine kompakte und leistungsstarke Plattform für KI- und Datenverarbeitungsanwendungen bietet. Die Rubin NVL8-Lösung kombiniert fortschrittliche NVIDIA-Grafikprozessoren mit optimierter Kühlung und Energieverwaltung, um eine hohe Rechenleistung bei gleichzeitig geringem Platzbedarf zu gewährleisten. Compal positioniert sich mit diesem Produkt als Vorreiter im Bereich der Hochleistungsrechner und adressiert die wachsenden Anforderungen an Rechenkapazität in verschiedenen Industrien. Die Einführung dieser Lösung könnte signifikante Auswirkungen auf die Entwicklung von KI-Anwendungen und Cloud-Diensten haben.
AI datacenters may gulp a New York City's worth of water on hot days
Eine Studie der University of California, Riverside, warnt, dass die steigende Wasseranforderung von Rechenzentren in den USA bis 2030 erhebliche Belastungen für die Wasserversorgungssysteme mit sich bringen könnte, insbesondere an heißen Tagen. Diese Rechenzentren nutzen Wasser zur Kühlung, was zu einem Bedarf von bis zu 1,45 Milliarden Gallonen pro Tag führen könnte – vergleichbar mit der täglichen Wasserversorgung von New York City. Während der jährliche Wasserverbrauch moderat erscheint, könnte die Spitzenentnahme an heißen Tagen viele lokale Wasserversorgungssysteme überfordern. Besonders große Serverfarmen, die auf Verdunstungskühlung setzen, verbrauchen während extremer Hitze Millionen Gallonen Wasser täglich. Um diese Herausforderungen zu bewältigen, empfehlen die Autoren, dass Betreiber ihre Spitzenwasserverwendung melden und mit lokalen Gemeinschaften zusammenarbeiten, um die Infrastruktur zu verbessern. Zudem sollten sie ihre Kühlmethoden anpassen, indem sie wasserbasierte Kühlung in Zeiten hoher Nachfrage und trockene Kühlung bei Wasserknappheit nutzen. Andernfalls könnte die Wasserversorgung in vielen Regionen gefährdet sein.
TienPin eyes stable growth in 2026 as AI server liquid-cooling cleaning demand heats up
Titel: TienPin strebt stabiles Wachstum im Jahr 2026 an, angetrieben durch steigende Nachfrage nach Reinigungsdiensten für KI-Server Zusammenfassung: TienPin United Enterprise verzeichnet seit der zweiten Hälfte des Jahres 2025 einen signifikanten Anstieg der Nachfrage nach Reinigungsdiensten für Flüssigkeitskühlung in KI-Servern. Diese Entwicklung hat zu einer hohen Kapazitätsauslastung im vierten Quartal 2025 geführt. Der Anstieg der Nachfrage ist eng mit dem wachsenden Interesse an KI-Technologien verbunden, die eine effiziente Kühlung erfordern. TienPin plant, von diesem Trend zu profitieren und strebt ein stabiles Wachstum im Jahr 2026 an. Die fortlaufende Entwicklung und Verbesserung der Flüssigkeitskühltechnologien wird voraussichtlich die Marktbedingungen weiter begünstigen, was nicht nur die Marktposition von TienPin stärken könnte, sondern auch die breitere Akzeptanz dieser Technologien in der Branche fördern könnte.
Huawei presenta la solución Xinghe AI Fabric 2.0 mejorada para la era de la IA
Huawei hat auf dem MWC Barcelona 2026 die verbesserte Lösung Xinghe AI Fabric 2.0 sowie den ersten kommerziellen Switch mit 51,2 Terabit und Flüssigkeitskühlung vorgestellt. Diese Innovationen sollen die digitale und intelligente Transformation von Unternehmen weltweit unterstützen. Die Xinghe AI Fabric 2.0 basiert auf einer dreischichtigen Netzwerkarchitektur und bietet fortschrittliche Funktionen wie hohe Zuverlässigkeit und automatisierte Prozesse. Der neue CloudEngine XH9230-128DQ-LC Switch ermöglicht durch seine verbesserte Kühlung eine effizientere Nutzung von Server-Racks. Zudem präsentierte Huawei eine umfassende Produktreihe von 800GE-Switches und optischen Modulen, die durch ihre Zuverlässigkeit und Übertragungsreichweite bestechen. In Zukunft plant Huawei, die technologische Innovation in Rechenzentrumsnetzwerken weiter voranzutreiben und gemeinsam mit globalen Partnern neue Lösungen zu entwickeln, um den Wert für verschiedene Industrien zu steigern.
Edler Mini-PC mit viel Power: Minisforum AI X1 mit Ryzen 7 H 255 im Test
Der Minisforum AI X1 ist ein kompakter und leistungsstarker Mini-PC, der mit einem AMD Ryzen 7 H 255 Prozessor ausgestattet ist und sich hervorragend für Full-HD-Gaming eignet. Mit 32 GB RAM und einer 1 TB SSD bietet er eine beeindruckende Hardwarekonfiguration, verpackt in einem eleganten Aluminiumgehäuse. Die integrierte Radeon 780M Grafikeinheit liefert starke Leistungen in verschiedenen Spielen und erzielt auch bei Büroanwendungen hohe Benchmark-Ergebnisse. Trotz seiner Leistungsfähigkeit bleibt der AI X1 leise und kühl, was auf eine effektive Kühlung hinweist. Ausgestattet mit modernen Anschlüssen wie USB4 und Wifi 7 ist das Gerät zukunftssicher. Der Preis von 670 Euro wird als fair angesehen, besonders im Vergleich zu ähnlichen Modellen. Insgesamt erhält der AI X1 eine hohe Bewertung von viereinhalb von fünf Sternen und wird als empfehlenswert eingestuft, wobei Käufer die Herausforderungen beim Erwerb über chinesische Händler hinsichtlich Gewährleistung und Verbraucherrechten beachten sollten.
[MWC 2026] SK Telecom Forms Global AI Data Center Alliance
Auf dem Mobile World Congress 2026 hat SK Telecom eine Partnerschaft mit Supermicro und Schneider Electric angekündigt, um eine integrierte Lösung für den Bau von KI-Datenzentren zu entwickeln. Ziel dieser Zusammenarbeit ist es, die Bauzeiten und Kosten durch die Anwendung der "prefab modular" Methode zu reduzieren. Diese Methode ermöglicht die Vorfertigung von Infrastrukturkomponenten wie Stromversorgung, Kühlung und IT in modularen Einheiten, die vor Ort montiert werden. Dadurch wird nicht nur die Bauzeit erheblich verkürzt, sondern auch eine flexible Anpassung an die steigende Nachfrage ohne hohe Anfangsinvestitionen ermöglicht. Supermicro wird leistungsstarke Server und GPU-Cluster entwickeln, die auf die spezifischen Kundenbedürfnisse abgestimmt sind, während Schneider Electric ein integriertes Modell für das Management von Energie und Automatisierung bereitstellt. Ha Min-yong, Leiter des AI DC-Geschäfts bei SK Telecom, betont, dass diese Kooperation es ermöglicht, proaktiv auf die Anforderungen großer Technologieunternehmen zu reagieren und die Kostenwettbewerbsfähigkeit zu steigern.
Nvidia's Vera Rubin platform faces HBM4, cooling, and software hurdles ahead of ramp
Nvidia hat seine Vera Rubin-Plattform in die Phase der frühen Kundenmuster überführt und plant eine Produktionssteigerung im Laufe des Jahres. Das Unternehmen sieht sich jedoch mit mehreren Herausforderungen konfrontiert, insbesondere bei der Implementierung von HBM4, der Kühlung und der Softwareentwicklung. Diese technischen Hürden könnten den Fortschritt und die Effizienz der Plattform beeinträchtigen und somit die Markteinführung negativ beeinflussen. Ingenieure arbeiten intensiv an Lösungen, um die Leistung der Plattform zu optimieren und die Produktionsziele zu erreichen. Die erfolgreiche Bewältigung dieser Herausforderungen ist entscheidend, um Nvidias Wettbewerbsfähigkeit im dynamischen Technologiemarkt zu sichern.
Samsung hält sich vornehm zurück: Das sind die Galaxy-S26-Gegner der 17er iPhones
Samsung hat die Galaxy-S26-Serie vorgestellt, die mit minimalen Verbesserungen und einem starken Fokus auf KI-Technologien auf den Markt kommt, um gegen die iPhone-17-Modelle anzutreten. Die neuen Modelle, Galaxy S26, S26+ und S26 Ultra, unterscheiden sich hauptsächlich durch ihre Kamerainseln und ein optimiertes Innenleben. Viele KI-Funktionen könnten auch für ältere Modelle durch Updates verfügbar sein. Trotz eines Anstiegs der Verkaufszahlen der S25-Serie bleibt Samsung hinter den iPhones zurück, insbesondere in Bezug auf Marktanteile. Die Preise der neuen Geräte sind gestiegen, was es für Samsung erschwert, Käufer zu gewinnen, da auch die Speicherpreise zugenommen haben. Das Galaxy S26 Ultra bietet ein innovatives "Privacy Display" und eine verbesserte Kamera, während die anderen Modelle in der Ausstattung weitgehend unverändert bleiben. Die KI-Funktionen wurden weiterentwickelt, um das Teilen von Fotos und die Terminorganisation zu erleichtern. Angetrieben werden die neuen Smartphones von Qualcomms Snapdragon 8 Elite Gen 5, was eine verbesserte Kühlung und schnellere Ladezeiten ermöglicht.
Dutch AI inference chipmaker Axelera AI raises $250M
Axelera AI, ein niederländischer Hersteller von KI-Inferenzchips, hat in einer Finanzierungsrunde 250 Millionen Dollar gesammelt, angeführt von Innovation Industries und unterstützt von Investoren wie BlackRock. Dies ist die größte Finanzierung, die jemals von einem EU-Unternehmen im Bereich KI-Halbleiter erzielt wurde, wodurch die Gesamtsumme auf über 450 Millionen Dollar steigt. Das Unternehmen entwickelt Chips und Software für die Ausführung von KI-Modellen auf Edge-Geräten, um die Energieeffizienz durch lokale Datenverarbeitung zu steigern. CEO Fabrizio Del Maffeo hebt hervor, dass die Architektur von Axelera AI darauf abzielt, Herausforderungen wie Energieverbrauch und Kühlung in Rechenzentren zu bewältigen. Ziel ist es, die Effizienz und wirtschaftliche Machbarkeit von KI-Anwendungen zu verbessern und gleichzeitig den Datenschutz zu gewährleisten. Axelera AI bedient derzeit 500 Kunden aus verschiedenen Branchen, darunter Verteidigung, Agrartechnologie und Robotik.
ChatGPT creator defends AI energy use because humans need food too
Sam Altman, CEO von OpenAI, hat die hohe Energieverwendung von KI-Systemen wie ChatGPT verteidigt, indem er sie mit den Ressourcen verglich, die für die menschliche Entwicklung benötigt werden. Er argumentierte, dass das Aufwachsen eines Menschen ebenfalls erhebliche Energie erfordere, einschließlich der 20 Jahre Lebenszeit und der gesamten Nahrung, die in dieser Zeit konsumiert wird. Altman erkannte die Bedenken hinsichtlich des Energieverbrauchs an, plädierte jedoch für den Einsatz neuer Energiequellen wie Kernkraft und erneuerbare Energien, um die KI nachhaltiger zu gestalten. Zudem wies er die Sorgen über den Wasserverbrauch zur Kühlung von Rechenzentren als unbegründet zurück und bezeichnete diese Bedenken als "völlig verrückt". Seine Aussagen stießen auf breite Kritik, da viele der Meinung waren, dass er den Wert menschlichen Lebens und die Unterschiede zwischen menschlicher und künstlicher Intelligenz nicht ausreichend berücksichtigte.
Should I worry about how much water my AI chatbot conversations are using?
Die zunehmende Nutzung von Künstlicher Intelligenz (KI) wirft Fragen zum Wasserverbrauch auf, da Datenzentren zur Kühlung und Energieerzeugung Wasser benötigen. Schätzungen über den Wasserverbrauch variieren stark: Während einige Quellen angeben, dass ChatGPT für eine durchschnittliche Anfrage weniger als 1/15 Teelöffel Wasser benötigt, sprechen andere von bis zu 500 ml für mehrere Antworten. Experten warnen, dass die Wasserknappheit bis 2030 um 40 Prozent zunehmen könnte, was die Belastung bereits begrenzter Wasserressourcen in wasserarmen Regionen verstärken könnte. Trotz der Bedenken wird argumentiert, dass der individuelle Wasserverbrauch von KI-Nutzern im Vergleich zu alltäglichen Aktivitäten gering ist. Dennoch ist es wichtig, die Auswirkungen auf die lokale Umwelt und die Wasserverfügbarkeit zu berücksichtigen, insbesondere da viele Datenzentren in ökologisch sensiblen Gebieten liegen. Einige Fachleute sehen auch Chancen, wie KI zur Wassereinsparung in anderen Bereichen beitragen kann, etwa durch verbesserte Leckageerkennung. Die Diskussion über den Wasserverbrauch von KI und dessen langfristige Umweltfolgen bleibt somit von großer Relevanz.
Could AI Data Centers Be Moved to Outer Space?
Die rapide Zunahme von Rechenzentren, ausgelöst durch den AI-Boom, führt zu einem signifikanten Anstieg des Energieverbrauchs, der bis 2028 22 Prozent der Haushalte in den USA betreffen könnte. Diese Entwicklung hat nicht nur Auswirkungen auf die Energiepreise, sondern auch auf die Wasserressourcen, da die Kühlung der leistungsstarken AI-Chips große Mengen Wasser erfordert. Angesichts des Widerstands vieler Gemeinden gegen neue Rechenzentren wird die Idee diskutiert, diese ins All zu verlagern. Dort könnten sie von Solarenergie profitieren und Kühlprobleme durch die kalten Temperaturen im Weltraum umgehen. Dennoch gibt es erhebliche technische Herausforderungen, insbesondere die ineffiziente Wärmeabfuhr im Vakuum und die Größe der benötigten Anlagen. Eine mögliche Lösung könnte ein Netzwerk kleiner Satelliten sein, die besser für die Wärmeabfuhr geeignet sind. Allerdings würde dies die bereits überfüllte Erdumlaufbahn weiter belasten und das Risiko von Kollisionen erhöhen. Trotz der theoretischen Machbarkeit solcher Systeme bleibt die Frage, ob die hohen Kosten und Risiken gerechtfertigt sind.
Hyperscale Data Center Colocation Market: The Physical Foundation of the AI Era
Der Hyperscale Data Center Colocation Markt erlebt eine rasante Expansion, die die digitale Infrastruktur revolutioniert. Im Gegensatz zu traditionellen Anbietern, die kleinere Unternehmen bedienen, fokussiert sich der Hyperscale-Markt auf große Technologiefirmen, die immense Kapazitäten für Generative AI benötigen. Dies führt zur Schaffung von Gigawatt-Campus, die den Energieverbrauch einer kleinen Stadt aufweisen und für Supercomputing-Cluster optimiert sind. Ein bedeutendes Power Purchase Agreement mit einem Entwickler kleiner modularer Reaktoren verdeutlicht den Trend zur Nutzung nuklearer Energie, um überlastete Stromnetze zu entlasten. Zudem wird die Kühlung von Rechenzentren von Luft- auf Flüssigkeitskühlung umgestellt, um den Anforderungen moderner AI-GPUs gerecht zu werden. Die Branche entwickelt maßgeschneiderte Lösungen durch langfristige Partnerschaften zwischen Hyperscalern und Colocation-Anbietern. Zukünftig wird eine Konvergenz von Edge- und Hyperscale-Rechenzentren erwartet, um Latenzzeiten bei AI-Modellen zu reduzieren. Trotz Herausforderungen wie hoher Energieabhängigkeit und regulatorischen Anforderungen bietet der Markt Chancen in sekundären Märkten und durch die Wiederverwendung von Abwärme.
Semiconductor Thermal Management Materials Market (2026): Emerging Technologies & Investment opportunity for AI Chips, HPC, Automotive & Electronics
Der Markt für Materialien zur Wärmeableitung in Halbleitern zeigt ein starkes Wachstum, bedingt durch die steigende Nachfrage aus den Bereichen Hochleistungsrechnen, Unterhaltungselektronik, Automobilindustrie und Telekommunikation. Innovative Materialien wie thermische Gels und Graphen-basierte Lösungen verbessern die Wärmeleitfähigkeit und sind besonders wichtig für KI-Chips und Hochleistungsrechner. Unternehmen investieren intensiv in Forschung und Entwicklung, um den Bedarf an effizienten Wärmeableitungslösungen zu decken, was zu einem Boom in der Branche führt. Prognosen zeigen, dass thermische Interface-Materialien (TIMs) den größten Marktanteil halten werden, während flüssige Kühlung die am schnellsten wachsende Kategorie darstellt. In den USA und Japan wurden kürzlich bedeutende Produktinnovationen und Erweiterungen der Produktionskapazitäten angekündigt, um den Anforderungen der Industrie gerecht zu werden. Die zunehmende Integration von Halbleitern in Technologien wie Elektrofahrzeugen und IoT-Geräten verstärkt die Nachfrage weiter.
Energy-hungry AI and air conditioning risk wiping out climate gains made by renewables
Die zunehmende Nutzung von energiehungrigen Künstlichen Intelligenzen (KI) und der steigende Bedarf an Klimaanlagen könnten die Fortschritte, die durch erneuerbare Energien erzielt wurden, gefährden. Während der Übergang zu nachhaltigen Energiequellen positive Auswirkungen auf die Reduzierung von Treibhausgasemissionen hat, führt der hohe Energieverbrauch von KI-Anwendungen und die wachsende Nachfrage nach Kühlung in heißen Klimazonen zu einem Anstieg des Gesamtenergiebedarfs. Diese Entwicklungen könnten die positiven Effekte der erneuerbaren Energien zunichte machen, wenn nicht gleichzeitig Maßnahmen zur Effizienzsteigerung und zur Reduzierung des Energieverbrauchs ergriffen werden. Es ist entscheidend, ein Gleichgewicht zwischen technologischen Fortschritten und den Zielen des Klimaschutzes zu finden, um die Erfolge im Bereich der erneuerbaren Energien nicht zu gefährden.
M5Stack AI Pyramid-Pro: 24 TOPS Edge-KI im Kompaktformat
Die M5Stack AI Pyramid-Pro ist eine kompakte Edge-AI-Box, die auf dem Axera AX8850 SoC basiert und lokale KI-Anwendungen ermöglicht, ohne auf Cloud-Dienste angewiesen zu sein. Mit einer dedizierten NPU, die 24 TOPS bei INT8 erreicht, eignet sich das Gerät besonders für Bilderkennung und Sprachverarbeitung. Die integrierte Video-Engine unterstützt die Verarbeitung von 8K-Videos und mehrere 1080p-Streams gleichzeitig, was die Effizienz erhöht. Zudem bietet die AI Pyramid-Pro zahlreiche Anschlüsse wie HDMI, USB und Ethernet sowie integrierte Audiokomponenten für Sprachassistenten. Sicherheitsfunktionen wie Secure-Boot und Hardware-Kryptomodule machen das Gerät für produktive Umgebungen geeignet. Mit einem Gewicht von etwa 195 Gramm und aktiver Kühlung ist es als kompakter Desktop-Rechner konzipiert und ideal für Projekte wie lokale Bildanalyse oder Sprachverarbeitung. Tutorials erleichtern den Einstieg für Nutzer.
AI data-center spend to hit $80bn by 2030 to escape power crunch
Die Dell’Oro Group prognostiziert, dass die Ausgaben für KI-Rechenzentren bis 2030 auf 80 Milliarden Dollar steigen werden, trotz der Herausforderungen durch Energieknappheit und thermische Grenzen. Um diesen Problemen zu begegnen, investiert die Branche in innovative Infrastrukturdesigns, die verbesserte Kühlung und neue Stromarchitekturen umfassen. Die Nachfrage nach physischer Infrastruktur in Rechenzentren bleibt stark, da Betreiber kreative Strategien zur Kapazitätserhöhung umsetzen, wie die Einführung von direkt flüssigkeitsgekühlten Systemen und neuen Layouts. Kühlung wird zunehmend als entscheidender Faktor in der Rechenzentrumsarchitektur angesehen, was zu einem signifikanten Wachstum in diesem Bereich führt. Zudem wird die Notwendigkeit, vor Ort Energie zu erzeugen, immer dringlicher, da Verzögerungen bei der Netzanbindung und Übertragungsengpässe alternative Lösungen erfordern. Trotz dieser Herausforderungen zeigt sich die Branche optimistisch und plant, die Infrastruktur anzupassen, um den steigenden Anforderungen gerecht zu werden.
Insight: ASIC servers accelerate liquid cooling adoption, share set to surge in 2026
Die Einführung von Flüssigkeitskühlung in Rechenzentren wird zunehmend durch ASIC-Server vorangetrieben, nachdem Nvidia-Server bereits den Weg geebnet haben. Laut DIGITIMES Research wird Flüssigkeitskühlung bis 2026 etwa 50 % der thermischen Lösungen für KI-Server ausmachen. Diese Technologie ermöglicht eine effizientere Kühlung und könnte die Leistung sowie Energieeffizienz von Servern erheblich steigern. Unternehmen, die auf KI-Anwendungen setzen, müssen ihre Infrastruktur anpassen, um wettbewerbsfähig zu bleiben. Die Branche rechnet mit einem signifikanten Anstieg der Nachfrage nach Flüssigkeitskühlungslösungen in den kommenden Jahren, was die Notwendigkeit unterstreicht, innovative Kühltechnologien zu integrieren.
SpaceX übernimmt xAI für 1,25 Billionen Euro
SpaceX hat die KI-Firma xAI für 1,25 Billionen Euro übernommen, um orbitalen Rechenzentren zu entwickeln, die den Energiebedarf moderner KI-Systeme mit Solarenergie aus dem All decken sollen. Diese Fusion kombiniert SpaceX's Raumfahrtexpertise mit der KI-Forschung von xAI, einschließlich des Chatbots Grok. Geplant ist eine Satellitenkonstellation von bis zu einer Million Einheiten, die als vernetztes Rechencluster im Orbit agieren und kostengünstige KI-Rechenleistung bieten. Diese Übernahme wird als strategischer Schritt angesehen, um im Wettbewerb mit großen Cloud-Anbietern wie Amazon und Microsoft zu bestehen. Allerdings gibt es Bedenken hinsichtlich der technischen Herausforderungen, insbesondere bei der Kühlung der Hochleistungsprozessoren im Vakuum. Ein geplanter Börsengang könnte bis zu 50 Milliarden Euro einbringen, um die Entwicklung der orbitalen Rechenzentren zu finanzieren. Insgesamt zielt die Übernahme darauf ab, die Infrastruktur des Weltraums und die Rechenkraft der KI zu dominieren und die Entwicklung der künstlichen Intelligenz von irdischen Einschränkungen zu befreien.
Waste2Nano Launches "Wastewater-Cooled AI" Platform; Seeks U.S. Manufacturing Site and 2026 Pilot Partners
Waste2Nano LLC hat die innovative Plattform "Wastewater-Cooled AI" ins Leben gerufen, die Abwasser zur Kühlung von KI-Datenzentren nutzt, um den Frischwasserbedarf zu senken und die Schlammentsorgung zu optimieren. Diese modulare Technologie verknüpft Abwasserinfrastruktur mit der Herstellung fortschrittlicher Materialien, was die Wirtschaftlichkeit und Skalierbarkeit erhöht. Die erste Implementierung ist für eine Kapazität von 10.000 bis 20.000 m³ pro Tag geplant, wobei Abwasser sowohl als Kühlmittel als auch als Rohstoff für hochleistungsfähige Zellulosematerialien dient. Durch die Nutzung von Abwärme aus Datenzentren wird der Produktionsprozess kostengünstiger und die Schlammvolumina werden reduziert. CEO Dr. Refael Aharon hebt hervor, dass die Kühlung von KI mit Trinkwasser ineffizient ist und sieht in der Abwasserwiederverwertung eine nachhaltige Lösung. Das Unternehmen sucht derzeit nach einem Produktionsstandort in den USA und Partnern für Pilotprojekte im Jahr 2026.
Telekom-Rechenzentrum soll deutsche KI-Leistung um die Hälfte steigern
Die Deutsche Telekom hat in München ihr größtes KI-Rechenzentrum eröffnet, das mit modernster Nvidia-Technologie ausgestattet ist. Ziel ist es, die KI-Leistung in Deutschland um 50 Prozent zu steigern. Das Rechenzentrum, das seit Mitte 2025 umgebaut wurde, ermöglicht deutschen und europäischen Kunden einen souveränen Betrieb ihrer KI-Modelle und bietet ausreichend Rechenleistung für das Training großer Sprachmodelle, darunter das europäische LLM Soofi. Der Umbau erfolgt durch die Telekom-Sparte T-Systems in Zusammenarbeit mit dem Partner Polarise. Mit einer geplanten Rechenleistung von 0,5 Exaflops wird das Zentrum etwa die Hälfte der gesamten KI-Performance in Deutschland bereitstellen. Technisch bemerkenswert ist die Nutzung von Wasser aus dem nahegelegenen Eisbach zur Kühlung des Rechenzentrums. Obwohl bereits erste KI-Server vermietet sind, ist der Ausbau noch nicht vollständig abgeschlossen. Die Telekom investiert zusammen mit Partnern rund 1 Milliarde Euro in das Projekt, das mit einer anfänglichen Kühl- und Versorgungsleistung von 12 Megawatt startet und auf 20 Megawatt ausgebaut werden soll. Bei der Eröffnung waren hochrangige Politiker, darunter der bayerische Ministerpräsident und der deutsche Vizekanzler, anwesend.
Nvidia reclaims cooling control as AI CDU ushers software-defined thermal management
Nvidia hat einen bedeutenden Schritt in der thermischen Verwaltung von AI-Datenzentren vollzogen, indem es von traditionellen Kühlsystemen zu einer softwaredefinierten, integrierten Kühlung übergeht. Diese als "Cooling Reform" bezeichnete Initiative zielt darauf ab, die Effizienz und Kontrolle über thermodynamische Prozesse in Rechenzentren zu verbessern. Durch die Einführung dieser neuen Technologien kann Nvidia nicht nur die Kühlkosten reduzieren, sondern auch die Gesamtleistung der Rechenzentren steigern. Die Veränderungen in der Kühlung haben weitreichende Auswirkungen auf die gesamte Halbleiter-Lieferkette und markieren den Beginn einer neuen Ära in den thermischen Managementstrategien. Diese Entwicklungen könnten andere Unternehmen in der Branche dazu anregen, ähnliche Ansätze zu verfolgen, um ihre Wettbewerbsfähigkeit zu sichern.
Musk says solar space-based AI data centres possible in two to three years
Elon Musk hat auf dem Weltwirtschaftsforum in Davos angekündigt, dass solarbetriebene KI-Datenzentren im Weltraum innerhalb von zwei bis drei Jahren realisierbar sein könnten. Er betonte, dass Solarenergie im All aufgrund der konstanten Sonneneinstrahlung und der geringeren atmosphärischen Dämpfung bis zu fünfmal effektiver sei als auf der Erde. Die extrem kalten Bedingungen im Weltraum würden zudem eine effiziente Kühlung der Solarzellen ermöglichen, was die Betriebskosten für KI-Infrastrukturen weiter senken könnte. Musk plant, diese Technologien mit SpaceX zu realisieren, das durch wiederverwendbare Raketen die Kosten für den Zugang zum Weltraum erheblich reduzieren möchte. Die Starship-Rakete, die größte Rakete der Welt, wird eine zentrale Rolle bei der Bereitstellung dieser Infrastruktur spielen. Langfristig könnte diese Technologie auch auf dem Mond und Mars eingesetzt werden, insbesondere durch den Einsatz von KI-gesteuerten Robotern. Der erste Schritt in diese Richtung sind solarbetriebene KI-Satelliten, die Musk in den kommenden Jahren einführen möchte.
Phison zeigt SSD-Prototyp mit 24 GB/s
Phison Electronics hat einen innovativen SSD-Prototypen vorgestellt, der Lesegeschwindigkeiten von bis zu 24 GB/s erreicht und damit die aktuellen PCIe-5.0-Modelle nahezu verdoppelt. Diese Technologie könnte insbesondere für Rechenzentren und KI-Anwendungen von großer Bedeutung sein, da sie einen erheblichen Leistungssprung für datenintensive Aufgaben darstellt. Mit dem Übergang zu PCIe 6.0 wird eine theoretische Bandbreite von bis zu 28 GB/s möglich, jedoch bringt die hohe Leistung Herausforderungen in der Kühlung mit sich, da passive Kühlung nicht ausreicht. Phison steht im Wettbewerb mit anderen Unternehmen wie Samsung und InnoGrit, die ebenfalls an PCIe-6.0-Lösungen arbeiten. Obwohl die Technologie zunächst teuer für Privatanwender sein wird, wird eine breitere Verfügbarkeit in Consumer-PCs zwischen 2026 und 2027 erwartet. Die Unterstützung durch CPU- und Mainboard-Hersteller ist entscheidend für die Integration dieser neuen SSDs in Server und PCs. Der steigende Bedarf an schnelleren Speichermöglichkeiten für KI und Big Data treibt die Entwicklung in diesem Bereich weiter voran.
Elon Musk says Tesla to restart Dojo AI supercomputer project with chip design progress
Elon Musk hat bekannt gegeben, dass Tesla die Entwicklung seines Dojo3 AI-Supercomputers wieder aufnehmen wird, da der Fortschritt beim Chipdesign des AI5-Chips vielversprechend ist. Das Dojo-Team war im vergangenen Jahr aufgelöst worden, da die Entwicklungsrichtungen der Chips AI5 und AI6 divergierten und Musk entschieden hatte, die Ressourcen nicht zu teilen. Der Dojo3-Supercomputer soll dazu dienen, Teslas maschinelle Lernmodelle zu trainieren und die Software für autonomes Fahren (FSD) zu optimieren. Die Chips AI5 und AI6 sind für Teslas Elektrofahrzeuge gedacht, wobei AI6 in Zusammenarbeit mit Samsung in Texas produziert wird. Musk betont, dass der AI5-Chip die Fahrzeugleistung erheblich steigern und die Fähigkeiten des humanoiden Roboters Optimus verbessern wird. Zudem plant er, zukünftige AI-Datenzentren ins All zu verlagern, um von solarer Energie und natürlicher Kühlung zu profitieren. Trotz seiner oft übertriebenen Aussagen zeigt Musk ernsthaftes Interesse an der Entwicklung von AI-Trainingslösungen.
Does adding 'please' and 'thank you' to your ChatGPT prompts really waste energy?
Die Debatte über das Hinzufügen von "bitte" und "danke" zu ChatGPT-Anfragen wirft Fragen zu den Umweltkosten von KI auf. Während längere Eingaben tatsächlich etwas mehr Rechenleistung und Energie erfordern, ist der Einfluss dieser zusätzlichen Wörter im Vergleich zu den enormen Energiekosten der Rechenzentren minimal. Die eigentliche Herausforderung liegt in der zunehmenden Nutzung von KI und den damit verbundenen Anforderungen an Energie, Wasser und Land, die durch die Infrastruktur der Datenzentren entstehen. Diese Einrichtungen benötigen nicht nur Strom, sondern auch große Mengen Wasser zur Kühlung und belasten lokale Ressourcen, insbesondere in bereits belasteten Regionen. Daher sollte die Diskussion über die Umweltbelastung von KI sich auf die Integration dieser Infrastruktur in die Energieplanung und ihre gesellschaftlichen Auswirkungen konzentrieren, anstatt sich auf kleine Verhaltensänderungen zu fokussieren. Das wachsende Bewusstsein für die Umweltkosten von KI signalisiert, dass die Gesellschaft die physischen Ressourcenanforderungen dieser Technologie ernst nehmen muss, um eine nachhaltige Zukunft zu fördern.
Expert debunks ChatGPT ‘please’ and ‘thank you’ myth
Die Vorstellung, dass höfliche Formulierungen wie "bitte" und "danke" den Energieverbrauch von KI-Anfragen signifikant beeinflussen, ist ein weit verbreiteter Mythos. Ein Experte erklärt, dass der Einfluss zusätzlicher Wörter im Vergleich zu den enormen Energiekosten der Rechenzentren vernachlässigbar ist. Künstliche Intelligenz erfordert viel Energie, da jede Anfrage eine neue Berechnung auslöst, was sie eher wie Infrastruktur als traditionelle Software erscheinen lässt. Rechenzentren, die KI betreiben, tragen bereits erheblich zur globalen Stromnachfrage bei, und dieser Bedarf könnte bis Ende des Jahrzehnts möglicherweise doppelt so hoch sein. Zudem benötigen diese Zentren viel Wasser zur Kühlung und beanspruchen Land, was lokale Umweltfolgen hat. Experten warnen, dass der Fokus auf kleine Verhaltensänderungen von der dringenden Notwendigkeit ablenkt, die KI-Infrastruktur in umfassendere Planungen für Energie, Wasser und Landnutzung zu integrieren, um den ökologischen Fußabdruck effektiv zu managen.
Infinium Launches Infinium Edge™ Platform for High-Density AI Data Center Immersion Cooling
Infinium hat die Infinium Edge™-Plattform vorgestellt, die speziell für hochdichte KI- und HPC-Datenzentren entwickelt wurde und auf Immersionskühlung setzt. Diese innovative Plattform verwendet maßgeschneiderte dielektrische Flüssigkeiten, die Wärme direkt an der Quelle abführen, was eine höhere Rechenleistung bei reduziertem Wasser- und Energieverbrauch ermöglicht. Im Gegensatz zu herkömmlichen luftgekühlten Systemen, die nur begrenzte Leistungsdichten unterstützen, können Immersionskühlsysteme deutlich höhere Dichten erreichen, was sie für moderne KI-Anwendungen unerlässlich macht. Die neuen Edge Immersion Fluids™ sind sauberer und zuverlässiger als herkömmliche Kühlmittel und gewährleisten eine konstante Leistung unter den hohen Temperaturen, die in KI-Umgebungen üblich sind. CEO Robert Schuetzle hebt hervor, dass die Kühlung eine der größten Herausforderungen bei der Bereitstellung fortschrittlicher KI-Systeme darstellt. Die Infinium Edge-Plattform bietet eine nachhaltigere und effizientere Lösung, die es Betreibern von Datenzentren ermöglicht, die Effizienz zu steigern und gleichzeitig den Ressourcenverbrauch zu minimieren.
Column: IBM's 50-year-old liquid cooling patent shapes today's AI data center cooling
IBM hat vor 50 Jahren ein Patent für Flüssigkeitskühlung entwickelt, das heute eine zentrale Rolle in der Kühlung von KI-Datenzentren spielt. Diese Technologie ist besonders relevant, da moderne Chips, wie die von Nvidia, hohe Temperaturen erzeugen und auf Wasserkühlung angewiesen sind. Durch die frühzeitige Einführung dieser Kühlmethoden hat IBM maßgeblich zur Effizienz und Leistungsfähigkeit moderner Rechenzentren beigetragen. Flüssigkeitskühlung ermöglicht eine effektive Kontrolle der Hitzeentwicklung in leistungsstarken Systemen, was zu niedrigeren Betriebskosten führt. Die Innovationskraft von IBM hat nicht nur die Kühlungstechnologie revolutioniert, sondern auch die Basis für die Entwicklung leistungsfähigerer KI-Anwendungen geschaffen.
Acer Predator und Nitro: Das sind die neuen Gaming-Notebooks von der CES 2026
Auf der CES 2026 hat Acer neue Gaming-Notebooks der Serien Nitro und Predator vorgestellt, die mit leistungsstarken Intel Core Ultra Prozessoren und Nvidia GeForce RTX 50 Grafikkarten ausgestattet sind. Besonders das Predator Helios Neo 16S AI sticht hervor, mit einem 16 Zoll OLED-Display, WQXGA-Auflösung und HDR-Unterstützung. Es bietet bis zu einen Intel Core Ultra 9 386H und eine Nvidia GeForce RTX 5070, während das schlanke Metallgehäuse nur 18,9 mm dick ist und eine fortschrittliche Kühlung durch einen AeroBlade-3D-Metalllüfter sowie LiquidMetall-Wärmeleitpaste gewährleistet. Das Acer Nitro V 16 AI richtet sich an eine breitere Zielgruppe und bietet bis zu 2 TByte SSD-Speicher und maximal 32 GByte DDR5-RAM. Zudem wurden neue Gaming-Peripheriegeräte wie das Predator Galea 570 Headset und die Predator Cestus 530 Maus vorgestellt, die auf Präzision und Benutzerfreundlichkeit ausgelegt sind. Die neuen Produkte sollen im ersten und zweiten Quartal 2026 erhältlich sein, während die Preise später bekannt gegeben werden.
Verwandte Cluster
Weitere Themen innerhalb derselben Unterrubrik zur schnellen Navigation.