AMD
Aktuelle Links, Zusammenfassungen und Marktinformationen zu AMD innerhalb von GPUs & Beschleuniger auf JetztStarten.de.
Einordnung
Dieses Cluster bündelt aktuelle Links, Zusammenfassungen und Marktinformationen zu einem klar abgegrenzten Thema.
Rubrik: KI Infrastruktur, Hardware & Rechenzentren
Unterrubrik: GPUs & Beschleuniger
Cluster: AMD
Einträge: 364
Equinix xScale: Die skalierbare Server-Housing-Lösung für High-Density-Workloads revolutioniert Data-Center-Nutzung
Equinix xScale revolutioniert die Nutzung von Data-Centern durch eine skalierbare Server-Housing-Lösung, die es Unternehmen ermöglicht, eigene Server in modernen Einrichtungen unterzubringen, ohne sich um das Bare-Metal-Management kümmern zu müssen. Diese Plattform vereint die Flexibilität von Colocation mit der Skalierbarkeit von Cloud-Infrastrukturen und richtet sich vor allem an Hyperscaler, KI-Firmen und Finanzinstitute mit hohem Rechenbedarf. Ab 2026 wird xScale zunehmend relevant, da die Nachfrage nach energieeffizientem High-Density-Housing durch globale KI-Modelle und Edge-Computing steigt. Zu den Neuerungen gehören höhere Rack-Dichten, verbesserte Kühltechnologien und Unterstützung für leistungsstarke AMD EPYC-Prozessoren sowie kryogene Module für hybride Quanten-Classical-Setups. Die wachsende Nachfrage nach KI und Edge-Computing treibt das Wachstum von xScale voran und positioniert Equinix als führenden Anbieter im Server-Housing-Segment, insbesondere in der DACH-Region. Die Plattform bietet zudem kommerzielle Vorteile wie Pay-per-Use-Modelle und reduziert Vendor-Lock-in, was sie für Unternehmen besonders attraktiv macht.
Advanced Micro Devices, Inc. Aktie (ISIN: US0079031078) - Neues Wachstum durch KI-Boom
Die Aktie von Advanced Micro Devices, Inc. (AMD) hat kürzlich durch einen Umsatzanstieg von 24 Prozent auf 7,7 Milliarden US-Dollar an Wert gewonnen, was auf die steigende Nachfrage nach Datenprozessor-Produkten zurückzuführen ist. Der Nettogewinn stieg auf 1,6 Milliarden US-Dollar, was einem Gewinn je Aktie von 1,05 US-Dollar entspricht. Besonders das Data Center-Segment verzeichnete mit 3,9 Milliarden US-Dollar einen Rekordumsatz und 65 Prozent Wachstum, was die Marktposition von AMD stärkt. Die Nachfrage von großen Cloud-Anbietern wie Microsoft und Meta treibt das Wachstum voran. AMD erobert Marktanteile in einem wachsenden Markt, der bis 2030 auf 500 Milliarden US-Dollar anwachsen soll. Die Aktie ist über Xetra für Investoren in Deutschland, Österreich und der Schweiz handelbar, was zusätzliche Liquidität bietet, jedoch auch Wechselkursrisiken birgt. Mit einem Fokus auf hochmargige Produkte und einer soliden Bilanz, einschließlich einer Bruttomarge von 51 Prozent, bleibt AMD trotz der Konkurrenz durch Nvidia ein vielversprechender Akteur im KI-Sektor, mit einer Kursprognose von 200 US-Dollar innerhalb eines Jahres.
ABnet Expands Infrastructure Powerhouse to Meet Exponential Demand for AI Workloads
ABnet Communication Ltd. hat seine Infrastruktur erheblich erweitert, um der steigenden globalen Nachfrage nach KI-Workloads gerecht zu werden. Angesichts der Prognose, dass die Ausgaben für KI-zentrierte Systeme bis 2026 über 300 Milliarden Dollar erreichen werden, bietet ABnet spezialisierte Architekturen und Optimierungsmöglichkeiten an. CEO Shimon Amouyal hebt hervor, dass sich die Anforderungen an Cloud-Dienste verändert haben, wobei der Fokus nun auf Hochleistungsrechenleistung und spezialisierten GPUs liegt. ABnet hat neue Tools und Dienstleistungen eingeführt, die den Zugang zu leistungsstarken Recheninstanzen und KI-Chips erleichtern und die Kosten für KI-Modelle optimieren. Mit der Velaris-Marktplatzlösung können Partner komplexe hybride Cloud-Architekturen und KI-Workloads effizient verwalten. Diese Initiativen zielen darauf ab, Unternehmen zu unterstützen, ihre KI-Projekte von der Konzeptphase bis zur produktionsreifen Infrastruktur zu skalieren.
Meta unveils four generations of custom AI chips to cut inference costs for billions of users
Meta hat kürzlich vier Generationen maßgeschneiderter KI-Chips vorgestellt, die darauf abzielen, die Kosten für KI-Anwendungen auf seinen Plattformen zu senken und die Effizienz für Milliarden von Nutzern zu verbessern. In Zusammenarbeit mit Broadcom entwickelt, erfolgt die Chip-Entwicklung in einem sechsmonatigen Zyklus, wobei jede Generation signifikante Fortschritte in Speicherkapazität und Rechenleistung bietet. Der bereits in Produktion befindliche MTIA 300 ist auf Empfehlungsmodelle optimiert, während der MTIA 400 mit führenden kommerziellen Produkten in Bezug auf Rohleistung konkurrieren kann. Die neueren Chips, MTIA 450 und 500, sind speziell für generative KI-Inferenz ausgelegt und bieten verbesserte Bandbreite und Kapazität. Zudem unterstützen sie niedrigpräzise Datenformate, was den Rechenaufwand reduziert, ohne die Modellqualität zu beeinträchtigen. Um die Rechenleistung weiter zu steigern, hat Meta auch Partnerschaften mit AMD und Nvidia für GPUs geschlossen.
AMD Strengthens Ties with Korean Tech Giants
AMD, der zweitgrößte Anbieter von Grafikkarten für künstliche Intelligenz, verstärkt seine Kooperationen mit koreanischen Technologiefirmen wie Samsung und Naver, um seine Marktanteile im Wettbewerb mit Nvidia und Intel auszubauen. CEO Lisa Su wird am 18. März Korea besuchen, um Gespräche über Partnerschaften in den Bereichen Datenzentren und Hochbandbreitenspeicher zu führen. Diese Gespräche sind entscheidend, da AMD Aufträge für GPUs sichern möchte, insbesondere für die nächste Generation von AI-Chips für Tesla. Angesichts eines globalen Speicherengpasses ist die Sicherstellung stabiler Lieferungen von DRAM und NAND-Flash-Speicher aus Korea von großer Bedeutung. Zudem wird erwartet, dass Naver und AMD über die Optimierung von Hardware für unabhängige AI-Plattformen diskutieren, um die Abhängigkeit von Nvidia zu reduzieren. Die Treffen fallen in eine strategisch wichtige Woche, da sie mit Nvidia's jährlicher Konferenz GTC 2026 zusammenfallen, was AMD die Gelegenheit bietet, seine Partnerschaften zu präsentieren und Druck auf Nvidia auszuüben.
GSMA launches Open Telco AI initiative for telco-grade AI at MWC 2026
Die GSMA hat auf dem Mobile World Congress 2026 die Initiative Open Telco AI ins Leben gerufen, um eine speziell für die Telekommunikation entwickelte künstliche Intelligenz zu fördern. Diese globale Zusammenarbeit, an der Unternehmen wie AT&T und AMD beteiligt sind, zielt darauf ab, die Lücke zwischen generischen KI-Modellen und den spezifischen Anforderungen des regulierten Telekommunikationssektors zu schließen. Derzeit sind nur 16% der KI-Anwendungen in der Telekommunikation auf Netzwerkoperationen ausgerichtet, da bestehende Modelle oft nicht präzise genug sind. AT&T stellt offene Modelle und Datensätze zur Verfügung, während AMD die erforderliche Rechenleistung bereitstellt, um eine breite Nutzung zu ermöglichen. Ein zentraler Bestandteil der Initiative ist der Telco Capability Index, der die Leistung von KI-Modellen in spezifischen Telekommunikationsaufgaben bewertet. Erste Herausforderungen zur Problemlösung haben bereits über 1.000 Teilnehmer angezogen, was auf ein starkes Engagement der Community hinweist. Die Integration dieser offenen Modelle in kritische Netzwerkumgebungen bleibt jedoch eine Herausforderung, wobei eine schrittweise Verbesserung der menschlichen Unterstützung als realistischer Ansatz vorgeschlagen wird.
Philatron Introduces Philaflex-HF-125™ Halogen-Free Power Cables for +125°C Continuous Operating Temperature for AI Data Center Applications
Philatron hat die neuen Philaflex-HF-125™ Halogenfreien Stromkabel entwickelt, die für den kontinuierlichen Betrieb bei Temperaturen bis zu +125°C optimiert sind, um den Anforderungen moderner AI-Datenzentren gerecht zu werden. Diese Kabel sind besonders wichtig für AI-Anwendungen, die GPU-Cluster nutzen, da sie eine konstante hohe Leistungsaufnahme erfordern, was zu einer signifikanten Wärmeentwicklung führt. Im Gegensatz zu herkömmlichen PVC- und XLPE-Isolierungen, die bei hohen Temperaturen an Stabilität verlieren und gefährliche Gase freisetzen können, bieten die Philaflex-HF-125™ Kabel eine verbesserte Zuverlässigkeit und längere Lebensdauer. Zudem sind sie halogenfrei und setzen im Brandfall keine korrosiven Stoffe frei, was die Sicherheit der Mitarbeiter und den Schutz teurer Geräte erhöht. Die Verwendung dieser Kabel kann zudem Wartungszyklen und Betriebskosten in AI-Datenzentren reduzieren, was für Betreiber kritischer elektrischer Infrastrukturen von großem Nutzen ist. Philatron, ein kalifornischer Hersteller, hebt seine Innovationskraft und das Engagement für amerikanische Qualitätsstandards in der Kabelproduktion hervor.
AMD Ryzen AI Embedded P100: x86-CPU mit NPU für Edge- und Physical-AI
AMD hat die Ryzen AI Embedded P100 Prozessorreihe vorgestellt, die speziell für Embedded Systems entwickelt wurde. Diese Prozessoren kombinieren leistungsstarke x86-Prozessorkerne mit einer Neural Processing Unit (NPU), was sie ideal für Anwendungen in Robotik, Medizintechnik und selbstfahrenden Transportsystemen macht. Die Ryzen AI Embedded P100 bieten zudem eine starke integrierte Grafikeinheit und moderne I/O-Schnittstellen. Auf der Embedded World 2026 Messe in Nürnberg werden Partner wie Congatec und Kontron entsprechende Mainboards und Rechenmodule präsentieren. Während einige Varianten bereits angekündigt wurden, sind nicht alle Modelle sofort verfügbar, und die Produktion bestimmter Versionen beginnt erst im dritten Quartal. Zudem plant AMD, im zweiten Halbjahr den Ryzen AI Embedded X100 mit bis zu 16 Prozessorkernen einzuführen, um mit den Embedded-Versionen von Intel zu konkurrieren.
I Tried Running a 70B Model on a Gaming GPU… It Actually Worked
In dem Artikel "I Tried Running a 70B Model on a Gaming GPU… It Actually Worked" wird die Erfahrung des Autors beschrieben, ein großes KI-Modell mit 70 Milliarden Parametern auf einer Gaming-Grafikkarte auszuführen. Trotz der hohen Anforderungen an Rechenleistung und Speicher, die normalerweise mit solchen Modellen verbunden sind, gelang es dem Autor, das Modell erfolgreich zu betreiben. Der Artikel beleuchtet die Herausforderungen, die mit der Nutzung von Gaming-GPUs für rechenintensive Aufgaben verbunden sind, und diskutiert die technischen Anpassungen, die erforderlich waren, um die Leistung zu optimieren. Der Autor teilt seine Erkenntnisse über die Effizienz und die Grenzen dieser Methode und bietet Einblicke in die Zukunft der KI-Modelle und deren Zugänglichkeit für Hobbyisten und Entwickler. Insgesamt zeigt der Artikel, dass es möglich ist, große Modelle mit begrenzten Ressourcen zu betreiben, was neue Perspektiven für die Nutzung von KI eröffnet.
SBC PROFIVE® MAM5: E.E.P.D. präsentiert micro-ATX Mainboard mit AMD EPYC™ 4005 und AMD Ryzen™ Embedded 9000-Serie Prozessoren
E.E.P.D. hat das SBC PROFIVE® MAM5 vorgestellt, ein micro-ATX Mainboard, das auf den neuesten AMD Prozessoren basiert, darunter die AMD EPYC™ 4005 und die Ryzen™ Embedded 9000-Serie. Dieses Mainboard wurde speziell für das Embedded-Umfeld entwickelt und bietet eine leistungsstarke sowie kosteneffiziente Plattform, die sowohl für Büroanwendungen als auch für Gaming geeignet ist. Die Kombination aus bis zu 16 „Zen 5” Kernen und schnellem DDR5-Speicher ermöglicht eine signifikante Beschleunigung der Workflows der Anwender. Das SBC PROFIVE® MAM5 spricht insbesondere kleine Unternehmen und Hosting-Anbieter an, da es hohe Produktivität, Kosteneffizienz und Energieeffizienz bietet. Mit modernen Technologien positioniert sich das Mainboard als attraktive Lösung für verschiedene Anwendungsbereiche.
Ultra-compact photonic AI chip operates at the speed of light
Der Artikel beschreibt die Entwicklung eines ultra-kompakten photonischen KI-Chips, der Informationen mit Lichtgeschwindigkeit verarbeitet. Dieser innovative Chip nutzt photonische Technologien, um die Effizienz und Geschwindigkeit von KI-Anwendungen erheblich zu steigern. Im Gegensatz zu herkömmlichen elektronischen Chips, die auf elektrische Signale angewiesen sind, ermöglicht der photonische Ansatz eine schnellere Datenübertragung und -verarbeitung. Die Forscher betonen die potenziellen Anwendungen in Bereichen wie Datenzentren, Telekommunikation und autonomes Fahren. Durch die Miniaturisierung des Chips wird auch der Energieverbrauch gesenkt, was ihn umweltfreundlicher macht. Die Ergebnisse dieser Forschung könnten die Zukunft der KI-Technologie revolutionieren und neue Maßstäbe in der Rechenleistung setzen.
Rumble Aktie: Transformation kostet
Rumble hat im Geschäftsjahr 2025 die Umsatzmarke von 100 Millionen US-Dollar überschritten, befindet sich jedoch in einer kostenintensiven Übergangsphase mit erheblichen Investitionen in die Infrastruktur. Im vierten Quartal 2025 erzielte das Unternehmen einen Umsatz von 27,1 Millionen US-Dollar, was einen Rückgang im Vergleich zum Vorjahr, aber eine Steigerung gegenüber dem dritten Quartal darstellt. Die monatlich aktiven Nutzerzahlen stiegen auf 52 Millionen, was auf den Erfolg des Kurzvideo-Formats „Rumble Shorts“ zurückzuführen ist. Trotz eines Nettoverlusts von 32,7 Millionen US-Dollar, der als Fortschritt im Vergleich zum Vorjahr gewertet wird, verfolgt Rumble eine Wachstumsstrategie, die den Ausbau der Cloud-Sparte und strategische Partnerschaften, wie mit Tether, umfasst. Mit einer Liquidität von 256,4 Millionen US-Dollar sind die Projekte finanziell abgesichert. Im zweiten Quartal 2026 wird die vollständige Integration neuer GPU-Kapazitäten erwartet, die die Plattformleistung verbessern und neue Geschäftskunden anziehen sollen.
IREN’s $6 Billion Stock Offering: Is This AMC Entertainment 2.0 for the AI Era?
IREN hat seine Aktienemission auf 6 Milliarden Dollar erhöht, was zu einem Rückgang der Aktien um 8,5 % führte und Ängste vor einer Verwässerung aufwarf, ähnlich wie bei AMC Entertainment während der Meme-Stock-Ära. Die Einnahmen sollen zur Finanzierung der Expansion im Bereich KI-Datenzentren verwendet werden, einschließlich des Kaufs von über 50.000 Nvidia-GPUs, mit dem Ziel, die jährlichen Einnahmen auf 3,7 Milliarden Dollar zu steigern. Die Struktur der Emission erlaubt es IREN, neue Aktien schrittweise anzubieten, was eine flexible Kapitalbeschaffung ermöglicht. Im Gegensatz zu AMC, das massive Aktienausgaben zur Bekämpfung finanzieller Schwierigkeiten nutzte, strebt IREN aggressives Wachstum an. Dennoch wirft die Notwendigkeit einer so großen Kapitalerhöhung Fragen zu alternativen Finanzierungsmöglichkeiten auf. Kritiker befürchten, dass die massive Emission auf eine begrenzte Fähigkeit zur Kapitalbeschaffung hinweist, was besorgniserregend sein könnte. Wenn IREN das Kapital jedoch effektiv einsetzen kann, könnte dies die negativen Auswirkungen auf bestehende Aktionäre im Vergleich zu AMC verringern.
U.S. Reviews AI Chip Export Regulations
Die Trump-Administration in den USA überarbeitet die Exportregeln für fortschrittliche KI-Chips, um die Kontrolle über diese strategischen Vermögenswerte zu stärken. Geplant ist, dass ausländische Unternehmen, die große Mengen an KI-Chips von US-Firmen wie Nvidia und AMD importieren, in den USA investieren müssen, etwa durch den Bau von Rechenzentren. Zudem wird eine Genehmigungspflicht für den Export von KI-Chips an alle Länder, einschließlich Verbündete wie Südkorea und Japan, in Erwägung gezogen. Diese Maßnahmen könnten als diplomatisches Druckmittel dienen. Nvidia hat bereits die Produktion des H200-Chips für den Export nach China gestoppt, was auf die sich ändernden US-Vorschriften und Chinas Bestrebungen zur Förderung heimischer Chips zurückzuführen ist. Obwohl eine bedingte Genehmigung für den Export des H200 nach China vorliegt, bleibt unklar, ob diese erteilt wird, da Differenzen zwischen Nvidia und dem Handelsministerium bestehen. Gleichzeitig schränkt China den Import des H200 ein, um die lokale Halbleiterindustrie zu schützen und den Einsatz chinesischer Chips zu fördern.
Unpacking the deceptively simple science of tokenomics
Die Wirtschaftlichkeit von KI-Inferenz in Rechenzentren ist komplexer als die einfache Beziehung zwischen GPUs, Tokens und Gewinnen. Der Schlüssel zum Erfolg liegt in der Maximierung der Tokens pro Watt, um Betriebskosten zu decken und Gewinne zu erzielen. Dabei ist es wichtig, ein Gleichgewicht zwischen Token-Durchsatz und Benutzerinteraktivität zu finden, was durch verschiedene Hardware- und Softwarekonfigurationen beeinflusst wird. Disaggregierte Rechenarchitekturen und spezialisierte Software wie Nvidia's TensorRT LLM tragen zur Effizienzsteigerung bei, indem sie Arbeitslasten optimal auf verschiedene GPUs verteilen. Anbieter müssen ihre Software regelmäßig aktualisieren, um wettbewerbsfähig zu bleiben, da die Qualität und Geschwindigkeit der Tokens entscheidend für den Markterfolg sind. Zudem rücken offene und geschlossene Modelle in der Qualität näher zusammen, was die Notwendigkeit für Differenzierung durch Anpassungen und spezialisierte Dienstleistungen verstärkt.
AMD treibt KI-Hardware 2026 mit neuer Desktop-CPU und Server-GPU voran
AMD hat 2026 eine Offensive im Bereich Künstliche Intelligenz gestartet, indem es neue Hardware für Desktop-PCs und Server einführt. Die Ryzen AI 400-Prozessoren ermöglichen es Nutzern, leistungsstarke KI-Anwendungen direkt auf Heimcomputern auszuführen. Gleichzeitig zielen die Instinct MI400-Server-GPUs auf Unternehmen ab und sind speziell für rechenintensive KI-Workloads optimiert. Diese Entwicklungen werden durch einen Rekordumsatz von 10,3 Milliarden US-Dollar im vierten Quartal 2025 unterstützt, der auf den Erfolg im Data-Center-Geschäft zurückzuführen ist. Die MI400-GPUs basieren auf einer neuen Architektur und sollen 2026 ausgeliefert werden. Allerdings sieht sich AMD auch Herausforderungen durch drohende Exportbeschränkungen gegenüber, die den internationalen Vertrieb ihrer leistungsstärksten Chips erschweren könnten. Diese regulatorischen Risiken könnten die globale Expansionsstrategie des Unternehmens beeinträchtigen und haben bereits Besorgnis an den Börsen ausgelöst.
Washington reportedly moves to tighten leash on AI chip exports
Die Trump-Administration plant offenbar neue Exportbeschränkungen für KI-Chips, die Unternehmen wie Nvidia und AMD betreffen könnten. Berichten zufolge könnte eine neue Regelung erforderlich machen, dass Chiphersteller Genehmigungen für den Export von KI-Chips auf Länderebene einholen müssen. Dies würde Washington eine erhebliche Kontrolle über die KI-Computing-Versorgung verschaffen und gleichzeitig Investitionen in die US-KI-Industrie fördern. Ein Entwurf für diese Regelung ist im Umlauf, jedoch betont ein Beamter des Weißen Hauses, dass dies nicht die offizielle Position der Regierung widerspiegelt. Zudem könnte das Handelsministerium Unternehmen, die große Mengen an Nvidia- und AMD-Chips erwerben, dazu verpflichten, in die KI-Infrastruktur in den USA zu investieren. Diese Strategie steht im Einklang mit Trumps Forderung nach ausländischen Investitionen in den USA, andernfalls drohen hohe Importzölle. Die sich ständig ändernden Handelsstrategien der Trump-Administration schaffen Unsicherheiten für international tätige Unternehmen im Technologiebereich.
US Eyes Unprecedented Control Over Global AI Chip Exports
Die US-Regierung plant eine umfassende Erweiterung ihrer Exportkontrollen für Halbleiter, die ihr eine globale Kontrolle über den Verkauf von KI-Chips ermöglichen soll, unabhängig vom Herstellungsort. Diese Initiative wird als beispiellose Behauptung amerikanischer Einflussnahme auf die weltweite Chip-Lieferkette angesehen und könnte erhebliche Auswirkungen auf alle bedeutenden KI-Infrastrukturgeschäfte haben. Der Vorschlag erfolgt im Kontext verstärkter Exportkontrollen durch die Trump-Administration, um den Bedenken hinsichtlich der KI-Entwicklung in China und anderen strategischen Rivalen Rechnung zu tragen. Unternehmen wie Nvidia und AMD wären betroffen, da sie für den Verkauf von Chips, die in Ländern wie Taiwan oder Südkorea produziert werden, eine Genehmigung der US-Regierung benötigen würden. Die neuen Regelungen zielen nicht nur auf amerikanische Technologien ab, sondern auch auf die Fähigkeiten und den Verwendungszweck der Chips, was in verbündeten Ländern Besorgnis auslöst. Dieser Schritt könnte als Reaktion auf Chinas Fortschritte in der KI-Entwicklung interpretiert werden, die trotz bestehender Exportbeschränkungen erzielt wurden.
Wind River Announces Strategic Collaboration with AMD
Wind River hat eine strategische Partnerschaft mit AMD angekündigt, um eine innovative Plattform zu entwickeln, die Open RAN-Funktionen und KI-gestützte Radiozugangsnetzwerke (AI-RAN) integriert. Ziel dieser Zusammenarbeit ist es, die hohen Kosten und die Komplexität traditioneller Systeme zu verringern, die separate Hardware für RAN und KI-Anwendungen benötigen. Durch die Kombination von AMD EPYC CPUs mit der Wind River Cloud Platform können Betreiber virtualisierte RAN-Funktionen und KI-Inferenz simultan auf einer einzigen Infrastruktur betreiben. Dies ermöglicht die Implementierung von Echtzeit-KI-Funktionen wie Verkehrsprognosen und Anomalieerkennung direkt am Netzwerkrand. Die Partnerschaft umfasst auch gemeinsame Ingenieurtätigkeiten zur Optimierung des AI-RAN-Software-Stacks sowie zur Hardware-Software-Kooptimierung. Experten wie Javed Khan von Aptiv und Philip Guido von AMD betonen die Bedeutung von KI für Betreiber und die Leistungsfähigkeit der EPYC CPUs. Die Zusammenarbeit wird durch Live-Demonstrationen und technische Präsentationen auf der MWC Barcelona 2026 unterstützt.
Akash Systems Announces World's First Diamond Cooled AI Servers with AMD Instinct MI350X GPUs and MiTAC Computing
Akash Systems hat die weltweit ersten AI-Server mit innovativer Diamantkühlung vorgestellt, die mit AMD Instinct MI350X GPUs ausgestattet sind und von MiTAC Computing produziert werden. Diese Kühlungstechnologie leitet Wärme fünfmal schneller als herkömmliches Kupfer ab und senkt die Temperatur um bis zu 10°C, was die Energieeffizienz und Rechenleistung erheblich verbessert. Die Server bieten eine throttle-freie Leistung, die bis zu 22 Prozent mehr FLOPs pro Watt ermöglicht und den Kühlungsbedarf um bis zu 100 Prozent reduziert. Dadurch können Rechenzentren auch bei hohen Temperaturen von bis zu 120°F effizient arbeiten. Akash hat bereits 300 Millionen Dollar für die erste Bestellung erhalten und prognostiziert, dass jede Diamantkühlungslösung über vier Jahre hinweg bis zu 1 Million Dollar zusätzlichen Wert generiert. Diese Technologie findet nicht nur Anwendung in Datenzentren, sondern auch im Weltraum, wo sie bereits in Satellitensystemen eingesetzt wird.
Microsofts DirectX-Upgrade revolutioniert Raytracing
Microsoft hat mit seinem neuen DirectX SDK eine bahnbrechende Verbesserung für Raytracing eingeführt, die eine Leistungssteigerung von bis zu 90 Prozent verspricht. Diese Innovation basiert auf der Technologie des Shader Execution Reordering (SER), die zuvor nur auf NVIDIAs High-End-Grafikkarten verfügbar war. SER optimiert die Arbeitslast der Grafikkarten, indem es Rechenaufgaben dynamisch anordnet, was die Effizienz erheblich steigert. In Tests zeigten Intels Arc B-Series-GPUs und NVIDIAs GeForce RTX 4090 signifikante Leistungssprünge durch die Implementierung von SER. Die Standardisierung dieser Technologie hat weitreichende Auswirkungen auf den GPU-Markt, wobei NVIDIA und Intel als Hauptprofiteure auftreten, während AMD hinterherhinkt. Diese Entwicklungen könnten fortgeschrittenes Raytracing für eine breitere Palette von Hardware und Spielen zugänglich machen. Die ersten Spiele, die von diesen Fortschritten profitieren, werden voraussichtlich nach der Game Developers Conference 2026 erscheinen, wenn Entwickler das neue Agility SDK in ihre Engines integrieren.
Flex Announces U.S. Manufacturing Collaboration with AMD to Accelerate Domestic AI Infrastructure
Flex hat eine strategische Partnerschaft mit AMD angekündigt, um die Produktion der AMD Instinct MI355X GPU-Plattform in den USA auszubauen. Die Fertigung erfolgt in Flex' Werk in Austin, Texas, und soll in den kommenden Quartalen an Volumen zunehmen. Ziel der Zusammenarbeit ist es, die nächste Generation der AMD Instinct Plattformen zu unterstützen und der steigenden Nachfrage nach KI-Anwendungen in Rechenzentren gerecht zu werden. Flex kombiniert seine fortschrittlichen Fertigungskapazitäten mit AMDs Expertise im Hochleistungsrechnen, um eine schnellere und zuverlässigere Skalierung der KI-Infrastruktur für Kunden zu ermöglichen. Die Produktionsstätte in Austin ist auf komplexe, hochvolumige Fertigung ausgelegt und verfolgt nachhaltige Herstellungspraktiken. Diese Kooperation stärkt die Resilienz und Agilität der Lieferkette und ermöglicht es, die wachsende Nachfrage nach KI-Technologien besser zu bedienen.
Ryzen AI 400G: AMD spendiert Desktop-PCs nur den Billigchip
AMD hat die Ryzen AI 400G-Serie für Desktop-PCs vorgestellt, die jedoch im Vergleich zu den leistungsstärkeren Notebook-Varianten mit weniger CPU-Kernen und Compute Units ausgestattet ist. Diese neuen Prozessoren, die unter dem Codenamen Gorgon Point laufen, bieten maximal acht CPU-Kerne und vier Compute Units, was die Spieleleistung im Vergleich zu früheren Modellen einschränken könnte. Sie sind die ersten mit Zen-5-Kernen für Desktop-Rechner, während leistungsstärkere Varianten mit bis zu 12 CPU-Kernen und 16 CUs ausschließlich für Notebooks reserviert bleiben. Trotz einer höheren zulässigen elektrischen Leistung für Desktop-Modelle bleiben die maximalen Taktfrequenzen unverändert, was bedeutet, dass die Leistung nicht proportional zur Energieaufnahme steigt. Alle Ryzen AI 400G-Prozessoren sind mit einem integrierten KI-Beschleuniger ausgestattet, der 50 Billionen Operationen pro Sekunde leisten kann, was sie für Microsofts Copilot+ qualifiziert. AMD plant, die neuen Prozessoren im zweiten Quartal 2026 in Komplett-PCs und Business-Notebooks anzubieten, jedoch nicht als Einzelversionen im Handel.
India roundup: An emerging chip trio in Asia
In Asien entwickelt sich ein trilaterales Modell für die Halbleiterindustrie, das Japan als Kapitalgeber, Taiwan als Experten für Ökosysteme und Indien als Talentquelle positioniert. Unternehmen wie Foxconn, Polymatech Electronics, Nvidia, AMD, Kaynes Semicon und IBM erhöhen ihre Investitionen in Indien, was auf eine stärkere Lokalisierung und Ambitionen in der Lieferkette hinweist. Foxconn plant, von der Montage zur Halbleiterverpackung überzugehen, um die lokale Integration zu fördern, trotz Herausforderungen bei der Zusammenarbeit mit Behörden. Polymatech Electronics konzentriert sich auf die Entwicklung von Saphirsubstraten und plant eine Expansion in Siliziumkarbid für Leistungsanwendungen. AMD hat Indien in den Fokus seiner globalen KI-Strategie gerückt und will Partnerschaften im Bereich Infrastruktur und Supercomputing ausbauen. Zudem hat IBM ein AI GovTech Innovationszentrum in Lucknow eröffnet, um KI für die Modernisierung des öffentlichen Sektors zu nutzen und seine Investitionen in Quantencomputing und Halbleiterdesign in Indien zu verstärken.
KI-gestützte Chemiesynthese: Redwood AI macht leistungsstarke Syntheseplanung für jede Organisation zugänglich
Redwood AI hat ein Upgrade für sein Chemiesynthese-Modell vorgestellt, das die Effizienz und Geschwindigkeit der Syntheseplanung erheblich verbessert. Dieses neue Modell kann auf herkömmlichen CPU-Infrastrukturen betrieben werden, was den Zugang für Organisationen erleichtert, die leistungsstarke KI-Modelle nutzen möchten, ohne auf spezialisierte GPU-Hardware angewiesen zu sein. Dies ist besonders vorteilhaft für sicherheitskritische Umgebungen, in denen der Zugang zu GPUs eingeschränkt ist. Die technischen Verbesserungen zielen darauf ab, die Betriebskosten zu senken und die Plattform für Unternehmen attraktiver zu machen, die ihre Arbeitsabläufe optimieren möchten. CEO Louis Dron hebt hervor, dass Nutzer nicht zwischen Geschwindigkeit, Kontrolle und Kosten wählen müssen, was die Skalierbarkeit bei steigender Nachfrage unterstützt. Redwood AI positioniert sich in einem wachsenden Markt und verfolgt eine klare Strategie zur Integration seiner Plattform in die Medikamentenentwicklung, um die Entwicklung neuer Therapien zu beschleunigen und die pharmazeutische Industrie nachhaltig zu verändern.
US’ AI data centers could consume 4x more power by 2030, new facility to tackle the surge
Die US-amerikanischen KI-Datenzentren stehen vor einer erheblichen Herausforderung, da ihr Stromverbrauch bis 2030 voraussichtlich um das Vierfache steigen könnte. Um dieser Entwicklung entgegenzuwirken, hat das Oak Ridge National Laboratory (ORNL) das Next-Generation Data Centers Institute (NGDCI) gegründet. Diese Initiative konzentriert sich auf die Entwicklung effizienter Infrastrukturen, insbesondere in den Bereichen Kühlung, Energiemanagement und integrierte Netzbetriebsführung. ORNL plant, bestehende Projekte wie MEGA-DC zu nutzen, um die Auswirkungen von Infrastruktur-Upgrades zu analysieren. In Zusammenarbeit mit führenden Technologieunternehmen wie AMD und NVIDIA sollen innovative, energieeffiziente Architekturen und Sicherheitssysteme entwickelt werden. NGDCI wird auch die Einführung neuer KI-Computersysteme unterstützen, um die Rolle des Labors im Bereich Hochleistungs- und KI-Computing zu stärken. Durch die Ausrichtung der Energieforschung auf nationale Sicherheitsprioritäten wird NGDCI eine Schlüsselrolle bei der Schaffung nachhaltiger und netzfreundlicher KI-Datenzentren in den USA spielen.
Redwood AI kündigt Leistungsupgrade seiner KI-gestützten Plattform an, um schnellere Studien und eine erweiterte CPU-Bereitstellung zu ermöglichen
Redwood AI hat ein bedeutendes Leistungsupgrade seiner KI-gestützten Plattform angekündigt, das die Effizienz und Geschwindigkeit von Synthese-Vorhersagemodellen verbessert. Mit diesem Upgrade können Benutzer vollständige Studien schneller durchführen und gleichzeitig die Betriebskosten senken. Ein zentrales Merkmal ist die Möglichkeit, das Chemiesynthese-Modell auf herkömmlichen CPU-Infrastrukturen auszuführen, was den Zugang für Organisationen ohne spezialisierte GPU-Hardware erleichtert. Dies ist besonders vorteilhaft für sicherheitskritische Systeme, in denen der Zugang zu GPUs eingeschränkt ist. Das Upgrade unterstützt auch biopharmazeutische Unternehmen, indem es sicherstellt, dass sensible Workflows innerhalb ihrer bevorzugten Infrastruktur bleiben. Redwood AI erwartet, dass die CPU-basierte Ausführung den Nutzern mehr Bereitstellungsoptionen bietet, was den Schutz geistigen Eigentums fördert. Technische Verbesserungen umfassen optimiertes Code-Management, das die Genauigkeit des Systems bewahrt und gleichzeitig die Effizienz steigert.
Top cloud providers to outspend Ireland's GDP on AI in 2026
Im Jahr 2026 planen die acht größten Cloud-Anbieter, darunter Google, Amazon und Microsoft, über 710 Milliarden Dollar in Server und Infrastruktur für Künstliche Intelligenz (KI) zu investieren, was das Bruttoinlandsprodukt Irlands übersteigt. Diese Investitionen, die im Vergleich zum Vorjahr um 61 Prozent steigen, führen zu einer erhöhten Nachfrage nach KI-Servern, was wiederum zu einem Mangel an Speicher und steigenden Preisen führt. Google fokussiert sich auf anwendungsspezifische integrierte Schaltungen (ASICs), während Amazon und Meta weiterhin auf GPUs von Nvidia und AMD setzen. In Reaktion auf diese Entwicklungen arbeiten Speicherhersteller wie SK Hynix und Sandisk an neuen Standards für Speichertechnologien, um die Effizienz und Kapazität von KI-Anwendungen zu verbessern. Die Einführung von Hochbandbreiten-Flash (HBF) soll die Kapazität erhöhen und die Kosten senken, während die Nachfrage nach komplexen Speicherlösungen bis 2030 voraussichtlich weiter steigen wird.
Armada Joins VAST Cosmos as a Technology Partner to Deliver Distributed, Sovereign AI Factories
Armada hat sich der VAST Cosmos Community angeschlossen, um gemeinsam mit VAST Data eine neue Generation von privaten, verteilten KI-Fabriken zu entwickeln. Diese Partnerschaft ermöglicht es Organisationen, modulare Datenzentren und die Armada Edge Platform mit dem VAST Operating System zu kombinieren, um KI-Fabriken direkt an den Orten zu betreiben, an denen Daten erzeugt werden. Die modularen Datenzentren von Armada sind für hochdichte KI-Workloads optimiert und können in abgelegenen oder regulierten Umgebungen eingesetzt werden. Durch die Integration von Armada's GPU-as-a-Service und VASTs globalem Datenraum wird eine nahtlose Datenmobilität und Sichtbarkeit über verschiedene Standorte hinweg gewährleistet. Dies unterstützt Anwendungsfälle wie Echtzeitanalyse, großflächiges Modelltraining und industrielle Automatisierung. Die Zusammenarbeit zielt darauf ab, die Betriebsabläufe zu vereinfachen, die Bereitstellungszeiten zu verkürzen und die Leistung zu steigern, während gleichzeitig regulatorische Anforderungen eingehalten werden.
Meta und AMD schließen Mega-Deal für KI-Hardware
Meta und AMD haben eine bedeutende strategische Partnerschaft vereinbart, um bis zu sechs Gigawatt leistungsstarker Grafikprozessoren für Metas KI-Infrastruktur bereitzustellen. Diese Zusammenarbeit gilt als einer der größten Schritte im KI-Sektor und zielt darauf ab, maßgeschneiderte Hardware zu entwickeln, die speziell auf die Anforderungen von Meta für KI-Berechnungen optimiert ist. Der Rollout beginnt 2026 mit einer anfänglichen Kapazität von einem Gigawatt, während der vollständige Ausbau mehrere Jahre in Anspruch nehmen wird. Diese Initiative wird die KI-Funktionen auf Plattformen wie Facebook, Instagram und WhatsApp erheblich verbessern. Zudem verringert Meta durch die Diversifizierung seiner Lieferkette die Abhängigkeit von Nvidia, während AMD seine Position im KI-Beschleunigermarkt stärkt. Die Partnerschaft könnte auch die Wettbewerbslandschaft im KI-Hardware-Ökosystem nachhaltig verändern, da zukünftige AMD-Hardware-Generationen direkt auf die Bedürfnisse von Meta abgestimmt werden.
Will Nvidia’s AI Chip Dominance Be Cracked with AMD Joining the Race?
AMD hat einen bedeutenden Vertrag mit Meta über die Lieferung von KI-Chips im Wert von 100 Milliarden Dollar abgeschlossen, was auf eine umfassende Expansion der nächsten Generation von Hochbandbreiten-Speicher (HBM4) hinweist. Dieser mehrjährige Vertrag wird voraussichtlich erhebliche Einnahmen für AMD generieren, da die Chips in großen Datenzentren eingesetzt werden. Metas Entscheidung, sowohl mit Nvidia als auch mit AMD zusammenzuarbeiten, zeigt, dass große Technologieunternehmen ihre Abhängigkeit von einzelnen Anbietern reduzieren und ihre KI-Infrastruktur schneller ausbauen möchten. Dies könnte auch der heimischen Speicherindustrie zugutekommen, da die Nachfrage nach HBM4 über Nvidia hinausgeht und auch AMD sowie andere Anbieter einbezieht. Die Diversifizierung der Kundenbasis könnte die Ertragsvolatilität verringern und die Verhandlungsmacht von Speicherunternehmen wie Samsung Electronics und SK hynix stärken, die derzeit HBM4-Proben für andere Kunden testen.
AMD Aktie: Meta-Deal zündet
Die Aktie von AMD stieg um über 6 Prozent, nachdem Meta Platforms einen bedeutenden Deal mit dem Chipkonzern abgeschlossen hat, der sich auf KI-Prozessoren im dreistelligen Milliardenbereich beläuft. Der Vertrag, der ab der zweiten Jahreshälfte 2026 für fünf Jahre gilt, umfasst die Lieferung von Prozessoren mit einer Gesamtleistung von bis zu 6 Gigawatt. AMD-Chefin Lisa Su schätzt den Wert des Deals auf einen zweistelligen Milliardenbetrag pro Gigawatt, und Meta könnte bis zu 160 Millionen AMD-Aktien erhalten, was einer Beteiligung von zehn Prozent entspricht. Diese Kooperation wird als wichtiger Schritt im Wettbewerb mit Nvidia um den KI-Chip-Markt angesehen und gilt als Vertrauensbeweis für AMDs KI-Hardware. Während Nvidia-Aktionäre nervös reagieren und die Aktie leicht nachgibt, zeigt die Ankündigung, dass Tech-Konzerne ihre Investitionen in KI-Infrastruktur weiter erhöhen. Meta hat zudem kürzlich einen Großauftrag mit Nvidia vergeben, was darauf hindeutet, dass der Konzern auf mehrere Partner setzt, um im KI-Wettbewerb erfolgreich zu sein.
AMD Stock Surges After AI Chip Maker Agrees Meta Deal
Die Aktie von AMD verzeichnete einen signifikanten Anstieg, nachdem das Unternehmen eine Vereinbarung mit Meta, dem Mutterkonzern von Facebook, getroffen hat. Diese Partnerschaft fokussiert sich auf die Entwicklung von KI-Chips, die für die Verarbeitung großer Datenmengen und die Verbesserung von KI-Anwendungen optimiert sind. Analysten sehen in dieser Kooperation eine strategische Stärkung von AMDs Position im schnell wachsenden KI-Markt. Die Vereinbarung könnte nicht nur die Umsatzprognosen von AMD positiv beeinflussen, sondern auch das Vertrauen der Investoren in die Innovationskraft des Unternehmens stärken. Die Marktreaktion auf die Nachricht war überwältigend, was sich in einem deutlichen Anstieg des Aktienkurses widerspiegelt. Experten sind optimistisch, dass diese Entwicklung AMD helfen wird, sich gegen Wettbewerber wie NVIDIA durchzusetzen.
AMD basically copy-pasted its OpenAI deal for Meta, six gigawatts and ten percent equity included
AMD und Meta haben eine mehrjährige Partnerschaft vereinbart, die den Bezug von bis zu sechs Gigawatt AMD Instinct GPUs für Inferenz-Workloads umfasst. Im Rahmen dieser Zusammenarbeit wird ein maßgeschneiderter Chip auf Basis der MI450-Architektur entwickelt, mit ersten Lieferungen für die zweite Hälfte 2026. Ein wesentlicher Bestandteil des Deals sind leistungsabhängige Warrants für bis zu 160 Millionen AMD-Aktien, die an bestimmte Meilensteine gebunden sind. Meta benötigt diese massive Inferenzkapazität, um die KI-Funktionen für seine Milliarden von Nutzern effizient zu betreiben, was die strategische Bedeutung der Partnerschaft verdeutlicht. Zudem wird Meta der Hauptkunde für die kommenden EPYC-Generationen "Venice" und "Verano" sein, die speziell für diese Anforderungen optimiert werden. Für AMD ist dieser Deal ein wichtiges Signal im Wettbewerb mit Nvidia, da Meta bereit ist, große Mengen an AMD-Hardware einzusetzen. Dennoch sieht sich AMD erheblichem Wettbewerb gegenüber, da Meta auch eigene KI-Chips entwickelt und Unternehmen wie Microsoft und AWS an maßgeschneiderter Hardware arbeiten.
AMD shares jump 10% pre-market as Meta agrees to deploy up to 6 gigawatts of its AI chips
Die Aktien von Advanced Micro Devices Inc. (AMD) stiegen vor Handelsbeginn um 10%, nachdem eine bedeutende Partnerschaft mit Meta Platforms Inc. bekannt gegeben wurde. Diese Vereinbarung sieht die Bereitstellung von bis zu 6 Gigawatt AMD Instinct GPUs vor, wobei die erste Lieferung von 1 Gigawatt für die zweite Hälfte des Jahres 2026 geplant ist. Die Hardware wird speziell auf die Bedürfnisse von Meta zugeschnitten und umfasst auch AMD EPYC CPUs sowie die ROCm-Software. Um die Interessen beider Unternehmen zu fördern, hat AMD Meta eine leistungsabhängige Option auf bis zu 160 Millionen Aktien gewährt, die an bestimmte Meilensteine gebunden ist. Mark Zuckerberg, CEO von Meta, betonte, dass die Zusammenarbeit darauf abzielt, die Abhängigkeit von Nvidia zu verringern. AMD-CEO Lisa Su bezeichnete die Partnerschaft als entscheidend für den globalen Ausbau von KI. Diese Entwicklung könnte nicht nur die Marktposition von AMD stärken, sondern auch zu signifikantem Umsatzwachstum über mehrere Jahre führen.
Auf OpenAI folgt Meta: AMD verkauft GPUs für Milliarden von US-Dollar
Meta hat einen milliardenschweren Rahmenvertrag mit AMD abgeschlossen, um über fünf Jahre hinweg KI-Beschleuniger im Wert von etwa 60 Milliarden US-Dollar zu erwerben. Dieser Deal ähnelt einem bestehenden Abkommen zwischen AMD und OpenAI. Im Gegenzug erhält Meta die Option, Firmenanteile von AMD zu einem symbolischen Preis zu erwerben, sofern bestimmte Bedingungen erfüllt sind. Die erste Lieferung der KI-Beschleuniger ist für die zweite Jahreshälfte geplant, wobei AMD die Produkte an Metas spezifische Anforderungen anpassen wird. Der Vertrag könnte für Meta strategisch wichtig sein, da das Unternehmen bereits 2024 der größte Kunde von AMD für KI-Beschleuniger war. Nach der Bekanntgabe des Abkommens stieg der Aktienkurs von AMD um fast 15 Prozent, was auf positives Marktfeedback hinweist. Der Erfolg von Meta in diesem Bereich könnte eng mit der Performance von AMD verknüpft sein, da beide Unternehmen Meilensteine vereinbart haben, die an die Aktienleistung von AMD gebunden sind.
Facebook owner Meta to buy AI chips from AMD in deal worth up to $100 billion
Meta Platforms, der Eigentümer von Facebook, plant den Kauf von KI-Chips von Advanced Micro Devices (AMD) in einem potenziellen Deal im Wert von über 100 Milliarden Dollar. Dieser umfasst auch die Möglichkeit, bis zu 10% der Anteile an AMD zu erwerben. Der Schritt erfolgt nach einer Partnerschaft mit Nvidia, die Meta Millionen von Chips für seine KI-Datenzentren bereitstellt. Die neuen MI450-Chips von AMD sollen die Datenzentren unterstützen, mit ersten Lieferungen im zweiten Halbjahr. Während AMD versucht, im KI-Bereich mit Nvidia zu konkurrieren, gibt es Bedenken hinsichtlich der hohen Investitionen von Unternehmen wie Meta in KI und deren zukünftige Rentabilität. Meta intensiviert seine KI-Bemühungen, um im Wettbewerb mit Google und OpenAI zu bestehen, und hat kürzlich in die KI-Datenfirma Scale investiert sowie das KI-Startup Manus übernommen. AMD hat Meta eine leistungsabhängige Option auf bis zu 160 Millionen Aktien zu einem symbolischen Preis von 0,01 Dollar pro Stück angeboten, die an bestimmte Meilensteine gebunden ist. Vor der Markteröffnung stiegen die Aktien von AMD um mehr als 9%.
Meta Aktie: Milliarden-Deal mit AMD
Meta hat eine bedeutende strategische Partnerschaft mit AMD geschlossen, die eine KI-Rechenleistung von bis zu 6 Gigawatt umfasst und einen Wert von über 100 Milliarden Dollar hat. Diese Zusammenarbeit ermöglicht Meta den Erwerb von bis zu zehn Prozent der AMD-Aktien, was an der Wall Street für große Euphorie sorgte und die AMD-Aktie vorbörslich stark steigen ließ. Die Vereinbarung ist ein wichtiger Schritt für AMD im Wettbewerb mit Nvidia, da die ersten Lieferungen der neuen AMD Instinct GPUs für die zweite Jahreshälfte 2026 erwartet werden. Beide Unternehmen werden ihre Produkt-Roadmaps abstimmen, wobei AMD seine Hardware und Software an die spezifischen KI-Anforderungen von Meta anpassen wird. Meta-Gründer Mark Zuckerberg sieht die Partnerschaft als entscheidend für die Diversifizierung der Rechenkapazitäten, während AMD-CEO Lisa Su sie als Durchbruch für die KI-Implementierung bezeichnet. Gleichzeitig steht Meta vor rechtlichen Herausforderungen, da ein Berliner Gericht die Facebook-Freunde-Finder-Funktion für rechtswidrig erklärte, was zu potenziellen Ordnungsgeldern führen könnte. Trotz dieser Schwierigkeiten zeigt sich die Meta-Aktie stabil und notiert leicht im Plus.
Meta Drops 6GW AMD GPU Deal, Breaks Nvidia Stranglehold
Meta hat eine bedeutende Partnerschaft mit AMD angekündigt, um sich von Nvidias Dominanz im Bereich der KI-Infrastruktur zu lösen. Die Vereinbarung umfasst die Lieferung von bis zu 6 Gigawatt Instinct GPUs, mit ersten Lieferungen ab der zweiten Hälfte des Jahres 2026. Diese Kooperation gilt als eine der größten im Bereich KI-Compute und verdeutlicht Metas Bestreben, seine Siliziumlieferanten zu diversifizieren. CEO Mark Zuckerberg hebt die Relevanz dieser Zusammenarbeit für die Entwicklung effizienter KI-Anwendungen hervor, die für Dienste wie Chatbots in WhatsApp und Instagram benötigt werden. Angesichts des rasanten Wachstums der KI-Ressourcen von Meta ist dieser Schritt entscheidend, da die bestehende Infrastruktur, die stark auf Nvidia angewiesen ist, nicht mit der steigenden Nachfrage Schritt halten kann. Die Vereinbarung könnte somit nicht nur die Wettbewerbsbedingungen im KI-Sektor verändern, sondern auch Metas langfristige Strategie zur Entwicklung fortschrittlicher KI-Technologien unterstützen.
Meta Taps AMD Chips Days After Nvidia Deal, Shaking Up AI Race
Meta hat kürzlich eine strategische Entscheidung getroffen, indem es sowohl Nvidia als auch AMD in seine AI-Infrastruktur integriert. Nur wenige Tage nach der Ankündigung, Millionen von Nvidia-GPUs zu verwenden, sicherte sich Meta einen bedeutenden Vertrag für AMDs Helios Rack-Scale-System. Diese Entscheidung markiert einen Wendepunkt in der Beschaffung von AI-Hardware durch große Tech-Unternehmen, da Meta seine Lieferketten diversifizieren und die Wettbewerbsfähigkeit der Chip-Hersteller fördern möchte. Die gleichzeitige Partnerschaft mit beiden Anbietern zeigt, dass Meta nicht von einem einzigen Lieferanten abhängig sein will, trotz Nvidias marktbeherrschender Stellung. AMDs Helios-System stellt einen aggressiven Vorstoß in den AI-Datacenter-Markt dar und könnte anderen großen Anbietern helfen, sich von Nvidia zu lösen. Die Dynamik zwischen Nvidia und AMD wird durch Nvidias Kontrolle von über 80% des Marktes für AI-Datacenter-GPUs verstärkt, was jedoch auch Risiken in der Lieferkette birgt, insbesondere angesichts der explodierenden Nachfrage nach AI-Chips in den Jahren 2023 und 2024.
Meta could end up owning 10% of AMD in new chip deal
Meta hat einen milliardenschweren Chip-Deal mit AMD abgeschlossen, der dem Unternehmen möglicherweise den Erwerb von bis zu 10 Prozent der AMD-Anteile ermöglicht. Im Rahmen des Deals wird Meta maßgeschneiderte Chips mit einer Gesamtleistung von 6 Gigawatt erwerben, um seine KI-Modelle zu verbessern. AMD-CEO Lisa Su betonte, dass jeder Gigawatt an Rechenleistung einen Wert im zweistelligen Milliardenbereich hat. Zudem erhielt Meta eine leistungsabhängige Option, die es ermöglicht, bis zu 160 Millionen AMD-Aktien zu einem günstigen Preis zu erwerben, während es weiterhin Prozessoren bestellt. Diese Transaktion spiegelt den Trend wider, dass große Tech-Unternehmen ihre Lieferketten diversifizieren, insbesondere von Nvidia. Die Aktien von AMD stiegen um 14 Prozent im vorbörslichen Handel, was die positive Marktreaktion auf den Deal verdeutlicht. Meta wird die ersten AMD-Aktien im zweiten Halbjahr 2026 erhalten, wenn die ersten Chips geliefert werden. Die Bedingungen der Option sind an bestimmte Aktienkursgrenzen gebunden und laufen im Februar 2031 aus. Su äußerte, dass Meta mit diesem Schritt auf AMD setzt und von einer positiven Entwicklung der AMD-Aktionäre profitieren möchte.
Meta strikes up to $100B AMD chip deal as it chases ‘personal superintelligence’
Meta hat einen potenziellen Kaufvertrag über bis zu 100 Milliarden Dollar mit AMD abgeschlossen, um leistungsstarke Chips für seine Datenzentren zu erwerben. Die mehrjährige Vereinbarung umfasst eine leistungsabhängige Option auf bis zu 160 Millionen Aktien und den Kauf von AMDs MI540-GPU-Serie sowie der neuesten CPU-Generation, die für KI-Inferenz entscheidend sind. AMD-CEO Lisa Su hebt die steigende Nachfrage nach CPUs aufgrund der wachsenden KI-Infrastruktur hervor, was AMD in eine starke Position bringt. Meta-CEO Mark Zuckerberg sieht die Partnerschaft als wichtigen Schritt zur Diversifizierung der Rechenleistung und zur Entwicklung von "persönlicher Superintelligenz", die darauf abzielt, KI-Systeme zu schaffen, die das tägliche Leben der Menschen besser unterstützen. Zudem plant Meta, in den kommenden Jahren mindestens 600 Milliarden Dollar in US-Datenzentren und KI-Infrastruktur zu investieren. Diese Vereinbarung folgt einem ähnlichen Deal mit Nvidia, während Meta gleichzeitig an eigenen Chips arbeitet, jedoch auf Verzögerungen gestoßen ist.
Meta und AMD schmieren Mega-Deal für KI-Supercomputer
Meta und AMD haben eine bedeutende Partnerschaft im Bereich der KI-Infrastruktur geschlossen, die als einer der größten Deals der Branche gilt. Der Vertrag umfasst bis zu sechs Gigawatt Rechenleistung und zielt darauf ab, Meta bei der Entwicklung eigener Superintelligenz zu unterstützen. Die Zusammenarbeit geht über einen einfachen Abnahmevertrag hinaus, da beide Unternehmen maßgeschneiderte Hardware entwickeln, die speziell auf die Anforderungen von Meta abgestimmt ist. Die erste Lieferung von kundenspezifischen AMD-GPUs und CPUs ist für die zweite Hälfte des Jahres 2026 geplant. Ein innovativer Finanzmechanismus sichert die Interessen beider Partner, indem Meta wandelbare Optionsscheine für AMD-Aktien erhält, was die Kontrolle über die Lieferkette stärkt und die Abhängigkeit von Nvidia verringert. Diese Vereinbarung sendet ein starkes Signal an den Markt und verdeutlicht, dass führende KI-Unternehmen zunehmend auf maßgeschneiderte Systeme setzen. Der Rollout der Kapazitäten über die nächsten fünf Jahre wird Metas Fähigkeit zur Entwicklung komplexer KI-Modelle erheblich steigern und den Wettbewerb im KI-Hardware-Markt intensivieren.
SCAILIUM Partners with TD SYNNEX to Solve Global GPU Starvation
SCAILIUM hat eine strategische Partnerschaft mit TD SYNNEX ins Leben gerufen, um die globale Unterversorgung mit GPUs zu bekämpfen und Unternehmen bei der großflächigen Implementierung von KI zu unterstützen. Durch die Integration von SCAILIUMs GPU-nativer AI Production Layer in das Netzwerk von TD SYNNEX können Unternehmen die GPU-Auslastung verdoppeln und Energieverschwendung signifikant reduzieren. Die Zusammenarbeit zielt darauf ab, strukturelle Engpässe zu beseitigen, die durch veraltete, CPU-gebundene Datenpipelines entstehen und dazu führen, dass GPUs 40–70% der Zeit ungenutzt bleiben. SCAILIUMs Lösung ermöglicht eine direkte Datenlieferung an die GPUs, was die Effizienz steigert und die Produktionskapazität von KI-Anwendungen ohne zusätzliche Hardware erhöht. Dies führt zu schnelleren Erkenntnissen und einer optimierten Nutzung der KI-Ressourcen in datenintensiven Umgebungen.
You Don’t Need a Massive ML Team to Scale AI Affordably
Der Artikel "You Don’t Need a Massive ML Team to Scale AI Affordably" beleuchtet, wie Unternehmen ihre KI-Workloads effizienter gestalten können, ohne ein großes internes Team für maschinelles Lernen aufzubauen. Angesichts der Herausforderungen herkömmlicher API-Endpunkte und der Notwendigkeit, Kosten und Leistung zu optimieren, hat Notion seine Infrastruktur überarbeitet, um Milliarden von Vektor-Embeddings zu verwalten. Dabei migrierte das Unternehmen sowohl das Indizieren als auch das Servieren auf die Plattform Ray und nutzt einen verwalteten Dienst von Anyscale. Dieser Ansatz spiegelt einen Trend wider, der auf den PARK-Stack abzielt, der PyTorch, KI-Modelle, Ray und Kubernetes integriert. Durch die Verwendung dieser interoperablen Open-Source-Komponenten können Engineering-Teams CPU- und GPU-Aufgaben effizient verarbeiten, offene Modelle direkt ausführen und die Latenz reduzieren, ohne an einen einzigen Anbieter gebunden zu sein. Dies ermöglicht eine kostengünstige und skalierbare Implementierung von KI-Lösungen.
This AI Stock Soared 92% Last Year. Is It Still a Buy for 2026?
CoreWeave, ein Unternehmen, das sich auf den Bau von Datenzentren für KI-Dienste spezialisiert hat, verzeichnete im Jahr 2025 einen beeindruckenden Anstieg von über 92% und startete 2026 mit einem weiteren Plus von 22%. Die Nachfrage nach ihren GPU-Cloud-Diensten wächst, da Unternehmen verstärkt in KI-Infrastruktur investieren. Der Auftragsbestand stieg im dritten Quartal 2025 auf 55,6 Milliarden Dollar, und die Umsatzprognosen für 2026 und 2027 liegen bei 12 Milliarden bzw. 19,5 Milliarden Dollar. Trotz dieser positiven Entwicklung gibt es erhebliche Risiken: 86% des Umsatzes stammen von nur vier Kunden, was im Falle eines Verlusts katastrophale Folgen haben könnte. Zudem benötigt CoreWeave hohe Vorabinvestitionen für den Bau neuer Datenzentren und hat in den letzten vier Quartalen 8 Milliarden Dollar verbrannt, was zu einer hohen Verschuldung von 18,5 Milliarden Dollar führte. Diese finanziellen Herausforderungen könnten die zukünftige Stabilität des Unternehmens gefährden, während es gleichzeitig von der wachsenden Nachfrage nach KI-Infrastruktur profitiert.
NVIDIA’s (NVDA) Cost of Ownership is Lower Than What People Think, Says Jim Cramer
In einem aktuellen Bericht hebt Jim Cramer die NVIDIA Corporation (NVDA) als eine der wertvollsten Firmen der Welt hervor, insbesondere aufgrund ihrer fortschrittlichen AI-Chips. Die Aktien des Unternehmens sind in den letzten zwölf Monaten um 41 % gestiegen. Eine kürzlich angekündigte Partnerschaft mit Meta, bei der NVIDIA AI-GPUs und CPUs für die Datenzentren des Unternehmens bereitstellt, unterstreicht die wachsende Bedeutung von NVIDIA im AI-Sektor. Cramer betont, dass die tatsächlichen Kosten für den Besitz von NVIDIAs Chips niedriger sind als oft angenommen, was auf ignorierte Benchmark-Tests zurückzuführen ist. Er argumentiert, dass trotz der möglicherweise günstigeren Chips von AMD die Gesamtkosten bei NVIDIA vorteilhafter sind. Diese Erkenntnis könnte NVIDIA wieder in den Fokus der Investoren rücken, die zunehmend auf Unternehmen setzen, die geistiges Eigentum entwickeln. Dennoch gibt es Bedenken, dass andere AI-Aktien möglicherweise bessere Renditen bei geringerem Risiko bieten könnten.
Data Center Accelerator Market to Reach US$ 97.8 Billion by 2032; North America Leads with 45% Share | Key Players: NVIDIA, AMD, Intel, IBM, Dell, Lenovo, Marvell, Microchip, NEC, Qualcomm
Der globale Markt für Data Center Accelerator wird bis 2032 voraussichtlich 97,8 Milliarden US-Dollar erreichen, mit Nordamerika als führender Region, die 45% des Marktanteils hält. Der Markt, der 2024 bei 17,3 Milliarden US-Dollar lag, wächst jährlich um 24,18%, angetrieben durch die steigende Nachfrage nach leistungsstarken Lösungen für KI, maschinelles Lernen und Cloud-Computing. Technologische Innovationen von Unternehmen wie NVIDIA und AMD fördern die Entwicklung energieeffizienter und kostengünstiger Produkte, die auch kleinen und mittelständischen Unternehmen den Zugang zu Hochleistungsrechnern ermöglichen. Hyperscale-Datenzentren und Cloud-Anbieter wie AWS und Microsoft Azure sind die Hauptnutzer dieser Technologien, um den wachsenden Rechenanforderungen gerecht zu werden. Die Nachfrage nach energieeffizienten Lösungen wird durch hohe Betriebskosten verstärkt, was die Entwicklung neuer Beschleuniger vorantreibt. Neben Nordamerika zeigen auch Europa und der asiatisch-pazifische Raum signifikante Marktanteile, wobei letzterer durch Investitionen in Cloud-Dienste und KI-Forschung wächst. Die kontinuierliche Anpassung von Beschleunigern für verschiedene Anwendungen ist ein weiterer Schlüsselfaktor für das Marktwachstum.
G42 and Cerebras deploy 8 exaflops of AI compute in India
G42, ein KI-Unternehmen aus Abu Dhabi, hat in Zusammenarbeit mit dem US-Chiphersteller Cerebras angekündigt, in Indien eine Rechenkapazität von acht Exaflops bereitzustellen. Diese bedeutende Investition, die während des India AI Impact Summit 2026 vorgestellt wurde, könnte Indien als zentralen Akteur in der KI-Lieferkette positionieren, insbesondere angesichts des aktuellen Bedarfs, da das Land nur weniger als 2% der globalen KI-Rechenkapazität besitzt. Cerebras bringt innovative wafer-scale engines ein, die eine schnellere und effizientere Ausbildung großer Sprachmodelle ermöglichen, im Gegensatz zu herkömmlichen Nvidia-GPU-Clustern. Mit einer Rechenleistung von acht Exaflops, was etwa acht Quintillionen Fließkommaoperationen pro Sekunde entspricht, steht diese Initiative im Vergleich zu nationalen Supercomputing-Initiativen. Diese Entwicklung könnte G42 einen Wettbewerbsvorteil verschaffen, indem sie sich von Unternehmen abhebt, die ausschließlich auf das Nvidia-Ökosystem angewiesen sind.
I Ran a 70B Language Model on My 4GB GPU and It Actually Worked — Here Is What I Found
In dem Artikel "I Ran a 70B Language Model on My 4GB GPU and It Actually Worked — Here Is What I Found" beschreibt der Autor seine Erfahrungen beim Ausführen eines großen Sprachmodells mit 70 Milliarden Parametern auf einer GPU mit nur 4 GB RAM. Trotz der begrenzten Hardware konnte er das Modell erfolgreich betreiben, was überraschende Ergebnisse lieferte. Der Autor erläutert die Herausforderungen, die mit der Speicherbegrenzung verbunden sind, und die Techniken, die er anwendete, um die Leistung zu optimieren, wie z.B. das Reduzieren der Batch-Größe und das Nutzen von Speicheroptimierungen. Er teilt auch seine Erkenntnisse über die Effizienz des Modells und die Qualität der generierten Texte. Insgesamt zeigt der Artikel, dass es möglich ist, große KI-Modelle auf begrenzter Hardware zu betreiben, was neue Perspektiven für Entwickler und Forscher eröffnet.
Verwandte Cluster
Weitere Themen innerhalb derselben Unterrubrik zur schnellen Navigation.