KI Suche
Die Suche durchsucht Rubriken, Unterrubriken, Cluster, importierte Artikel, Firmen, Quellen und die wichtigsten Service-Seiten der KI-Linksammlung.
Suchergebnisse
37 Treffer für die aktuelle Abfrage.
The Long Road to Overnight Success — Neural Nets from McCulloch-Pitts to Transformers
Der Artikel "The Long Road to Overnight Success — Neural Nets from McCulloch-Pitts to Transformers" beschreibt die Entwicklung neuronaler Netze von ihren Anfängen bis zu modernen Architekturen wie den Transformern. Er beginnt mit den grundlegenden Konzepten, die von Warren McCulloch und Walter Pitts
The Transformer Architecture Is Being Replaced: What 47,000 Hours of Training Data Revealed
Die Studie mit dem Titel "The Transformer Architecture Is Being Replaced: What 47,000 Hours of Training Data Revealed" untersucht die Grenzen der Transformer-Architektur, die seit ihrer Einführung in der KI-Forschung dominierend ist. Durch die Analyse von 47.000 Stunden an Trainingsdaten zeigt die F
Why the Transformer Changed AI Forever
Der Artikel "Why the Transformer Changed AI Forever" beleuchtet die revolutionäre Rolle des Transformer-Modells in der Entwicklung der Künstlichen Intelligenz. Ursprünglich 2017 von Vaswani et al. eingeführt, hat der Transformer die Art und Weise, wie Maschinen Sprache verstehen und generieren, grun
Deep Dive into Transformer Encoders by Hand ✍️
Der Artikel "Deep Dive into Transformer Encoders by Hand" bietet eine detaillierte Analyse der Funktionsweise von Transformer-Encodern, die eine zentrale Rolle in modernen NLP-Modellen spielen. Der Autor erklärt die grundlegenden Konzepte hinter der Architektur, einschließlich der Selbstaufmerksamke
The 4 Vision Transformer Architectures: How AI Learned to See Without Convolutions
Der Artikel "The 4 Vision Transformer Architectures: How AI Learned to See Without Convolutions" beschreibt die Entwicklung und Funktionsweise von vier verschiedenen Vision Transformer Architekturen, die in der Bildverarbeitung eingesetzt werden. Im Gegensatz zu traditionellen Convolutional Neural N
How Andrej Karpathy Built a Working Transformer in 243 Lines of Code
Andrej Karpathy hat mit microGPT ein innovatives Bildungswerkzeug geschaffen, das den Zugang zur GPT-Technologie erleichtert. In nur 243 Zeilen Python-Code vermittelt es die grundlegenden mathematischen Prinzipien hinter großen Sprachmodellen. Im Gegensatz zu herkömmlichen Tutorials, die komplexe Fr
The 4 Flash Attention Variants: How to Train Transformers 10× Longer Without Running Out of Memory
In der Studie "The 4 Flash Attention Variants: How to Train Transformers 10× Longer Without Running Out of Memory" werden vier Varianten der Flash Attention-Technologie vorgestellt, die es ermöglichen, Transformer-Modelle effizienter zu trainieren. Die Autoren zeigen, dass diese Varianten die Speich
Inside the Transformer: How Your Dataset Becomes an AI Brain
Der Artikel "Inside the Transformer: How Your Dataset Becomes an AI Brain" beleuchtet den Prozess, wie Daten in leistungsfähige KI-Modelle umgewandelt werden. Er erklärt die Funktionsweise von Transformern, einer Schlüsselarchitektur in der modernen KI, die es ermöglicht, große Datenmengen effizient
The Key to AI Intelligence: Why Transformer Width Matters More Than Depth
In "The Key to AI Intelligence: Why Transformer Width Matters More Than Depth" wird die Bedeutung der Breite von Transformern in der Künstlichen Intelligenz hervorgehoben. Der Autor argumentiert, dass eine breitere Architektur, die mehr Parameter in den Schichten umfasst, entscheidend für die Leistu
“Google’s Secret Weapon: The AI Architecture That Could Make Transformers Obsolete”
In dem Artikel "Google’s Secret Weapon: The AI Architecture That Could Make Transformers Obsolete" wird eine neuartige KI-Architektur vorgestellt, die das Potenzial hat, die bisher dominierenden Transformer-Modelle zu ersetzen. Diese innovative Architektur verspricht eine effizientere Verarbeitung v
Transformers: A Practical Understanding
"Transformers: A Practical Understanding" bietet eine umfassende Einführung in die Transformer-Architektur, die in der natürlichen Sprachverarbeitung und anderen Bereichen der künstlichen Intelligenz weit verbreitet ist. Der Text erklärt die grundlegenden Konzepte, die hinter Transformers stehen, ei
Nvidia's Nemotron 3 swaps pure Transformers for a Mamba hybrid to run AI agents efficiently
Nvidia hat die Nemotron 3-Familie vorgestellt, die eine innovative Kombination aus Mamba- und Transformer-Architekturen nutzt, um die Effizienz von AI-Agenten zu steigern. Diese neuen Modelle sind darauf ausgelegt, komplexe Aufgaben autonom über längere Zeiträume hinweg zu bewältigen und unterstütze
Transformers v5 Introduces a More Modular and Interoperable Core
Hugging Face hat die erste Release-Kandidatin von Transformers v5 veröffentlicht, die einen bedeutenden Fortschritt in der Entwicklung der Transformers-Bibliothek darstellt. Im Vergleich zur Version 4, die vor fünf Jahren erschien, liegt der Fokus auf Interoperabilität, um eine nahtlose Zusammenarbe
Stargate Project initiates AI buildout, Fortune Electric transformer orders exceed NT$120 billion
Das US-Stargate-Projekt hat zu einem signifikanten Anstieg der Nachfrage nach schwerer elektrischer Ausrüstung geführt. Fortune Electric konnte erste Aufträge für Transformatoren im Rahmen dieser Initiative sichern und verzeichnet zudem eine hohe Nachfrage von anderen Kunden, insbesondere im Bereich
The Transformer Architecture
Die Transformer-Architektur ist ein bahnbrechendes Modell im Bereich des maschinellen Lernens, das insbesondere für die Verarbeitung von Sequenzdaten wie Text entwickelt wurde. Sie basiert auf einem Mechanismus namens "Self-Attention", der es dem Modell ermöglicht, die Beziehungen zwischen verschied
Pre-LN vs. Post-LN: The Data Science of Transformer Stability
Der Artikel "Pre-LN vs. Post-LN: The Data Science of Transformer Stability" untersucht die Stabilität von Transformer-Modellen in Bezug auf zwei unterschiedliche Normalisierungsansätze: Pre-Layer Normalization (Pre-LN) und Post-Layer Normalization (Post-LN). Die Autoren analysieren, wie sich diese b
Smart Transformers Market to hit USD 5.97 billion by 2032 at a CAGR of 9.16%;fueled by AI integration and grid modernization demands in the IT and energy sectors.
Der Markt für intelligente Transformatoren wird bis 2032 voraussichtlich 5,97 Milliarden USD erreichen, mit einer jährlichen Wachstumsrate von 9,16%. Diese Entwicklung wird durch die Integration von Künstlicher Intelligenz (KI) und den Bedarf an Modernisierung der Stromnetze in den IT- und Energiese
How Transformer and LLM Assist in Cardiac Risk Detection
Der Artikel "How Transformer and LLM Assist in Cardiac Risk Detection" untersucht den Einsatz von Transformer-Modellen und großen Sprachmodellen (LLMs) zur Verbesserung der Erkennung von kardiovaskulären Risiken. Durch die Analyse umfangreicher medizinischer Daten und Patientenakten ermöglichen dies
Transformer
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Transformer innerhalb von Modellarchitekturen auf JetztStarten.de.
SeeVideo.dance Redefines AI Cinema: Launching the Premier Professional Web Studio for Seedance 2.0
SeeVideo.dance hat eine innovative webbasierte Plattform für das Seedance 2.0 Modell vorgestellt, die die KI-gesteuerte Videoproduktion revolutioniert. Diese benutzerfreundliche Oberfläche ermöglicht es Kreativen, hochwertige 4K-Videos direkt aus ihrem Browser zu erstellen, ohne teure Hardware zu be
Huawei lance une solution FAN de nouvelle génération
Lors du MWC Barcelona 2026, Huawei a dévoilé sa solution FAN de nouvelle génération, intégrant l'intelligence artificielle (IA) et des technologies tout-optique pour renforcer les capacités des fournisseurs de services Internet (FAI). Cette innovation vise à transformer le secteur des FAI en automat
How AI is Finally Teaching Computers to Read Like People
In dem Artikel "How AI is Finally Teaching Computers to Read Like People" wird untersucht, wie Fortschritte in der Künstlichen Intelligenz (KI) es Computern ermöglichen, Texte auf eine menschenähnliche Weise zu verstehen. Traditionelle Ansätze zur Verarbeitung natürlicher Sprache (NLP) stießen oft a
Presentation: AI Innovation in 2025 and Beyond
In seiner Präsentation "AI Innovation in 2025 and Beyond" beleuchtet Tejas Kumar von IBM die Entwicklung der Künstlichen Intelligenz (KI) und deren zukünftige Perspektiven bis 2025. Er weist darauf hin, dass KI keine neue Erfindung ist, sondern ihre Ursprünge bis ins Jahr 1906 zurückreichen, als sta
Geometry behind how AI agents learn revealed
Eine neue Studie der University at Albany enthüllt, dass künstliche Intelligenz (KI) Informationen auf komplexere Weise organisiert, als bisher angenommen. Anstelle der langjährigen Annahme, dass KI-Modelle auf glatten, niedrigdimensionalen Oberflächen operieren, zeigen die Forscher, dass ein transf
NVIDIA DLSS 4.5 und AMD FSR 4: Der KI-Upscaling-Krieg erreicht die nächste Stufe
Die Einführung von NVIDIA DLSS 4.5 und AMD FSR 4 hat den Wettkampf um die Grafikqualität in PC-Spielen auf ein neues Level gehoben. DLSS 4.5, seit dem 14. Januar 2026 verfügbar, nutzt ein zweites Transformer-Modell für verbessertes Upscaling von 1080p auf 4K, was die Bildqualität erheblich steigert,
The US and China Are Collaborating More Closely on AI Than You Think
Trotz der bestehenden Rivalität zwischen den USA und China im Bereich der künstlichen Intelligenz zeigt eine Analyse von über 5.000 Forschungsarbeiten, dass beide Länder überraschend eng zusammenarbeiten. Rund 3 Prozent dieser Arbeiten, die auf der NeurIPS-Konferenz präsentiert wurden, stammen aus K
Nvidia Rolls Out DLSS 4.5 to All RTX Owners Today
Nvidia hat heute die DLSS 4.5 Super Resolution-Technologie für alle RTX-Besitzer veröffentlicht, die eine bedeutende Verbesserung gegenüber der vorherigen Version darstellt. Der neue AI Transformer-Modell der zweiten Generation verspricht schärfere Bilder und weniger visuelle Störungen beim Spielen.
Lightricks LTX-2: Offene KI für 4K-Videos fordert Tech-Giganten heraus
Lightricks hat mit LTX-2 ein quelloffenes KI-Modell zur Erstellung von 4K-Videos vorgestellt, das eine ernsthafte Konkurrenz zu den geschlossenen Systemen großer Tech-Unternehmen darstellt. Das Modell und der Trainingscode sind auf GitHub verfügbar, was Transparenz fördert und den Zugang zu hochwert
Nvidia stellt DLSS 4.5 und dynamische Frame-Generierung vor
Nvidia hat auf der CES 2026 die neue Version DLSS 4.5 vorgestellt, die ein verbessertes Transformer-Modell der 2. Generation für Upscaling sowie eine dynamische Multi-Frame-Generierung einführt. Diese innovative Technologie erzeugt zusätzliche Frames nur dann, wenn die Bildrate unter einen festgeleg
Introducing Falcon-H1-Arabic: Pushing the Boundaries of Arabic Language AI with Hybrid Architecture
Falcon-H1-Arabic ist eine bedeutende Innovation im Bereich der arabischen Sprachmodelle, die eine hybride Architektur nutzt, um State Space Models und Transformer-Mechanismen zu kombinieren. Diese Struktur verbessert die Verarbeitung langer Texte und die Kohärenz, was besonders für die komplexe Morp
LLM & AI Agent Applications with LangChain and LangGraph — Part 4 — Components of GPT
In dem Artikel "LLM & AI Agent Applications with LangChain and LangGraph — Part 4 — Components of GPT" wird die Funktionsweise und die Struktur von GPT (Generative Pre-trained Transformer) erläutert. Der Fokus liegt auf den verschiedenen Komponenten, die für die Entwicklung und Implementierung von K
NVIDIA launches open model family for agentic AI
NVIDIA hat die Nemotron 3 Modellreihe für agentische KI vorgestellt, bestehend aus den Varianten Nano, Super und Ultra, die herausragende Leistungen für Multi-Agenten-KI-Systeme bieten. Diese Modelle nutzen eine hybride Mamba-Transformer-Mischarchitektur, die eine hohe Inferenzgeschwindigkeit bei de
Cisco decides its homegrown AI model is ready to power its products
Cisco hat beschlossen, sein selbstentwickeltes KI-Modell „Foundation-Sec-1.1-8B-Instruct“ in seinen Produkten zu integrieren, beginnend mit dem Duo Identity Intelligence-Angebot. Dieses Modell, das auf einer optimierten Transformer-Architektur basiert, wurde speziell für Cybersicherheitsanwendungen
Activation Functions in Focus: Understanding ReLU, GELU, and SiLU
In der Diskussion über Aktivierungsfunktionen in neuronalen Netzwerken stehen ReLU (Rectified Linear Unit), GELU (Gaussian Error Linear Unit) und SiLU (Sigmoid Linear Unit) im Mittelpunkt. ReLU ist bekannt für seine Einfachheit und Effizienz, da es negative Werte auf null setzt und somit die Berechn
Google outlines MIRAS and Titans, a possible path toward continuously learning AI
Google hat kürzlich die Architektur seines neuen Transformer-Modells "Titans" sowie das theoretische Framework "MIRAS" vorgestellt, die darauf abzielen, KI-Modelle zu entwickeln, die kontinuierlich lernen und über ein funktionales Langzeitgedächtnis verfügen. Titans kombiniert präzise Kurzzeitgedäch
Attention Is All You Need
"Attention Is All You Need" ist ein wegweisendes Paper, das das Transformer-Modell vorstellt, welches die Verarbeitung von Sequenzdaten revolutioniert. Anstatt auf rekurrente oder konvolutionale Netzwerke zurückzugreifen, nutzt der Transformer ein selbstaufmerksames Mechanismus, um die Beziehungen z
The Generative AI Scientist Roadmap 2026
Die "Generative AI Scientist Roadmap 2026" bietet eine umfassende Anleitung für angehende KI-Entwickler, die ihre Fähigkeiten von grundlegenden Python-Kenntnissen bis hin zu komplexen Architekturen von KI-Agenten erweitern möchten. Der Artikel identifiziert sieben Schlüsselbereiche für die Beherrsch