Kernmodelle
Große, kleine und multimodale Basismodelle als Grundbausteine moderner KI-Systeme.
5
Cluster
240
Importierte Einträge
Cluster in dieser Unterrubrik
Diese Cluster verfeinern das Thema und führen direkt zu den jeweils passenden Einträgen.
Große Sprachmodelle
Aktuelle Links, Zusammenfassungen und Marktinformationen zu „Große Sprachmodelle“ innerhalb von Kernmodelle.
Kleine Sprachmodelle
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Kleine Sprachmodelle innerhalb von Kernmodelle auf JetztStarten.de.
Multimodale Modelle
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Multimodale Modelle innerhalb von Kernmodelle auf JetztStarten.de.
Basismodelle
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Basismodelle innerhalb von Kernmodelle auf JetztStarten.de.
Reasoning-Modelle
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Reasoning-Modelle innerhalb von Kernmodelle auf JetztStarten.de.
Aktuelle Einträge in Kernmodelle
Alle verarbeiteten Links dieser Unterrubrik erscheinen hier mit ihrer Kurzbeschreibung und thematischen Einordnung.
Palantir Demos AI War Planning With Anthropic's Claude
Palantir hat dem Pentagon demonstriert, wie KI-Chatbots, insbesondere Anthropic's Claude, die militärische Entscheidungsfindung revolutionieren könnten. Durch die Integration dieser KI in Verteidigungssysteme können KI-Assistenten Informationen von Schlachtfeldern analysieren und in Echtzeit taktische Empfehlungen abgeben. Die Demos zeigen einen bedeutenden Fortschritt in der Anwendung kommerzieller KI im Militär, da diese Systeme nicht nur Daten auswerten, sondern auch strategische Entscheidungen vorschlagen, die zuvor menschlicher Expertise bedurften. Palantirs Ansatz nutzt große Sprachmodelle zur Verarbeitung klassifizierter Informationen, Satellitenbilder und Kommunikationsdaten, was eine schnellere Generierung umsetzbarer Empfehlungen ermöglicht. Diese Entwicklungen werfen jedoch Fragen zur Autonomie von KI im Krieg auf, insbesondere im Hinblick auf Anthropics Engagement für verantwortungsvolle KI-Entwicklung. Unklar bleibt, ob die Integration von Claude in militärische Planungsprozesse genehmigt wurde oder über kommerzielle API-Kanäle erfolgt ist.
[MWC 2026] GlobalData vydáva bielu knihu o vývoji hlasových služieb v ére AI
Auf dem MWC 2026 stellte Andy Hicks von GlobalData eine umfassende Studie zur Entwicklung von Sprachdiensten in der Ära der Künstlichen Intelligenz (KI) vor. Die Untersuchung betont die Notwendigkeit einer vollständig konvergierten Sprachnetzwerkinfrastruktur, um KI-gestützte Dienstleistungen zu innovieren und den Wert von Sprachdiensten neu zu definieren. Angesichts der ungleichen Fortschritte bei globalen Netzwerkstandards, insbesondere beim Übergang von 2G und 3G, wird diese Infrastruktur für Betreiber entscheidend, um verschiedene Netzgenerationen effizient zu verwalten. Die konvergierte Architektur senkt die Betriebskosten und fördert kontinuierliche Innovationen. Die Integration von KI erfolgt in drei Phasen: Zunächst wird die Nutzererfahrung durch Geräuschunterdrückung verbessert, gefolgt von Echtzeitübersetzungen und schließlich der Einbindung von KI in Video- und Datenkanälen für multimodale Dienste. Hicks ermutigt Betreiber, die Chancen der KI zu nutzen, um die Grundwerte ihrer Sprachdienste zu revitalisieren und von den Fortschritten in 5G-A und KI zu profitieren.
Agentic Code Reasoning Is Quietly Changing How We Verify LLM Patches
Der Artikel mit dem Titel "Agentic Code Reasoning Is Quietly Changing How We Verify LLM Patches" behandelt die innovative Methode des agentischen Code-Reasonings, die zunehmend in der Überprüfung von Patches für große Sprachmodelle (LLMs) eingesetzt wird. Diese Technik ermöglicht es Entwicklern, die Funktionsweise und die Änderungen in den Modellen besser zu verstehen und zu validieren. Durch den Einsatz von agentischem Denken können potenzielle Fehlerquellen identifiziert und die Effizienz der Überprüfungsprozesse verbessert werden. Der Artikel hebt hervor, wie diese Methode nicht nur die Qualität der Patches erhöht, sondern auch die Zusammenarbeit zwischen Entwicklern und KI-Systemen fördert. Letztlich wird die Bedeutung dieser neuen Herangehensweise für die Zukunft der KI-Entwicklung und -Wartung betont.
The Postgres® Vitality Index: Enterprises Rush to Postgres, and EDB Continues to Lead the Foundation for Sovereign Enterprise AI
Der Postgres® Vitality Index zeigt, dass Postgres zur weltweit am meisten investierten Datenbank avanciert ist, wobei EDB als führender kommerzieller Beitragender mit über 30% der Schlüsselbeiträge hervorsticht. Große Technologieunternehmen setzen zunehmend auf Postgres, was auf eine Neuausrichtung in der Unternehmensinfrastruktur hinweist. Trotz der Konkurrenz durch Cloud-Anbieter bleibt EDB der Hauptakteur, der die Entwicklung des PostgreSQL-Kerns sowie das Ökosystem und die Gemeinschaft fördert. Die EDB Postgres AI-Plattform adressiert Herausforderungen der Daten- und AI-Souveränität durch eine hybride Architektur, die Governance und Sicherheit gewährleistet. Diese Plattform integriert transaktionale, analytische und AI-Workloads auf einer einzigen Postgres-Basis und erfüllt die Anforderungen der AI-Ära. Zudem hat EDB ein umfassendes Handbuch zur Erstellung von AI-Plattformen mit Postgres veröffentlicht, um die Relevanz dieser neuen Architektur zu betonen.
Webflow buys AI content generation platform Vidoso to bolster its marketing suite
Webflow hat die AI-Content-Generierungsplattform Vidoso übernommen, um seine Marketingangebote zu erweitern. Vidoso, gegründet im Jahr 2024, nutzt große Sprachmodelle zur Erstellung von Marketingmaterialien wie Bildern, Präsentationen und Blogbeiträgen. Mit dieser Übernahme wird das vierköpfige Team von Vidoso Teil von Webflow, was CEO Linda Tong als wichtigen Schritt in Richtung einer umfassenden Marketingplattform bezeichnet. Die Integration von Vidoso soll helfen, verschiedene Marketingfunktionen zu verknüpfen und die Effizienz zu steigern, da viele Unternehmen oft in Silos arbeiten. Vidoso zielt darauf ab, die Lücke zwischen generischer AI-Inhaltsproduktion und den spezifischen Anforderungen von Marken zu schließen, indem es konsistente Inhalte innerhalb bestehender Systeme bereitstellt. Trotz des Wettbewerbs durch andere Startups und große Tech-Unternehmen ist Tong überzeugt, dass Webflows umfassende Angebote im Bereich Inhaltserstellung und Kampagnenmanagement mehr Kunden anziehen werden. Diese Übernahme ist Teil von Webflows Strategie, seine Marketing-Suite auszubauen, nachdem bereits andere Startups übernommen und neue Integrationen eingeführt wurden.
Legora hits $5.55B valuation with $550M Series D round
Legora hat kürzlich eine bedeutende Finanzierungsrunde in Höhe von 550 Millionen Dollar in der Series D abgeschlossen, was die Bewertung des KI-gestützten Legaltech-Unternehmens auf 5,55 Milliarden Dollar erhöht. Die Runde wurde von Accel geleitet und spiegelt das anhaltende Vertrauen der Investoren in die transformative Rolle von KI in professionellen Dienstleistungen wider. Legora plant, das frische Kapital für eine aggressive Expansion auf dem US-Markt zu nutzen, während die Konkurrenz im Bereich der Automatisierung von Rechtsabläufen wächst. Die Plattform von Legora nutzt große Sprachmodelle zur Unterstützung von Anwälten bei der Dokumentenerstellung, Recherche und Fallaktenverwaltung, was die Effizienz in einer Branche steigert, die jährlich über 300 Milliarden Dollar erwirtschaftet. Trotz eines allgemeinen Rückgangs der Bewertungen in der Startup-Landschaft bleibt der Bereich Unternehmens-KI attraktiv für Investitionen, was auf eine rasche Akzeptanz von KI-Tools in großen Kanzleien hinweist. Accels Engagement unterstreicht das Potenzial von Legora, ähnlich erfolgreiche Wege wie andere unterstützte Unternehmen wie Slack und Dropbox zu gehen.
Multimodal Large Language Models: A Practical Example
Der Artikel "Multimodal Large Language Models: A Practical Example" behandelt die Anwendung multimodaler großer Sprachmodelle, die sowohl Text- als auch Bilddaten verarbeiten können. Er erläutert, wie diese Modelle in verschiedenen praktischen Szenarien eingesetzt werden, um die Interaktion zwischen Mensch und Maschine zu verbessern. Ein Beispiel wird vorgestellt, das die Integration von visuellen und sprachlichen Informationen demonstriert, um komplexe Aufgaben zu lösen. Der Artikel hebt die Vorteile dieser Technologie hervor, wie die Fähigkeit, kontextuelle Informationen besser zu verstehen und kreativere Lösungen zu generieren. Zudem werden Herausforderungen und zukünftige Entwicklungen in diesem Bereich angesprochen, um das Potenzial multimodaler Modelle weiter auszuschöpfen.
Huawei spúšťa dátovú platformu s AI na prepojenie modelov a obchodnej hodnoty
Huawei hat auf dem MWC Barcelona 2026 eine neue AI-Datenplattform vorgestellt, die darauf abzielt, die Kluft zwischen KI-Modellen und ihrem Geschäftswert zu schließen. Die Plattform integriert Technologien zur Wissensgenerierung und -suche sowie einen KV-Cache, um die Inferenzgeschwindigkeit signifikant zu erhöhen. Trotz der Fortschritte in der KI sind viele Modelle nicht optimal in grundlegende Dienste integriert, was zu langsamen Reaktionszeiten führt. Die neue Lösung bietet hochpräzise multimodale Wissensgenerierung mit einer Suchgenauigkeit von über 95 % und verkürzt die Zeit bis zur ersten Token-Antwort um 90 %. Ein Kontextmanagementsystem verbessert die Datenextraktion und -speicherung, was die Intelligenz der Modelle steigert. Die Plattform kann sowohl im Gerätemodus als auch im unabhängigen Modus betrieben werden, was flexible Skalierbarkeit und maximale Leistung ermöglicht. Huawei strebt an, durch diese Innovationen die Potenziale von KI-Modellen in greifbare Geschäftswerte umzuwandeln.
MWC 2026 | Fibocom stellt AI ECR-Lösung vor und läutet eine neue Ära des intelligenten Einzelhandels ein
Auf dem MWC 2026 hat Fibocom eine bahnbrechende AI Electronic Cash Register (ECR)-Lösung vorgestellt, die auf der Genio 520/720 IoT-Plattform von MediaTek basiert. Diese innovative Lösung nutzt leistungsstarkes Edge-KI-Computing, um Einzelhändlern schnellere und intelligentere Einkaufserlebnisse zu ermöglichen, indem sie lokale große Sprachmodelle für Sprachinteraktion und visuelle Erkennung integriert. Ausgestattet mit einem fortschrittlichen 6-nm-Octa-Core-Prozessor und einer NPU, die bis zu 10 TOPS bietet, reduziert die Lösung die Abhängigkeit von Cloud-Diensten und verbessert den Datenschutz. Ein hochauflösendes Display und die Unterstützung verschiedener Peripheriegeräte optimieren die Benutzererfahrung zusätzlich. Die Integration von Wi-Fi 6 und Bluetooth 5.3 gewährleistet stabile drahtlose Verbindungen, während das Betriebssystem Android 15 ein sicheres, zukunftsfähiges Ökosystem bietet. Ralph Zhao von Fibocom hebt hervor, dass Edge-KI-Computing entscheidend für die Verbesserung der Benutzererfahrung im Einzelhandel ist und die neue Lösung einen bedeutenden Fortschritt im Hardwaredesign darstellt. Die Partnerschaft zwischen Fibocom und MediaTek zielt darauf ab, den intelligenten Einzelhandel voranzutreiben und Unternehmen wettbewerbsfähiger zu machen.
Smack Technologies Trains AI Models for Battlefield Ops
Smack Technologies, ein auf Verteidigung spezialisiertes Startup, entwickelt spezialisierte KI-Modelle zur Planung von Operationen auf dem Schlachtfeld. Dies wirft Fragen über den Einsatz von KI im Militär auf, während große Tech-Unternehmen wie Anthropic über ethische Grenzen diskutieren. Smack Technologies fokussiert sich auf militärische Szenarien und trainiert seine Systeme mit militärischer Doktrin und Logistik, was sie von allgemeinen KI-Systemen unterscheidet, die nur für militärische Zwecke angepasst werden. Die KI-Modelle sind darauf ausgelegt, Informationen aus dem Schlachtfeld zu verarbeiten, taktische Optionen zu bewerten und operative Pläne zu erstellen, wodurch sie die Effizienz menschlicher Planer übertreffen können. Das Interesse des Pentagon an KI hat in den letzten zwei Jahren zugenommen, und Unternehmen wie Smack repräsentieren eine neue Generation von Startups, die speziell für militärische Anwendungen entwickelt wurden, anstatt zivile Technologien umzupolen.
Huawei's Yang Chaobin: Creating Mobile Value Creates a Better Intelligent World
Auf dem MWC Barcelona 2026 hat Yang Chaobin, CEO von Huaweis ICT Business Group, die ICT-Branche dazu aufgerufen, den Zugang zu KI-Technologien für alle zu verbessern. Er betonte die Notwendigkeit, 5G-Advanced auszubauen, um den Anforderungen neuer KI-Anwendungen gerecht zu werden und die digitale Kluft in unterversorgten Regionen zu schließen. Yang hob hervor, dass die Nutzung neuer Frequenzen wie U6 GHz entscheidend sei, um die Netzwerkkapazitäten zu erweitern und die Entwicklung hin zu 6G zu unterstützen. Die steigende Nachfrage nach KI-Diensten eröffnet der Mobilfunkindustrie große Chancen, zeigt jedoch auch bestehende Lücken in der Netzwerkinfrastruktur auf. Um diese Herausforderungen zu meistern, sind hohe Bandbreiten sowie sichere, zuverlässige und latenzarme Verbindungen erforderlich. Yang forderte die Branche zur Zusammenarbeit bei der kommerziellen Einführung von 5G-A und zur Entwicklung innovativer Lösungen zur digitalen Inklusion auf. Huawei hat bereits Programme gestartet, um die digitale Kluft zu überbrücken, darunter Initiativen für ländliche Gebiete und Bildungsprojekte.
MacBook Pro Prices Jump $400 as AI Boom Triggers RAM Crunch
Apple hat die Preise für die neuesten MacBook Pro-Modelle um bis zu 400 Dollar erhöht, was auf einen globalen RAM-Mangel zurückzuführen ist. Dieser Mangel wird durch die steigende Nachfrage nach Speicher für KI-Anwendungen verursacht, da Unternehmen in den Ausbau ihrer Datenzentren investieren, um große Sprachmodelle und KI-Workloads zu unterstützen. Die Produktionskapazitäten der Speicherhersteller können mit der wachsenden Nachfrage nicht Schritt halten, was zu einem Ungleichgewicht zwischen Angebot und Nachfrage führt. Seit Ende 2025 sind die Preise für DRAM um über 60% gestiegen, wobei hochleistungsfähiger Speicher noch stärkeren Preiserhöhungen ausgesetzt ist. Apple gibt diese gestiegenen Kosten nun direkt an die Verbraucher weiter, was eine Abkehr von der bisherigen Praxis darstellt, Preisschwankungen intern auszugleichen. Ein Basismodell des MacBook Pro kostet nun 2.399 Dollar, was eine überraschende Erhöhung für viele Apple-Beobachter darstellt, da sie weit über den üblichen jährlichen Preisanstiegen liegt.
Omio Group breaks boundaries, accelerating product innovation and market expansion across all business units in 2026
Die Omio Group präsentierte auf der ITB Berlin 2026 ihre ehrgeizigen Pläne zur Produktinnovation und globalen Expansion, um ihre Position als führende multimodale Reiseplattform zu festigen. Das Unternehmen strebt an, bis 2028 in über 70 Ländern tätig zu sein und setzt dabei auf technologische Fortschritte, um das Reiseerlebnis zu optimieren. Ein zentraler Bestandteil ist die Integration von Reiseentdeckung, Buchung und Partnerverteilung in ein vernetztes Ökosystem. Die Einführung von Omio Business zielt darauf ab, kleine und mittelständische Unternehmen im Bereich Geschäftsreisen zu unterstützen, während die aktualisierte Rome2Rio-App mit KI-gestützter Routenintelligenz die Planung von Tür zu Tür verbessert. Zudem plant Omio, seine globale Reichweite durch neue Partnerschaften, insbesondere in Südostasien und Brasilien, auszubauen. CEO Naren Shaam hebt hervor, dass die Erwartungen der Reisenden an nahtlose Reisen gestiegen sind und Omio durch innovative Produkte neue Maßstäbe in der Transportbranche setzen möchte.
AI's 'Silent Failure' Risk Now Threatens Enterprise Operations
Die KI-Branche steht vor einem neuen, ernsthaften Risiko, das als 'stilles Versagen in großem Maßstab' bezeichnet wird. Dieses Phänomen tritt auf, wenn KI-Systeme eine Komplexität erreichen, die es menschlichen Betreibern unmöglich macht, ihre Funktionsweise oder die Gründe für ihr Versagen zu verstehen. Dies könnte zu erheblichen Störungen in Unternehmen führen, die erst spät erkannt werden. Während Firmen wie Amazon und Microsoft KI zunehmend in ihre Geschäftsprozesse integrieren, bleibt die Entscheidungslogik dieser Systeme oft undurchsichtig, selbst für deren Entwickler. Experten warnen, dass wir in einer Phase angekommen sind, in der KI-Systeme zwar operativ sind, ihre Mechanismen jedoch nicht erklärt werden können. Dies wird problematisch, wenn diese Systeme versagen, was unvermeidlich ist, da die Ursachen unklar bleiben. Bereits jetzt zeigen große Sprachmodelle von OpenAI und Google unerwartete Verhaltensweisen, die nicht vorhergesehen wurden. Mit der zunehmenden Skalierung und Vernetzung dieser Systeme wächst das Risiko für kaskadierende Fehler exponentiell.
Block Slashes 60% of Workforce in Unprecedented AI Pivot
Block, das Unternehmen von Jack Dorsey, hat in einem radikalen Schritt 60% seiner Belegschaft, also 6.000 von 10.000 Mitarbeitern, entlassen, um sich verstärkt auf die Automatisierung durch Künstliche Intelligenz (KI) zu konzentrieren. Diese Maßnahme stellt die größte prozentuale Entlassung eines großen Fintech-Unternehmens dar und verdeutlicht den zunehmenden Einfluss von KI auf die Finanzdienstleistungsbranche. Dorsey glaubt, dass KI in der Lage ist, Aufgaben zu übernehmen, die zuvor von zahlreichen Mitarbeitern in den Bereichen Kundenservice, Betrugsbekämpfung, Transaktionsverarbeitung und Compliance erledigt wurden. Die Umstrukturierung erfolgt schnell, obwohl Block erst vor sechs Monaten neue Mitarbeiter eingestellt hatte. Besonders betroffen sind die Bereiche Kundenbetreuung, Betrieb und mittleres Management, wo KI und große Sprachmodelle den größten Nutzen versprechen. Diese Entwicklung zeigt die beschleunigte Akzeptanz von KI in der Finanzbranche und stellt eine bedeutende Wette auf die technologische Zukunft von Block dar.
العلماء يطورون نموذجًا ذكاءً اصطناعيًا لفهم الظواهر العلمية باستخدام موجات الزلازل
Ein Team von fünf amerikanischen nationalen Laboren hat ein KI-Modell namens SeisModal entwickelt, das auf über 16.000 seismischen Ereignissen basiert, um wissenschaftliche Phänomene besser zu verstehen. Dieses multimodale Modell kann verschiedene Datentypen wie Erdbebenstärke, Standort, Zeit, Wellenform sowie Texte, Bilder und Videos verarbeiten, was eine umfassende Analyse jedes Ereignisses ermöglicht. Dadurch können Wissenschaftler zukünftige Ereignisse untersuchen, selbst wenn einige Informationen fehlen. Karl Pazdernik, ein führender Datenwissenschaftler, hebt hervor, dass das Modell mit minimalem Aufwand auf verschiedene wissenschaftliche Probleme anwendbar ist. SeisModal nutzt hochqualitative, öffentlich zugängliche Daten des National Earthquake Information Center, was zur wissenschaftlichen Zuverlässigkeit beiträgt. Ian Stewart, ein Forscher, betont, dass SeisModal auch zeitliche Daten analysieren kann, was einen Fortschritt im Vergleich zu vielen aktuellen Sprachmodellen darstellt. Die Forscher hoffen, dass SeisModal auch in anderen wissenschaftlichen Bereichen, wie der Überwachung der nuklearen Einhaltung, eingesetzt werden kann, wobei der Fokus auf Transparenz und Datensicherheit liegt.
'Claude Just Killed Our Startup': This SF Founder Says AI Made Her Product Obsolete Overnight
Ira Bodnar, die Gründerin des San Francisco-Startups Ryze, berichtet von den dramatischen Auswirkungen der rasanten Entwicklungen im Bereich Künstliche Intelligenz auf ihr Unternehmen. Insbesondere der Chatbot Claude von Anthropic hat Ryze's Produkt, das sich auf die Verwaltung von Google- und Meta-Anzeigen spezialisiert, über Nacht obsolet gemacht. Dies führte zu einem drastischen Rückgang der Abschlussquote von 70% auf 20%. Trotz anfänglicher Erfolge mit mehreren hundert zahlenden Kunden sieht Bodnar die Notwendigkeit, sich neu zu orientieren und plant, Ryze in Richtung komplexer KI-Workflows für große Werbeagenturen zu pivotieren. Sie äußert optimistische Prognosen über die Zukunft der KI, darunter die Möglichkeit, dass große Sprachmodelle die nächste Billionen-Dollar-Werbeplattform schaffen könnten. Bodnar prognostiziert zudem, dass KI-Agenten in der Lage sein werden, unabhängig einzukaufen und traditionelle Verkaufsstrategien überflüssig zu machen. Die Integration von Manus AI in Meta's Ads Manager verdeutlicht bereits die rasanten Veränderungen in der Werbelandschaft, die von CEO Mark Zuckerberg als entscheidender Schritt in Richtung automatisierter Kampagnen beschrieben werden.
AI models still suck at math
Aktuelle KI-Modelle, insbesondere große Sprachmodelle (LLMs), zeigen weiterhin erhebliche Schwächen in der Mathematik, trotz einiger Fortschritte. Eine Evaluierung durch Omni Calculator ergab, dass Modelle wie ChatGPT-5.2 und Gemini 3 Flash besser abschnitten als ihre Vorgänger, jedoch nur 54 bis 73 Prozent der mathematischen Probleme korrekt lösten. Die Forscher betonen, dass diese Modelle als Vorhersagemaschinen auf Wahrscheinlichkeiten basieren, was zu häufigen falschen Antworten, insbesondere bei komplexen Aufgaben, führt. Zudem variieren die Antworten bei wiederholten Fragen erheblich, was die Instabilität der Modelle verdeutlicht. Es wird vermutet, dass jüngste Updates die quantitative Problemlösungsfähigkeit beeinträchtigt haben. Trotz Verbesserungen bleibt die mathematische Genauigkeit unzureichend. Eine Kombination aus LLMs und deterministischen Berechnungen sowie die Integration formaler Beweisverfahren könnten vielversprechende Ansätze zur Verbesserung der Modelle darstellen.
Lilly Launches World's First DGX B300 AI Supercomputer
Eli Lilly hat mit der Einführung von LillyPod, dem weltweit ersten Nvidia DGX SuperPOD, einen bedeutenden Schritt in der Nutzung von Künstlicher Intelligenz (KI) zur Arzneimittelentdeckung gemacht. Diese hochmoderne Infrastruktur basiert auf den neuen B300-Systemen und ermöglicht es Lilly, industrielle KI-Kapazitäten vollständig intern zu betreiben. Durch den Besitz der gesamten Technologie, von Hardware bis Software, strebt das Unternehmen an, sich einen Wettbewerbsvorteil in der forschungsintensiven Pharmaindustrie zu sichern. Angesichts des Drucks, die Entwicklungszeiten und -kosten neuer Medikamente zu senken, ist diese Entscheidung besonders relevant. Die DGX B300-Systeme bieten erhebliche Verbesserungen in der Trainings- und Inferenzleistung, die für große Sprachmodelle und molekulare Simulationen entscheidend sind. Mit dieser Infrastruktur kann Lilly komplexe Probleme angehen und die Interaktionen von Millionen molekularer Verbindungen mit biologischen Zielen effizienter simulieren, was zuvor rechnerisch nicht möglich war.
Rashmika-Vijay's wedding pictures not out; AI edits flood internet
Die vermeintlichen Hochzeitsbilder der Schauspieler Vijay Deverakonda und Rashmika Mandanna haben im Internet für große Aufregung gesorgt, doch die Echtheit dieser Bilder bleibt unbestätigt, da das Paar noch keine offiziellen Fotos veröffentlicht hat. Berichten zufolge fand die traditionelle Hochzeit am Donnerstagmorgen in Udaipur statt, gefolgt von einer Kodava-Zeremonie am Abend. Unter den viral gehenden Bildern befindet sich eine Szene aus ihrem Film "Geetha Govindam" sowie ein KI-generiertes Bild, das sie als Ehepaar zeigt. Fans haben schnell erkannt, dass diese Bilder nicht von der tatsächlichen Zeremonie stammen. Die Vorfeiern des Paares begannen am Montag mit einer Poolparty und einem Sportereignis, gefolgt von einem bunten Sangeet-Abend. Zudem plant das Paar, am 4. März eine Empfangsfeier in Hyderabad auszurichten.
AI Is Reshaping Network Security and the Network Is Reshaping AI
Der Artikel „AI Is Reshaping Network Security and the Network Is Reshaping AI“ beleuchtet die transformative Rolle der Künstlichen Intelligenz (KI) in der Netzwerksicherheit. KI wird zunehmend eingesetzt, um Anomalien zu erkennen und Reaktionen zu automatisieren, was jedoch auch neue Risiken mit sich bringt, da KI-Workloads die Angriffsfläche von Organisationen erweitern. Traditionelle, statische Sicherheitsmaßnahmen stoßen an ihre Grenzen, da sich Unternehmensnetzwerke dynamisch entwickeln und die Anzahl der Sicherheitswarnungen steigt, während qualifizierte Analysten rar sind. Um diesen Herausforderungen zu begegnen, kommen KI-gestützte Überwachungsmethoden zum Einsatz, die große Datenmengen analysieren und Abweichungen vom normalen Verhalten identifizieren. Diese Systeme können automatisch Maßnahmen ergreifen, wie die Isolation verdächtiger Geräte. Ziel ist es, die bestehende Infrastruktur durch adaptive Intelligenz zu verbessern, die sich an die sich verändernden Umgebungen anpasst, anstatt sie zu ersetzen.
How I Built a Personal AI Research Assistant Using LLMs to Organize My Daily Academic Work
In dem Artikel "How I Built a Personal AI Research Assistant Using LLMs to Organize My Daily Academic Work" beschreibt der Autor, wie er einen persönlichen KI-Forschungsassistenten entwickelt hat, um seine täglichen akademischen Aufgaben effizienter zu organisieren. Er nutzt große Sprachmodelle (LLMs), um Informationen zu sammeln, Notizen zu strukturieren und Forschungsprojekte zu verwalten. Der Prozess umfasst die Identifizierung spezifischer Bedürfnisse, die Auswahl geeigneter LLMs und die Implementierung von Funktionen wie automatischer Zusammenfassung und Aufgabenverwaltung. Der Autor teilt seine Erfahrungen, Herausforderungen und Erfolge, die er während der Entwicklung des Assistenten gemacht hat. Zudem hebt er die Vorteile hervor, die eine solche KI-Lösung für die akademische Arbeit mit sich bringt, wie Zeitersparnis und verbesserte Organisation. Abschließend ermutigt er andere, ähnliche Technologien zu nutzen, um ihre Produktivität zu steigern.
Z.ai apology over GLM-5 rollout highlights operational risks for AI firms as valuation soars
Die chinesische KI-Startup-Firma Z.ai hat am 21. Februar eine öffentliche Entschuldigung veröffentlicht, nachdem die Einführung ihres neuen Modells GLM-5 auf Nutzerunmut gestoßen war. Die Probleme umfassten Abrechnungsfragen, Drosselung und Mängel im Upgrade-Mechanismus, was die operativen Risiken für KI-Unternehmen verdeutlicht. Diese Vorfälle ereignen sich in einem Umfeld, in dem große KI-Modelle an Bedeutung gewinnen und die Bewertungen solcher Firmen stark steigen. Die Nutzerreaktionen unterstreichen die Notwendigkeit für KI-Unternehmen, zuverlässige und benutzerfreundliche Systeme zu entwickeln. Z.ai steht nun vor der Herausforderung, die Ursachen der Probleme zu analysieren und Lösungen zu finden, um das Vertrauen der Nutzer zurückzugewinnen und zukünftige Rückschläge zu vermeiden.
AWS says more than 600 FortiGate firewalls hit in AI-augmented campaign
Laut einem Bericht von AWS wurden über 600 FortiGate-Firewalls in einer von KI unterstützten Cyberangriffskampagne kompromittiert, die sich über mehr als 55 Länder erstreckte. Eine russischsprachige Cyberkriminellen-Gruppe setzte generative KI-Tools ein, um gezielt nach exponierten Verwaltungsoberflächen zu suchen und schwache Passwörter auszuprobieren. Nach dem Eindringen in die Systeme erlangten die Angreifer Zugriff auf wichtige Konfigurationsdateien, die ihnen wertvolle Informationen über Netzwerktopologien und Sicherheitsregeln lieferten. Dies ermöglichte es ihnen, tiefer in die Netzwerke einzudringen, Active Directory zu kompromittieren und weitere Anmeldedaten zu stehlen. AWS stellte fest, dass die verwendeten Tools zwar funktional, aber rudimentär waren, was darauf hinweist, dass eine kleine Gruppe von Angreifern mit KI eine effektive Kampagne durchführen konnte, die zuvor mehr Ressourcen erfordert hätte. Die opportunistische geografische Verteilung der Angriffe erhöhte das Risiko für Managed Service Provider und größere Umgebungen. Der Bericht betont die Notwendigkeit grundlegender Sicherheitsmaßnahmen, wie das Abschotten von Verwaltungsoberflächen und die Durchsetzung von Multi-Faktor-Authentifizierung, um solche Angriffe zu verhindern.
Hollywood's MPA calls Bytedance's Seedance 2.0 a machine built for "systemic infringement"
Die Motion Picture Association (MPA) hat Bytedance wegen seines AI-Video-Generators Seedance 2.0 abgemahnt und bezeichnet das Produkt als eine Maschine, die systematische Urheberrechtsverletzungen fördert. Die MPA argumentiert, dass die Probleme nicht von den Nutzern, sondern von der Technologie selbst ausgehen, da Bytedance sein Modell ohne Genehmigung mit Inhalten von Filmstudios trainiert hat. Sie sieht in den wiederholten Urheberrechtsverletzungen eine bewusste Handlung von Bytedance, die durch fehlende Schutzmaßnahmen verstärkt wird. Vor der MPA-Intervention hatten bereits große Studios wie Disney und Warner Bros. Abmahnungen an Bytedance geschickt. Warner Bros. wies auf ein Muster hin, bei dem generative KI-Unternehmen zunächst Urheberrechte verletzen und erst später Schutzmaßnahmen implementieren. Die MPA führt laufende Untersuchungen durch, die zahlreiche Verstöße gegen die Rechte ihrer Mitgliedsstudios aufdecken. Gerüchte deuten darauf hin, dass die Urheberrechtsbeschwerden die Veröffentlichung der Seedance 2.0 API, die für den 24. geplant war, gefährden könnten.
Prompt Repetition: The Overlooked Hack for Better LLM Results
Die Methode der Prompt Repetition stellt einen effektiven Ansatz zur Verbesserung der Genauigkeit großer Sprachmodelle (LLMs) wie ChatGPT und Gemini dar. Durch das wiederholte Einfügen des gesamten Prompts wird die Verarbeitung der Eingabedaten optimiert, was zu einer signifikanten Steigerung der Genauigkeit führt. Eine Studie zeigt, dass diese Technik bei sieben verschiedenen Aufgaben und Modellen besonders wirksam ist, insbesondere bei strukturierten Aufgaben, die präzises Positionstracking erfordern. Ein Beispiel verdeutlicht, dass die Genauigkeit bei der Abfrage von Namen aus einer Liste von 21,33 % auf 97,33 % anstieg. Die Implementierung ist einfach und erfordert keine Änderungen an bestehenden Systemen, was sie benutzerfreundlich macht. Obwohl Prompt Repetition nicht für alle Aufgaben, insbesondere komplexe Denkprozesse, geeignet ist, bietet sie eine kostengünstige Möglichkeit zur Leistungssteigerung in vielen Szenarien. Kleine Verbesserungen in der Genauigkeit können in Produktionssystemen erhebliche Auswirkungen auf den Geschäftserfolg haben.
These 2 types of AI start-ups are at risk
Darren Mowry, Leiter der globalen Start-up-Organisation von Google, warnt, dass zwei Arten von KI-Start-ups – LLM-Wrappers und KI-Aggregatoren – vor ernsthaften Überlebensproblemen stehen könnten, da der Hype um generative KI nachlässt. LLM-Wrappers nutzen große Sprachmodelle zur Lösung spezifischer Probleme, während KI-Aggregatoren mehrere LLMs in einer Schnittstelle vereinen. Mowry betont, dass Start-ups nicht nur auf Backend-Modelle setzen sollten, sondern über umfassende Strategien verfügen müssen, um im Wettbewerb erfolgreich zu sein. Er rät neuen Unternehmen, sich von der Aggregator-Branche fernzuhalten, da diese stagnierendes Wachstum aufweist und Nutzer integrierte Intelligenz verlangen. Mowry vergleicht die aktuelle Situation mit den frühen Herausforderungen von Cloud-Computing-Start-ups, die von größeren Anbietern verdrängt wurden. Dennoch sieht er Chancen in Bereichen wie Vibe-Coding, Entwicklerplattformen sowie Biotechnologie und Klimatechnologie, die durch hohe Investitionen und große Datenmengen vielversprechend sind.
Large Language Model Market to Reach $24.92B by 2031 Driven by Enterprise AI Adoption & Cost-Efficient Compute
Der Markt für große Sprachmodelle (LLM) wird bis 2031 auf 24,92 Milliarden USD anwachsen, angetrieben durch die wachsende Akzeptanz von KI in Unternehmen und kosteneffiziente Rechenlösungen, so eine Analyse von Mordor Intelligence. Der LLM-Markt, der 2025 auf 8,31 Milliarden USD geschätzt wurde, wird bis 2026 voraussichtlich auf 9,98 Milliarden USD steigen. Dies spiegelt die starke Nachfrage nach KI-Tools in verschiedenen Branchen wider. Unternehmen profitieren von maßgeschneiderten KI-Modellen, die spezifische betriebliche Anforderungen erfüllen. Ein entscheidender Wachstumsfaktor ist der Rückgang der Rechenkosten, der auch kleineren Unternehmen den Zugang zum LLM-Markt erleichtert. Zudem steigt die Nachfrage nach branchenspezifischen Modellen, insbesondere in den Bereichen Finanzen und Gesundheitswesen. Regulierungen und nationale KI-Politiken beeinflussen die Strategien zur Bereitstellung von Sprachmodellen und begünstigen regionale Anbieter. Die Integration von KI-Funktionen in bestehende Unternehmenssoftware fördert die Nutzung von LLMs, indem sie die Automatisierung alltäglicher Aufgaben ermöglicht. Insgesamt wird der LLM-Markt eine zentrale Rolle in den digitalen Transformationsstrategien der Unternehmen spielen.
AI chatbots waffle on GOV.UK queries, then get facts wrong when told to zip it
Eine Studie des Open Data Institute (ODI) hat ergeben, dass KI-Chatbots bei der Beantwortung von Fragen zu Regierungsdiensten oft zu ausschweifend sind und dabei fehlerhafte Informationen liefern. Die Forscher testeten 11 große Sprachmodelle (LLMs) mit über 22.000 Fragen und stellten fest, dass diese häufig Fakten verwässern oder über offizielle Informationen hinausgehen. Besonders auffällig war, dass eine Aufforderung zur Kürze oft zu ungenaueren Antworten führte. Die Modelle versuchten in der Regel, jede Frage zu beantworten, was als potenziell gefährlich angesehen wird, da es zu Fehlinformationen führen kann. Beispiele für falsche Antworten betrafen staatliche Leistungen wie die Guardian's Allowance. Die Studie empfiehlt, Nutzer über die Risiken zu informieren und auf autoritative Quellen zu verweisen. Professor Elena Simperl betont die Notwendigkeit, die Unsicherheiten der Technologie zu verstehen und Antworten eng an verlässliche Quellen zu halten. Zudem zeigen die Ergebnisse, dass kleinere, kostengünstigere LLMs vergleichbare Ergebnisse wie größere Modelle liefern können, was die Flexibilität bei der Auswahl von KI-Anbietern unterstreicht.
KI im Retail: Warum ist KI auch etwas für kleinere Modehändler, Oliver Janz?
In seinem Artikel "KI im Retail: Warum ist KI auch etwas für kleinere Modehändler" hebt Professor Oliver Janz die Bedeutung von Künstlicher Intelligenz (KI) für den stationären Modehandel in Deutschland hervor. Er argumentiert, dass nicht nur große Unternehmen, sondern auch kleinere und mittlere Modehändler von der Integration dieser Technologie profitieren können. Durch den Einsatz von KI lassen sich Geschäftsprozesse optimieren und effizienter gestalten, was den Händlern hilft, wettbewerbsfähig zu bleiben. Janz ermutigt die Modehändler, sich aktiv mit KI auseinanderzusetzen, um besser auf die Bedürfnisse ihrer Kunden einzugehen und ihre Angebote gezielt anzupassen. Dies könnte langfristig zu einer höheren Kundenzufriedenheit und einem Anstieg des Umsatzes führen.
Canva Hits $4B Revenue as AI Tools Drive 20% User Surge
Canva hat kürzlich einen Jahresumsatz von 4 Milliarden Dollar erreicht, was einer 20-prozentigen Steigerung der monatlich aktiven Nutzer entspricht. Dieser Anstieg wird hauptsächlich durch die KI-gestützten Tools des Unternehmens, wie Text-zu-Bild-Generierung und automatisierte Designvorschläge, begünstigt. Besonders hervorzuheben ist, dass große Sprachmodelle von OpenAI und Google Nutzer direkt an Canva verweisen, wenn sie nach Designhilfe suchen. Dies schafft einen neuen, kostenfreien Vertriebskanal und verändert die Art und Weise, wie Software entdeckt wird. Canva profitiert somit von kostenloser Werbung durch fortschrittliche KI-Systeme, was als wesentlicher Wachstumstreiber fungiert. Zudem dringt Canva zunehmend in den Unternehmensbereich vor und konkurriert mit Adobes Creative Cloud, während es sich eine breite Nutzerbasis unter Nicht-Designern erarbeitet hat. Die KI-Tools senken die Einstiegshürden und ermöglichen es Nutzern, komplexe Designs mit einfachen Texteingaben zu erstellen, was die Empfehlungsfähigkeit durch LLMs weiter fördert.
Lightkeeper Launches "Lightkeeper Beacon" To Deliver Verifiable AI Answers to Institutional Investment Data
Lightkeeper hat das neue Tool "Lightkeeper Beacon" eingeführt, das es Investmentprofis ermöglicht, in einfacher Sprache Fragen zu ihren Portfoliodaten zu stellen und innerhalb von Sekunden verifizierbare Antworten zu erhalten. Beacon nutzt große Sprachmodelle (LLMs) und greift auf die validierten institutionellen Daten von Lightkeeper zurück, um präzise und nachvollziehbare Antworten auf firmenspezifische Fragen zu liefern. Durch das Model Context Protocol (MCP) wird sichergestellt, dass die proprietären Daten der Kunden sicher verwendet werden, während externe Informationen für umfassendere Einblicke integriert werden. Die Entwicklung des Tools erfolgte in enger Zusammenarbeit mit Kunden, um Benutzerfreundlichkeit und Funktionalität zu optimieren. Erste Tests zeigen, dass Beacon die Effizienz der Nutzer erheblich steigert, indem es beispielsweise die Analyse von Analystenleistungen automatisiert und die Vorbereitungszeit für Jahresendbewertungen verkürzt. Lightkeeper plant, die KI-Integration mit dem kommenden Produkt "Lightkeeper Lumina" weiter auszubauen. Beacon ist ab sofort für alle Lightkeeper-Kunden verfügbar und stellt einen bedeutenden Fortschritt in der Nutzung von KI für institutionelle Datenanalysen dar.
Palo Alto tumbles 8% as CEO defends cyber amid AI shakeup
Palo Alto Networks verzeichnete einen dramatischen Rückgang von 8% bei den Aktienkursen, was einem Verlust von etwa 6 Milliarden Dollar an Marktwert entspricht. CEO Nikesh Arora verteidigte die Widerstandsfähigkeit der Cybersicherheit inmitten von Bedenken über die aggressive Fokussierung des Unternehmens auf Künstliche Intelligenz und die kostspielige Übernahme von CyberArk für 25 Milliarden Dollar. Analysten sind skeptisch, ob diese Strategien ausreichen, um den Druck durch die AI-Disruption auf Softwareaktien zu bewältigen. Arora betonte, dass die Zunahme von AI neue Sicherheitsanforderungen mit sich bringt, da Unternehmen durch große Sprachmodelle neue Schwachstellen schaffen. Dennoch bleibt der Markt besorgt über die Relevanz traditioneller Produkte in einer zunehmend AI-gesteuerten Landschaft. Die Unsicherheit über die Zukunft der Cybersecurity-Produkte und die Frage, ob Arora zu viel für CyberArk bezahlt hat, verstärken die Sorgen der Anleger und spiegeln einen größeren Trend wider, der Software-as-a-Service-Aktien betrifft.
Sarvam AI Launches 105B Open-Source Models for India
Sarvam AI, ein indisches Startup, hat auf dem India AI Impact Summit 2026 eine Reihe von Open-Source-KI-Modellen vorgestellt, darunter ein bemerkenswertes 105-Milliarden-Parameter-Modell. Diese Modelle sind darauf ausgelegt, die geschlossene Herangehensweise großer westlicher Wettbewerber herauszufordern und spiegeln Indiens Bestreben wider, im globalen KI-Rennen eine bedeutende Rolle zu übernehmen. Die neuen Modelle sind speziell auf die sprachlichen und kulturellen Bedürfnisse Indiens abgestimmt und umfassen zentrale Sprachmodelle sowie multimodale Funktionen wie Text-zu-Sprache- und Sprache-zu-Text-Systeme. Sarvam AI verfolgt eine Strategie der Transparenz und Zugänglichkeit, während viele westliche Labs zunehmend auf geschlossene Entwicklungspraktiken setzen. Diese Initiative könnte die KI-Transformation in Indien vorantreiben, ohne auf proprietäre Systeme angewiesen zu sein. Das schnell wachsende indische KI-Ökosystem, unterstützt von einer großen Entwicklergemeinschaft und niedrigen Rechenkosten, bietet ein attraktives Umfeld für Open-Source-Alternativen.
ALLT.AI Publishes First-Ever Study Using Brain Lesion Data to Decode How AI Processes Language
In einer innovativen Studie hat das Team von ALLT.AI erstmals menschliche Gehirnlesiondaten genutzt, um zu verstehen, wie große Sprachmodelle Sprache verarbeiten. Die Forschung präsentiert das Brain-LLM Unified Model (BLUM) und zeigt, dass Fehler in Sprachmodellen Ähnlichkeiten mit Mustern aufweisen, die bei Sprachstörungen nach einem Schlaganfall beobachtet werden. Diese Erkenntnisse bieten eine biologisch fundierte Grundlage zur Bewertung der Effizienz und Erklärbarkeit von KI-Systemen. Mit dem BLUM-Framework können Forscher gezielt die essenziellen Komponenten von KI-Modellen identifizieren, was potenziell zu Einsparungen bei Rechenleistung und Kosten führt. Darüber hinaus eröffnet die Methode neue Möglichkeiten, wie die Entwicklung patientenspezifischer digitaler Zwillinge für neurologische Erkrankungen. Die Ergebnisse könnten sowohl die KI-Entwicklung als auch die Behandlung von Gehirnerkrankungen erheblich beeinflussen. Das Forschungsteam plant, strategische Partnerschaften einzugehen, um das Potenzial dieser Entdeckung weiter auszuschöpfen.
How one chemist is using AI and robots to automate lab experiments
Gabriel Gomes, ein Chemieingenieur an der Carnegie Mellon University, arbeitet daran, Laborforschung durch Künstliche Intelligenz und Robotik zu automatisieren. Sein System Coscientist nutzt große Sprachmodelle wie GPT-4, um Chemikern eine benutzerfreundliche Interaktion mit einer Cloud-Laborumgebung zu ermöglichen, ohne dass tiefgehende Programmierkenntnisse erforderlich sind. Diese Innovation entstand aus der Sorge, dass viele Forscher Schwierigkeiten haben könnten, sich in einem technologiegestützten Umfeld zurechtzufinden. Coscientist ermöglicht es auch weniger erfahrenen Studenten, komplexe chemische Aufgaben schnell zu bewältigen. Nutzer können einfache Anweisungen geben, und das System ermittelt die notwendigen Schritte und Zutaten. Dadurch können umfangreiche Datensätze chemischer Reaktionen erstellt werden, die zuvor oft ungenutzt blieben. Gomes warnt jedoch vor der Notwendigkeit, die Ergebnisse kritisch zu hinterfragen, um Missbrauch zu vermeiden. Trotz der Herausforderungen ist er optimistisch, dass diese Technologien das wissenschaftliche Arbeiten revolutionieren können.
Teaching AI to read a map
In einem aktuellen Forschungsprojekt haben Wissenschaftler ein System zur synthetischen Datengenerierung entwickelt, um KI-Modelle im räumlichen Denken zu trainieren, insbesondere in der Fähigkeit, Routen auf Karten zu verfolgen. Multimodale große Sprachmodelle (MLLMs) zeigen oft Schwächen in diesem Bereich, da sie zwar Objekte erkennen, jedoch Schwierigkeiten haben, gültige Wege zu identifizieren. Um diese Herausforderung zu meistern, wurde ein automatisierter Prozess entworfen, der vielfältige Karten generiert und die Traversierbarkeit von Wegen bewertet. KI-Modelle fungieren dabei als Kritiker, um die Qualität der generierten Daten sicherzustellen. Nach dem Training mit diesen synthetischen Daten konnten signifikante Verbesserungen in der Pfadverfolgung der Modelle festgestellt werden, was die Hypothese unterstützt, dass räumliches Denken erlernt werden kann. Diese Forschung eröffnet neue Perspektiven für intuitive Navigationswerkzeuge, intelligentere Robotik und eine verbesserte Zugänglichkeit für Menschen mit Sehbehinderungen.
I Analyzed 5,000 DAX Measures. Here Are The 5 Patterns That Kill Performance.
In dem Artikel "I Analyzed 5,000 DAX Measures. Here Are The 5 Patterns That Kill Performance" werden fünf häufige Muster in DAX-Messungen (Data Analysis Expressions) identifiziert, die die Leistung von Abfragen erheblich beeinträchtigen können. Der Autor analysiert eine große Anzahl von DAX-Messungen und hebt spezifische Probleme hervor, die zu ineffizienten Berechnungen führen. Zu den identifizierten Mustern gehören unter anderem unnötig komplexe Berechnungen, ineffiziente Filteranwendungen und die Verwendung von nicht optimierten Funktionen. Der Artikel bietet wertvolle Einblicke und Empfehlungen zur Verbesserung der DAX-Leistung, indem er zeigt, wie man diese häufigen Fallstricke vermeidet. Ziel ist es, die Effizienz von Datenanalysen zu steigern und die Performance von Berichten und Dashboards zu optimieren.
New GraphRAG Solution Moves Beyond Vector-only RAG - Knowledge Graphs Provide Context and Common Sense to AI
Graphwise hat die innovative GraphRAG-Lösung vorgestellt, die über herkömmliche vektorbasierte Retrieval-Augmented Generation (RAG) hinausgeht, indem sie Wissensgraphen integriert. Diese Technologie ermöglicht es, Kontext und gesunden Menschenverstand in KI-Anwendungen einzubringen und reduziert die Anzahl ungenauer Antworten durch den Einsatz ontologiebasierter Wissensgraphen. Die low-code AI-Workflow-Engine unterstützt Unternehmen dabei, Prototypen schnell in produktionsreife Systeme umzuwandeln. GraphRAG kombiniert große Sprachmodelle (LLMs) mit Unternehmensdaten und strukturiertem Wissen, um transparente und überprüfbare Antworten zu liefern und gleichzeitig die Beziehungen zwischen den Daten zu bewahren. Der Einsatz des MuSiQue-Benchmarks hat gezeigt, dass die Genauigkeit der Antworten signifikant verbessert wird, was für Unternehmen, die auf präzise Informationen angewiesen sind, von großer Bedeutung ist. Zudem bietet die Lösung visuelle Debugging-Tools und eine benutzerfreundliche Oberfläche, die es Fachleuten ermöglicht, KI-Logik ohne Programmierkenntnisse anzupassen. Graphwise zielt darauf ab, die Herausforderungen traditioneller RAG-Pipelines zu überwinden und die Nutzung generativer KI effizienter und zuverlässiger zu gestalten.
LLMs violate boundaries during mental health dialogues, study finds
In einer aktuellen Studie wurde festgestellt, dass große Sprachmodelle (LLMs) während Gesprächen über psychische Gesundheit häufig Grenzen überschreiten. Die Forschung zeigt, dass diese KI-gestützten Systeme in sensiblen Dialogen unangemessene oder ungenaue Ratschläge geben können, was potenziell schädlich für die Nutzer ist. Die Studie hebt hervor, dass LLMs oft nicht in der Lage sind, die komplexen emotionalen Bedürfnisse der Nutzer zu erkennen und angemessen darauf zu reagieren. Dies wirft Fragen zur Sicherheit und Zuverlässigkeit solcher Technologien im Bereich der psychischen Gesundheit auf. Die Autoren der Studie plädieren für eine sorgfältigere Regulierung und Entwicklung von KI-Systemen, um sicherzustellen, dass sie in sensiblen Kontexten verantwortungsvoll eingesetzt werden.