Deepfakes & Desinformation
Manipulierte Inhalte, Erkennung und Plattformmissbrauch.
5
Cluster
625
Importierte Einträge
Cluster in dieser Unterrubrik
Diese Cluster verfeinern das Thema und führen direkt zu den jeweils passenden Einträgen.
Medienmanipulation
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Medienmanipulation innerhalb von Deepfakes & Desinformation auf JetztStarten.de.
Fake-Inhalte
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Fake-Inhalte innerhalb von Deepfakes & Desinformation auf JetztStarten.de.
Erkennung
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Erkennung innerhalb von Deepfakes & Desinformation auf JetztStarten.de.
Moderation
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Moderation innerhalb von Deepfakes & Desinformation auf JetztStarten.de.
Plattformmissbrauch
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Plattformmissbrauch innerhalb von Deepfakes & Desinformation auf JetztStarten.de.
Aktuelle Einträge in Deepfakes & Desinformation
Alle verarbeiteten Links dieser Unterrubrik erscheinen hier mit ihrer Kurzbeschreibung und thematischen Einordnung.
Article: CodeGuardian: A Model Context Protocol Server for AI-Assisted Code Quality Analysis and Security Scanning
CodeGuardian ist ein fortschrittlicher Model Context Protocol (MCP) Server, der AI-gestützte Analysen zur Codequalität und Sicherheitsüberprüfungen bietet. Durch die Integration in gängige Entwicklungsumgebungen erleichtert er Entwicklern den Zugriff auf spezialisierte Sicherheitstools, wodurch der Wechsel zwischen verschiedenen Dashboards entfällt. In Tests identifizierte CodeGuardian über fünfzehn Schwachstellenkategorien mit einer Präzision von über 87 Prozent und erreichte eine wöchentliche Adoptionsrate von 75 Prozent unter den Entwicklern. Die AI-gestützte Remediation bietet nicht nur Warnungen, sondern auch konkrete Codefixes, was die Behebung von Sicherheitsproblemen beschleunigt. In der Praxis wurden 47 zuvor unbekannte Schwachstellen entdeckt, und 68 Prozent der identifizierten Probleme konnten innerhalb eines Sprints gelöst werden. Trotz seiner Stärken hat CodeGuardian Einschränkungen bei großen Codebasen und bestimmten Programmiersprachen. Ein natürliches Sprachinterface ermöglicht es Entwicklern, Sicherheitsüberprüfungen und Remediation-Anfragen effizient zu formulieren. Insgesamt zeigt CodeGuardian, wie AI-Technologie die Sicherheitsstandards in der Softwareentwicklung durch frühzeitige Erkennung und Behebung von Schwachstellen verbessern kann.
Cognex bringt den In-Sight Vision Controller mit NVIDIA-Technologie auf den Markt
Cognex hat den In-Sight 6900 Vision Controller mit NVIDIA-Technologie eingeführt, der für anspruchsvolle Fertigungsanwendungen konzipiert ist. Dieser modulare Controller ermöglicht eine individuelle Anpassung von Kameras, Optik und Beleuchtung, wodurch die Einschränkungen fester Systeme überwunden werden. Dank der Integration der NVIDIA Jetson-Technologie kann der Controller komplexe KI-Verarbeitungsaufgaben direkt am Netzwerkrand ausführen, was die Implementierung leistungsstarker KI-Lösungen erleichtert. Er bietet fortschrittliche KI-Toolmodi zur Inspektion verschiedener Teile und zur Erkennung von Fehlern. Die modulare Architektur ermöglicht eine präzise Systemkonfiguration und beschleunigt die Bereitstellung durch den Einsatz von Transformer-basierten Klassifizierungsmodellen. Zudem unterstützt die nahtlose Integration in die kollaborative KI-Plattform OneVision von Cognex Entwicklungsteams dabei, Inspektionsanwendungen effizient zu optimieren und zu skalieren, was zu schnelleren Verbesserungen und konstanter Qualität in der Produktion führt.
Taylor Swift is stepping up the legal war on AI copycats
Taylor Swift hat kürzlich neue Markenanmeldungen eingereicht, um sich vor unbefugten, KI-generierten Inhalten wie Deepfakes und Sprachklonen zu schützen. Diese rechtlichen Schritte sind Teil eines wachsenden Trends, bei dem Prominente gegen die unautorisierte Nutzung ihrer Stimme, ihres Bildes und ihrer Persona durch KI-Technologien vorgehen. Die Entwicklungen verdeutlichen die Spannungen zwischen den Fortschritten in der KI und den Rechten an geistigem Eigentum, da generative KI-Tools zunehmend in der Lage sind, die Stimmen und Abbildungen von Berühmtheiten ohne deren Zustimmung zu reproduzieren. Swifts Markenanmeldungen könnten einen bedeutenden rechtlichen Ansatz darstellen, um unautorisierte KI-Inhalte zu bekämpfen und möglicherweise einen Präzedenzfall dafür schaffen, wie öffentliche Figuren ihre digitalen Identitäten in einer Zeit schützen können, in der Technologien wie Deepfakes immer überzeugender werden.
Taylor Swift trademarks voice and likeness in apparent bid to stop AI deepfakes
Taylor Swift hat Anträge zur Eintragung von Marken für ihre Stimme und ihr Abbild gestellt, um sich gegen die Erstellung von KI-Deepfakes zu schützen. Die Anträge beinhalten zwei Klangmarken, die ihre Stimme abdecken, sowie eine Marke für ein Bild von ihr mit einer pinken Gitarre während ihrer "Eras"-Tour. Ein Fachanwalt für geistiges Eigentum erläuterte, dass diese Maßnahmen Swift rechtliche Möglichkeiten bieten könnten, um gegen unautorisierte Nutzungen ihrer Stimme vorzugehen. Mit der Eintragung ihrer Stimme könnte sie im Falle eines Rechtsstreits argumentieren, dass ähnliche Verwendungen ihre Markenrechte verletzen. Das eingetragene Bild könnte zudem dazu dienen, gegen manipulierte oder KI-generierte Darstellungen ihres Abbilds vorzugehen. Diese Schritte folgen einem ähnlichen Vorgehen von Matthew McConaughey, der ebenfalls Markenanträge gestellt hat, um die Kontrolle über die Nutzung seiner Stimme und seines Abbilds zu wahren. Beide Künstler betonen die Wichtigkeit, ihre Zustimmung für solche Nutzungen einzuholen.
Vom Experiment zum Alltag: Wie Radiosender KI einsetzen
In deutschen Radiosendern hat Künstliche Intelligenz (KI) den Experimentiermodus hinter sich gelassen und wird nun in verschiedenen Bereichen aktiv eingesetzt. Dazu zählen die Erstellung von Verkehrsmeldungen, Moderationstexten, Vermarktung und Audioproduktion. Durch die Integration von KI-Technologien können Sender effizienter arbeiten und Inhalte schneller produzieren, was zu einer Verbesserung der Programmqualität führt. Diese Entwicklungen ermöglichen es den Radiosendern, besser auf die Bedürfnisse ihrer Hörer einzugehen. Insgesamt verändert die Nutzung von KI nicht nur die Arbeitsweise der Sender, sondern auch das Hörerlebnis, indem sie eine schnellere und qualitativ hochwertigere Programmgestaltung fördert.
dehaze raises €3.2M for AI chronic disease detection
Das Münchener Healthtech-Unternehmen dehaze hat in einer Seed-Finanzierungsrunde 3,2 Millionen Euro gesammelt, um ein KI-Modell zur Erkennung chronischer Krankheiten zu entwickeln. Die Finanzierung, angeführt von YZR Capital und DN Capital, soll eine Plattform schaffen, die große Mengen an Patientendaten analysiert und Gesundheitsdienstleistern hilft, Risikopatienten frühzeitig zu identifizieren. Dies könnte die Behandlungsergebnisse verbessern und die Gesundheitskosten senken, da chronische Krankheiten einen erheblichen Teil der globalen Ausgaben ausmachen. dehaze setzt auf kausale KI, um heterogene Datensätze zu verarbeiten und wertvolle Einblicke für Entscheidungsträger zu liefern. CEO Marius Klages betont die globale Ausrichtung des Unternehmens und plant, die technischen und kommerziellen Teams zu erweitern. Die Plattform wird zudem Funktionen zur Empfehlung von nächsten Schritten und zur Verbesserung der Nachverfolgbarkeit entwickeln, um die Effizienz im Gesundheitswesen weiter zu steigern.
LAI #124: The More You Tell a VLM, the Less It Sees
In der Episode LAI #124 mit dem Titel "The More You Tell a VLM, the Less It Sees" wird die Beziehung zwischen der Informationsmenge, die einem Vision-Language-Modell (VLM) präsentiert wird, und seiner Fähigkeit, visuelle Inhalte zu interpretieren, untersucht. Die Diskussion beleuchtet, wie übermäßige Informationen oder Erklärungen die Wahrnehmung und das Verständnis des Modells beeinträchtigen können. Experten analysieren verschiedene Szenarien, in denen VLMs mit unterschiedlichen Informationsmengen konfrontiert werden, und zeigen auf, dass eine Überflutung mit Daten zu Verwirrung und Fehlinterpretationen führen kann. Die Episode bietet Einblicke in die optimalen Strategien zur Interaktion mit VLMs, um deren Leistungsfähigkeit zu maximieren, und diskutiert die Implikationen für die Entwicklung zukünftiger KI-Systeme.
Medical student from India behind AI conservative influencer says ‘super dumb’ MAGA crowd was easy to fool
Ein 22-jähriger Medizinstudent aus Indien, der hinter dem AI-generierten konservativen Influencer Emily Hart steht, hat öffentlich erklärt, dass die Anhänger der MAGA-Bewegung leicht zu täuschen seien. Um während seines Studiums zusätzliches Geld zu verdienen, begann Sam, die Social-Media-Accounts von Emily Hart zu betreiben, was ihm monatlich Tausende von Dollar einbrachte. Er äußerte sich abfällig über die Intelligenz der MAGA-Anhänger und betonte, dass sie anfällig für seine Inhalte seien. Die Instagram- und Facebook-Seiten von Emily Hart wurden aufgrund von „betrügerischen“ Aktivitäten gesperrt, nachdem sie kontroverse Themen wie Einwanderung und Abtreibung behandelt hatten. Sam hatte die Idee, AI-generierte Bilder einer Frau zu erstellen, und wurde von der Google-Plattform Gemini inspiriert, sich auf ein konservatives Publikum mit höherem Einkommen zu konzentrieren. Neben Merchandise verkaufte er auch Abonnements auf einer Plattform, die mit OnlyFans konkurriert. Trotz der Kontroversen sieht Sam seine Aktivitäten nicht als Betrug, sondern als eine einfache Möglichkeit, während seines Studiums Geld zu verdienen.
The Viewer’s Neuro-Response: How AI Reveals What the Eye Can’t See
Der Artikel "The Viewer’s Neuro-Response: How AI Reveals What the Eye Can’t See" untersucht, wie Künstliche Intelligenz (KI) eingesetzt wird, um die unbewussten Reaktionen des menschlichen Gehirns auf visuelle Stimuli zu analysieren. Durch den Einsatz von Technologien wie Eye-Tracking und neuronalen Netzwerken können Forscher besser verstehen, welche Elemente in Bildern oder Videos die stärksten emotionalen Reaktionen hervorrufen. Diese Erkenntnisse sind besonders wertvoll für die Bereiche Werbung, Kunst und Medien, da sie helfen, Inhalte zu gestalten, die gezielt auf die Zuschauer abgestimmt sind. Der Artikel beleuchtet auch die ethischen Implikationen dieser Technologien und die Herausforderungen, die mit der Interpretation von neurobiologischen Daten verbunden sind. Insgesamt zeigt die Forschung, wie KI dazu beitragen kann, die Wahrnehmung und das Verhalten von Zuschauern auf eine Weise zu entschlüsseln, die zuvor nicht möglich war.
Die KI-Milliarden-Wette im geheimen CEO-Gruppenchat – warum Netzwerke unter Top-Managern so entscheidend sind
Im Silicon Valley findet nicht nur eine massive Investition in künstliche Intelligenz statt, sondern es werden auch strategische Wetten über deren zukünftige Entwicklungen in einem geheimen Gruppenchat unter Top-CEOs, angeführt von Sam Altman von OpenAI, getroffen. Diese informellen Netzwerke ermöglichen einen ehrlichen Austausch über Herausforderungen und Unsicherheiten, die in öffentlichen Diskussionen oft nicht behandelt werden. Der enge Kontakt zwischen Führungskräften fördert die frühzeitige Erkennung von Entwicklungen und beschleunigt Entscheidungsprozesse. Solche Gespräche sind entscheidend, um reale Erfahrungen und strategische Zweifel zu thematisieren. In einer sich schnell verändernden technologischen Landschaft wird die Bedeutung dieser Netzwerke weiter zunehmen, da der Zugang zu verschiedenen Perspektiven und die Bereitschaft, unbequeme Fragen zu stellen, für den langfristigen Erfolg unerlässlich sind.
Echtheit sicherstellen, statt Fälschung entlarven: Deepfake‑Erkennung für die Assekuranz per Imagesign
Der Artikel beschreibt die Herausforderungen des Versicherungsbetrugs durch gefälschte Bilder und die Unzulänglichkeiten herkömmlicher Prüfmethoden wie Metadatenanalysen. Tallence hat mit ImageSign einen innovativen Ansatz entwickelt, der die Echtheit von Bildern sichert, anstatt lediglich Fälschungen zu identifizieren. Durch den Einsatz digitaler Signaturen und kryptografischer Verfahren wird die Herkunft und Integrität von Bildern bereits bei der Aufnahme gewährleistet, was eine manipulationssichere Dokumentation ermöglicht. Für unsignierte Bilder ist jedoch eine mehrstufige Bildforensik erforderlich, um Manipulationen zu erkennen. ImageSign bietet eine plattformübergreifende Lösung, die sichere Speicherung und Schutz vor unbefugtem Zugriff garantiert. Ziel ist es, das Vertrauen in Bild- und Videodokumente innerhalb der Assekuranz wiederherzustellen und die Integrität der visuellen Informationen zu gewährleisten.
Promperú Integrates Mindtrip's AI Technology Into Peru.Travel to Enhance Trip Planning
Promperú hat die KI-Technologie von Mindtrip in die offizielle Tourismus-Website peru.travel integriert, um internationalen Reisenden eine benutzerfreundliche Reiseplanung zu ermöglichen. Diese Zusammenarbeit vereint die umfangreichen Inhalte von Promperú mit den intelligenten Planungsfunktionen von Mindtrip. Reisende können durch einfache Eingaben personalisierte Reiserouten erstellen, die sowohl ikonische Sehenswürdigkeiten wie Machupicchu als auch weniger bekannte Attraktionen umfassen. Mindtrip bietet nicht nur dynamische Reiserouten, sondern auch die Möglichkeit, Boutique-Hotels und lokale Märkte zu entdecken, was die Erkundung Perus individueller und inspirierender gestaltet. Die Technologie zielt darauf ab, persönliche Vorlieben in nahtlose und unvergessliche Reisen zu verwandeln, sodass jede Reise ein einzigartiges Erlebnis wird.
Quokka Labs Launches Guardia to Prevent Sensitive Data Leaks on AI Platforms
Quokka Labs hat die Chrome-Erweiterung Guardia eingeführt, um versehentliche Datenlecks bei der Nutzung von KI-Plattformen zu verhindern. Angesichts der wachsenden Bedenken hinsichtlich Datenschutz und Informationssicherheit in der zunehmend KI-gesteuerten Arbeitswelt bietet Guardia eine Echtzeitschutzschicht, die Benutzereingaben überwacht und sensible Informationen identifiziert. Bei der Erkennung potenzieller Risiken warnt die Erweiterung die Nutzer oder blockiert problematische Inhalte, um Datenlecks zu vermeiden. Ein datenschutzorientierter Ansatz garantiert, dass keine Benutzerdaten verkauft oder missbraucht werden, was Guardia besonders attraktiv für Einzelpersonen und Organisationen macht, die KI-Technologien sicher nutzen möchten. Die Erweiterung ist jetzt im Chrome Web Store verfügbar und ermöglicht es den Nutzern, KI-Tools zu verwenden, ohne die Einhaltung von Datenschutzstandards zu gefährden.
Redwood AI kündigt Zusammenarbeit mit Aidos Innovations an, die darauf abzielt, die Kooperation zwischen der Regierung von British Columbia, der kanadischen Bundesregierung sowie lokalen Strafverfolgungsbehörden in Bezug auf öffentliche Sicherheit ...
Redwood AI und Aidos Innovations haben eine Kooperation angekündigt, um eine Analyseplattform zur Erkennung und Vorhersage von Opioiden in Vancouver und Victoria zu entwickeln. Das zweijährige Projekt zielt darauf ab, zeitnahe Informationen zur Opioidaktivität bereitzustellen und die Zusammenarbeit zwischen der Regierung von British Columbia, der kanadischen Bundesregierung und lokalen Strafverfolgungsbehörden zu verbessern. Die Plattform wird interaktive Dashboards und Lageberichte umfassen, die den Behörden helfen, aufkommende Opioidaktivitäten effektiver zu interpretieren. Die Implementierung erfolgt schrittweise, beginnend mit Prototypen und repräsentativen Daten, bevor Live-Daten integriert werden. Die Initiative "Track and Trace" soll als Frühwarnsystem für gefährliche Drogen fungieren und die öffentliche Sicherheit durch frühzeitige Erkennung und bessere Koordination der Reaktionen auf Drogenbedrohungen unterstützen. Aidos bringt Expertise in der Schadensminderung ein, während Redwood AI fortschrittliche KI-Technologien bereitstellt. Diese Zusammenarbeit könnte entscheidend zur Bekämpfung der Opioidkrise und zur Unterstützung der am stärksten betroffenen Gemeinschaften beitragen.
TwainGPT: The AI Humanizer That Bypasses Every AI Detector
TwainGPT ist eine innovative Plattform, die AI-generierte Texte in natürliche, schwer erkennbare Schreibweisen umwandelt, um die Erkennung durch AI-Detektoren zu umgehen. Sie adressiert das Problem der typischen Muster in AI-Texten, die oft als zu glatt und vorhersehbar gelten, was zu akademischen Strafen oder abgelehnten Arbeiten führen kann. Nutzer können ihre AI-Inhalte einfach in die TwainGPT-Oberfläche einfügen und mit einem Klick humanisieren. Die Plattform nutzt fortschrittliche Algorithmen, um die Texte umzuschreiben und bietet zudem ein integriertes AI-Detektor-Tool zur Überprüfung der Texte vor und nach der Umwandlung. TwainGPT unterstützt über 100 Sprachen und ist auf allen Geräten zugänglich, was es zu einer vielseitigen Lösung für Studenten, Blogger und Marketingteams macht. Mit einem Freemium-Modell können Nutzer die Plattform kostenlos testen, bevor sie sich für ein kostenpflichtiges Abonnement entscheiden. Die Kombination aus Benutzerfreundlichkeit und Effizienz macht TwainGPT zu einem wertvollen Werkzeug für alle, die AI-Inhalte erstellen und sicherstellen möchten, dass diese menschlich klingen.
AI Watch in Bremer Straßenbahnen: KI soll Bedrohungen früh erkennen
In Bremen wird das Sicherheitsprojekt AI Watch in Straßenbahnen getestet, das potenzielle Bedrohungen frühzeitig erkennen soll, ohne die Privatsphäre der Fahrgäste zu gefährden. Entwickelt in Zusammenarbeit mit dem Bremer KI-Unternehmen Just Add AI, nutzt das System vorhandene Innenkameras, um Videobilder in Echtzeit zu analysieren. Bei der Erkennung von aggressivem Verhalten wird ein aktuelles Kamerabild an die Leitstelle übermittelt, die dann Hilfe organisieren kann. Die Datenverarbeitung erfolgt datenschutzkonform, indem die Videodaten anonymisiert und nicht gespeichert werden. Die Politik sieht das Projekt als wichtigen Schritt zur Verbesserung des Sicherheitsgefühls im öffentlichen Nahverkehr, während die Bremer Straßenbahn AG (BSAG) betont, dass es das Fahrpersonal entlasten und eine schnellere Reaktion auf Vorfälle ermöglichen soll. Die Kosten für die Entwicklung und den Einbau in einem Drittel der Flotte betragen etwa 500.000 Euro, wobei ein Großteil der Finanzierung aus einem Bundesprogramm stammt. Die Zukunft von AI Watch hängt von den Ergebnissen der Testphase ab, und es bleibt abzuwarten, ob das System auch in anderen Städten eingeführt wird.
Glaube und Radikalisierung – KI krempelt die religiöse Welt um – mit problematischen Folgen
Die Integration von Künstlicher Intelligenz (KI) in die religiöse Welt bietet sowohl Chancen als auch Herausforderungen. Immer mehr Menschen suchen über religiöse Chatbots und Apps nach Antworten auf existenzielle Fragen, was den Zugang zu Glaubensinhalten erleichtert. Gleichzeitig bestehen jedoch erhebliche Risiken, insbesondere hinsichtlich des Datenschutzes, da persönliche Daten potenziell an Dritte weitergegeben werden. Zudem können KI-gestützte Plattformen falsche oder gefährliche Informationen verbreiten, was das Vertrauen in religiöse Autoritäten untergräbt. Ein weiteres besorgniserregendes Problem ist die mögliche Förderung von Radikalisierung, da Algorithmen dazu neigen, extreme Inhalte zu verstärken und einfache Antworten zu liefern. Experten warnen vor islamophoben Tendenzen in den Trainingsdaten von KI-Modellen, die stereotype Darstellungen begünstigen. Um diesen Herausforderungen zu begegnen, wird die Förderung von Medienkompetenz und kritischem Denken als essenziell erachtet. Nutzer sollten die Informationen von KI-Chatbots kritisch hinterfragen, um Fehlinformationen und Radikalisierung zu vermeiden.
Here is Why Lantheus Holdings Inc (LNTH) Is Among the Best Medical AI Stocks to Invest In
Lantheus Holdings Inc (NASDAQ:LNTH) hat sich als eine der vielversprechendsten Investitionsmöglichkeiten im Bereich medizinischer KI etabliert, mit einem Aktienanstieg von etwa 23% in diesem Jahr und über 46% in den letzten sechs Monaten. Das Unternehmen erweitert sein Produktportfolio, um der steigenden Nachfrage nach medizinischen Bildgebungslösungen gerecht zu werden, und erhielt kürzlich die FDA-Zulassung für sein Bildgebungsprodukt PYLARIFY TruVu. Zudem wartet Lantheus auf die FDA-Zulassung für das diagnostische Bildgebungsset LNTH-2501, dessen Überprüfung um drei Monate verlängert wurde, was positive Marktreaktionen hervorrief. Analysten von Citizens bleiben optimistisch und sehen großes Potenzial für LNTH-2501, da es möglicherweise das einzige Bildgebungsset mit TPT-Erstattung sein könnte. Im vierten Quartal 2025 verzeichnete Lantheus einen Umsatzanstieg von 4% im Vergleich zum Vorjahr und einen Nettogewinn von 54,1 Millionen Dollar. Das Unternehmen verfügt über mehr als 359 Millionen Dollar in bar und 750 Millionen Dollar in seiner revolvierenden Kreditlinie und ist auf die Herstellung von Radiopharmazeutika spezialisiert, die bei der Erkennung und Behandlung schwerer Krankheiten helfen.
Hörakustik wird zur Demenz-Prävention
Die Hörakustik spielt eine zunehmend wichtige Rolle in der Prävention von Demenz. Studien zeigen, dass unentdeckter oder unbehandelter Hörverlust das Risiko für kognitive Beeinträchtigungen und Demenz erhöhen kann. Durch die frühzeitige Erkennung und Behandlung von Hörproblemen können nicht nur die Lebensqualität der Betroffenen verbessert, sondern auch potenzielle kognitive Rückgänge verlangsamt werden. Hörgeräte und andere akustische Hilfsmittel tragen dazu bei, die soziale Interaktion zu fördern und das Gehirn aktiv zu halten. Fachleute in der Hörakustik sind daher gefordert, präventive Maßnahmen zu entwickeln und das Bewusstsein für die Zusammenhänge zwischen Hörgesundheit und kognitiver Funktion zu schärfen. Die Integration von Hörtests in regelmäßige Gesundheitsuntersuchungen könnte ein entscheidender Schritt zur frühzeitigen Intervention sein.
The drowning detection startup that never mentions AI
Das taiwanesische Startup Fortune AI wird im Mai am Plug and Play Silicon Valley Summit teilnehmen und präsentiert mit SAFE SWIM eine innovative Lösung zur Erkennung von Ertrinkungsrisiken in Echtzeit. Gründer Andrew Chen verfolgt eine Marketingstrategie, die den Begriff "KI" bewusst vermeidet, um potenzielle Kunden wie Schwimmbadbetreiber nicht zu verwirren. SAFE SWIM dient als unterstützendes Werkzeug für Rettungsschwimmer, indem es sofortige Alarme auslöst und präzise Standorte angibt. Chen betont die Bedeutung der Schulung der Betreiber für den Erfolg des Systems. Fortune AI hat bereits internationale Märkte erschlossen und plant, die Technologie auf offene Gewässer auszudehnen, um eine kontinuierliche Überwachung zu ermöglichen. Die Markteinführung in den USA gestaltet sich jedoch herausfordernd, insbesondere hinsichtlich Kapital und kultureller Unterschiede, weshalb Chen strategische Partnerschaften anstrebt. Zudem wird ein zweites Produkt entwickelt, das speziell auf nordamerikanische Betreiber zugeschnitten ist, um die Marktchancen zu erweitern.
Anthropic: US-Regierung will offenbar KI-Modell Mythos auch selbst nutzen
Die US-Regierung plant, das KI-Modell „Mythos“ von Anthropic in verschiedenen Bundesbehörden einzusetzen, um Software-Schwachstellen zu identifizieren und zu beheben. Ein internes Memo des Chief Information Officer des Office of Management and Budget, Gregory Barbaccia, kündigt an, dass Schutzmaßnahmen eingerichtet werden, um den Behörden den Zugang zu diesem KI-Tool zu ermöglichen. Die vielseitigen Fähigkeiten von Mythos, sowohl zur Erkennung als auch zur Ausnutzung von Schwachstellen, haben Besorgnis ausgelöst. Finanzminister Scott Bessent und der Vorsitzende der US-Notenbank, Jerome Powell, beriefen eine Dringlichkeitssitzung mit Bankenchefs ein, um die potenziellen Cyberrisiken zu erörtern. Trotz dieser Bedenken drängen US-Beamte auf den Einsatz von Mythos zur Verbesserung der Cybersicherheit, insbesondere das Finanzministerium hat um Zugang gebeten. Die Regierung arbeitet eng mit Anthropic und anderen Partnern zusammen, um sicherzustellen, dass angemessene Sicherheitsvorkehrungen getroffen werden, bevor das Modell in Betrieb genommen wird.
Elections watchdog launches scheme to tackle AI deepfakes ahead of local elections
Die britische Wahlaufsichtsbehörde hat ein neues Programm zur Erkennung von Deepfakes ins Leben gerufen, um irreführende KI-generierte Inhalte vor den Kommunalwahlen im Mai zu bekämpfen. Dieses System wird Online-Inhalte überwachen, um täuschende Audio- und Videoaufnahmen zu identifizieren. Obwohl Deepfakes bisher keinen signifikanten Einfluss auf Wahlen im Vereinigten Königreich hatten, warnt die Kommission vor der zunehmenden Raffinesse und Zugänglichkeit dieser Technologie. Berichten zufolge haben mehr als die Hälfte der Wähler bei der letzten Wahl irreführende Informationen wahrgenommen, und ein Viertel gab an, Deepfakes gesehen oder gehört zu haben. Die Wahlkommission plant, die Auswirkungen dieser Inhalte auf die Wählerabsichten zu untersuchen und mit politischen Parteien zusammenzuarbeiten, um solche Informationen zu entfernen. Der Chief Executive der Kommission betont die Notwendigkeit genauer Informationen für die Wähler und die Vermeidung absichtlich irreführender Inhalte. Die Ergebnisse des Programms sollen nach den Wahlen im Mai veröffentlicht werden.
Fresh crackdown against deepfakes and AI ahead of local elections
Die britische Wahlkommission hat ein neues Programm zur Erkennung von Deepfakes ins Leben gerufen, um der Verbreitung von KI-generierten Fehlinformationen vor den Kommunalwahlen im Mai entgegenzuwirken. Das System wird Online-Inhalte überwachen, um irreführende Audio- und Videoaufnahmen zu identifizieren und mit politischen Parteien zusammenzuarbeiten, um schädliches Material zu entfernen. Obwohl Deepfakes bisher keinen signifikanten Einfluss auf Wahlen in Großbritannien hatten, warnt die Kommission vor der zunehmenden Raffinesse und Zugänglichkeit dieser Technologie. Die Initiative folgt Berichten, dass über die Hälfte der Wähler während der Wahlen 2024 auf irreführende Informationen gestoßen ist, wobei etwa ein Viertel Deepfakes gesehen oder gehört hat. Das Pilotprojekt wird in Zusammenarbeit mit dem Innenministerium durchgeführt und zielt darauf ab, den Wählern genaue Informationen zu gewährleisten. Die Ergebnisse des Programms sollen nach den Wahlen im Mai veröffentlicht werden.
KI-Tools und Datenlecks befeuern neue Phishing-Welle
In den letzten Monaten haben Cybersicherheitsforscher einen besorgniserregenden Anstieg raffinierter Phishing-Kampagnen festgestellt, die legitime Fernwartungssoftware und prominente Datenlecks ausnutzen. Angreifer setzen Künstliche Intelligenz ein, um Schwachstellen schneller zu identifizieren und täuschend echte Phishing-Köder zu erstellen, was die Erkennung durch traditionelle Sicherheitsmaßnahmen erschwert. Eine aktuelle Kampagne nutzt gefälschte DHL-Versandbenachrichtigungen, die Malware in Form eines modifizierten Installers enthalten, um vollen Zugriff auf die Systeme der Opfer zu erlangen. Zudem wurde ein erhebliches Datenleck bei Booking.com entdeckt, das Betrügern ermöglicht, realistische Phishing-Angriffe mit echten Buchungsdaten durchzuführen. Die Geschwindigkeit, mit der neue Schwachstellen ausgenutzt werden, hat durch fortschrittliche KI-Modelle zugenommen, was zu einem Anstieg von Zero-Day-Exploits führt. In Reaktion darauf haben Aufsichtsbehörden wie das NIST ihre Verfahren zur Meldung von Schwachstellen angepasst, während Finanzregulierer neue Sicherheitsmaßnahmen einführen. Die Cybersicherheitsbranche entwickelt sich zunehmend in Richtung eines umfassenden Exposure Managements, um den Herausforderungen automatisierter Bedrohungen besser begegnen zu können.
Streaming: Netflix setzt auf mehr KI bei Filmen und Serien
Der Artikel beschreibt, wie Netflix plant, verstärkt Künstliche Intelligenz (KI) in die Produktion von Filmen und Serien zu integrieren. Ziel dieser Strategie ist es, die Effizienz und Kreativität bei der Content-Erstellung zu erhöhen und personalisierte Inhalte zu entwickeln, die besser auf die Vorlieben der Nutzer abgestimmt sind. Durch den Einsatz von KI-Technologien sollen sowohl die Produktionskosten gesenkt als auch die Qualität der Inhalte verbessert werden. Diese Entwicklungen könnten Netflix eine noch stärkere Marktstellung im Streaming-Sektor verschaffen und die Art und Weise, wie Geschichten erzählt werden, grundlegend verändern. Zudem wird erwartet, dass die Zuschauererlebnisse individueller und ansprechender gestaltet werden, was die Bindung der Nutzer an die Plattform weiter stärken könnte.
The fake images behind AI insurance scams
Der Artikel „The fake images behind AI insurance scams“ thematisiert die wachsende Problematik von Betrugsfällen im Versicherungswesen, die durch mit Künstlicher Intelligenz generierte gefälschte Bilder begünstigt werden. Betrüger erstellen täuschend echte Bilder, um nicht existierende Schadensfälle, wie gefälschte Unfälle, als Beweismittel bei Versicherungen einzureichen. Diese Betrugsmaschen haben schwerwiegende Folgen: Sie belasten nicht nur die Versicherungsunternehmen finanziell, sondern führen auch zu höheren Prämien für ehrliche Kunden und untergraben das Vertrauen in die gesamte Branche. In Reaktion auf diese Herausforderungen sieht sich die Versicherungsbranche gezwungen, innovative Technologien und Strategien zu entwickeln, um die Authentizität von Schadensmeldungen besser zu überprüfen und zukünftigen Betrugsversuchen entgegenzuwirken.
Veteran Tech Reporter Pushes Back on AI in Newsrooms
In einem Editorial für Wired äußert der erfahrene Tech-Journalist Steven Levy ernsthafte Bedenken gegen den Einsatz von KI-Schreibwerkzeugen in Nachrichtenredaktionen. Er warnt, dass die angestrebten Effizienzgewinne für Verlage mit einem Verlust an journalistischer Integrität einhergehen könnten. Levy betont, dass KI nicht in der Lage sei, essenzielle journalistische Qualitäten wie Urteilsvermögen und persönliche Beziehungen zu Quellen zu erfassen. Diese Diskussion findet vor dem Hintergrund statt, dass Medienunternehmen unter finanziellem Druck stehen und zunehmend KI-Tools zur Kostensenkung testen. Levy sieht in der Verwendung von KI eine potenzielle Gefährdung des Lesertrauens, da unklar bleibt, ob Inhalte von Menschen oder Maschinen erstellt wurden. Viele Journalisten teilen seine Bedenken, fühlen sich jedoch oft machtlos, den Trend zu stoppen. Levy's Warnung könnte sich als weitsichtig erweisen, insbesondere wenn Leser eine Abnahme der Qualität bemerken oder das Vertrauen in die Berichterstattung schwindet. Letztlich stellt sich die Frage, ob Verlage den Wert des Journalismus über die reine Informationslieferung hinaus erkennen oder ob sie auf die Effizienz von KI setzen, was möglicherweise schwerwiegende Folgen hat.
AI tools to help vision-impaired are good, but could be better
Der Artikel thematisiert die aktuellen KI-Tools, die entwickelt wurden, um sehbehinderten Menschen zu helfen. Obwohl diese Technologien bereits nützliche Funktionen bieten, wie etwa die Erkennung von Objekten oder das Vorlesen von Texten, gibt es noch erhebliche Verbesserungsmöglichkeiten. Kritiker weisen darauf hin, dass viele dieser Tools nicht benutzerfreundlich genug sind und oft an den individuellen Bedürfnissen der Nutzer vorbeigehen. Zudem wird die Notwendigkeit betont, die Technologie weiter zu optimieren, um eine höhere Genauigkeit und Zuverlässigkeit zu gewährleisten. Der Artikel schließt mit einem Aufruf an Entwickler und Unternehmen, enger mit der betroffenen Community zusammenzuarbeiten, um die Tools effektiver und zugänglicher zu gestalten.
AI traffic to US retailers rose 393% in Q1, and it’s boosting their revenue too
Im ersten Quartal 2026 verzeichneten US-Einzelhändler einen beeindruckenden Anstieg des AI-Verkehrs um 393% im Vergleich zum Vorjahr, was auf die wachsende Nutzung von KI-Assistenten beim Online-Shopping hinweist. Diese Entwicklung führte nicht nur zu einem höheren Verkehrsaufkommen, sondern auch zu einer signifikanten Verbesserung der Konversionsraten, da AI-Nutzer 42% besser konvertierten als herkömmliche Kunden. Laut Adobe verbringen AI-Besucher mehr Zeit auf den Webseiten und rufen mehr Seiten pro Besuch auf, was zu einem 37% höheren Umsatz pro Besuch führt. Eine Umfrage ergab, dass 39% der Befragten AI für ihre Einkäufe nutzen und 85% von einer verbesserten Einkaufserfahrung berichten. Trotz dieser positiven Trends sind viele Einzelhandelswebsites jedoch nicht optimal für KI optimiert; etwa ein Viertel der Inhalte auf Startseiten und 34% der Produktseiten sind nicht für KI zugänglich. Adobe empfiehlt Einzelhändlern, ihre Websites entsprechend anzupassen, um im Wettbewerb um Online-Käufer relevant zu bleiben.
Apple secretly threatened to pull Grok from the App Store over deepfake nudes
Im Januar 2026 drohte Apple heimlich, die Grok-App von xAI aus dem App Store zu entfernen, weil das Unternehmen nicht ausreichend gegen die Erstellung nicht einvernehmlicher sexualisierter Deepfakes vorging. Diese Drohung wurde in einem Brief an US-Senatoren bekannt, in dem Apple erklärte, dass eine erste Aktualisierung von Grok abgelehnt wurde, da sie nicht den App Store-Richtlinien entsprach. Die Kontroversen entstanden, als Groks Bildgenerierungsfunktionen für die Erstellung sexualisierter Darstellungen von Frauen und Minderjährigen missbraucht wurden. Advocacy-Gruppen und Gesetzgeber forderten die Entfernung der X- und Grok-Apps aus den App-Stores. Apple stellte fest, dass beide Apps gegen die Richtlinien zu anstößigen Inhalten verstießen und forderte xAI auf, einen Plan zur Inhaltsmoderation vorzulegen. Nach mehreren Überprüfungen genehmigte Apple schließlich eine aktualisierte Version von Grok, nachdem Verbesserungen festgestellt wurden. Dennoch berichtete NBC News, dass einige der neuen Einschränkungen möglicherweise umgangen werden konnten, was auf ungelöste Probleme hinweist. xAI betonte jedoch, dass die Erstellung nicht einvernehmlicher Deepfakes strikt verboten sei.
Character.AI pivots to Books mode after safety scandals
Character.AI hat mit der Einführung des "Books mode" einen strategischen Wandel vollzogen, um sein angeschlagenes Image nach mehreren Skandalen zu rehabilitieren. Diese neue Funktion ermöglicht es Nutzern, in klassische Literaturwelten wie "Alice im Wunderland" und "Dracula" einzutauchen, was als Versuch gewertet wird, die Wahrnehmung von KI-Rollenspielen über umstrittene Chatbot-Interaktionen hinaus zu erweitern. Der Schritt erfolgt vor dem Hintergrund zahlreicher Klagen, die dem Unternehmen vorwerfen, dass seine Chatbots gefährliche Inhalte fördern und insbesondere Jugendliche gefährden. Mit über 20 Titeln aus dem öffentlichen Bereich hofft Character.AI, durch strukturierte literarische Erlebnisse das Risiko schädlicher Interaktionen zu minimieren und gleichzeitig einen Bildungsanspruch zu formulieren. Trotz dieser Neuausrichtung bleibt unklar, ob die Änderungen ausreichen, um die Bedenken der Kritiker zu zerstreuen oder die laufenden rechtlichen Probleme zu lösen. Die zugrunde liegende Technologie bleibt weitgehend unverändert, was Fragen zur Sicherheit und zum Umgang mit vulnerablen Nutzern aufwirft. Ob der "Books mode" tatsächlich die gewünschten Effekte erzielt, bleibt abzuwarten.
Google's Gemini AI Now Blocks Harmful Ads Before They Go Live
Google hat mit seinem neuen Gemini AI-System einen bedeutenden Schritt zur Verbesserung der Werbesicherheit unternommen, indem es schädliche und irreführende Werbung bereits vor der Veröffentlichung blockiert. Diese proaktive Moderation nutzt die fortschrittlichen Fähigkeiten von Gemini, um betrügerische Anzeigen in Echtzeit zu erkennen, was die Effizienz im Vergleich zu herkömmlichen, reaktiven Systemen erheblich steigert. Laut Keerat Sharma, VP für Ads Privacy and Safety, ermöglicht die Technologie eine präzisere Analyse von Anzeigeninhalten und Verhaltensmustern, wodurch subtile Betrugsindikatoren identifiziert werden, die menschlichen Prüfern oft entgehen. Diese Initiative erfolgt vor dem Hintergrund steigender regulatorischer Anforderungen und öffentlicher Kritik an Googles früheren Schwierigkeiten bei der Kontrolle betrügerischer Werbung. Die Integration von Gemini könnte zudem die Genehmigungszeiten für legitime Kampagnen verkürzen und die Hürden für Betrüger erhöhen. Obwohl Google keine spezifischen Zahlen zur Effektivität von Gemini im Vergleich zu früheren Systemen bereitstellt, wird deutlich, dass das Unternehmen seine KI-Investitionen als strategisches Mittel zur Sicherung seines Werbegeschäfts betrachtet. Diese Entwicklung setzt auch Wettbewerber unter Druck, ihre Sicherheitsmaßnahmen zu verbessern, und zeigt, dass die Moderation von Werbung ein entscheidendes Element zur Wahrung des Vertrauens von Werbetreibenden und Nutzern ist.
Radiologen & KI scheitern oft an der Erkennung manipulierter Röntgenbilder
Eine aktuelle Studie des Mount Sinai Hospital in New York zeigt, dass sowohl erfahrene Radiologen als auch KI-Modelle Schwierigkeiten haben, manipulierte Röntgenbilder zu erkennen. In Tests äußerten nur 41 Prozent der 17 Radiologen in der Blindphase Verdacht auf KI-generierte Bilder, und die Identifikationsgenauigkeit lag bei etwa 75 Prozent. Auch führende KI-Systeme konnten synthetische Bilder nicht zuverlässig von echten Aufnahmen unterscheiden, wobei einige kaum besser abschnitten als zufälliges Raten. Die Studie identifiziert spezifische Merkmale, die auf KI-generierte Bilder hinweisen, wie übermäßig glatte Knochenstrukturen. Um das Vertrauen in die digitale Radiologie zu wahren, empfehlen die Autoren spezielle Schulungen für Radiologen sowie technische Maßnahmen wie digitale Signaturen und automatisierte Detektoren zur Erkennung von Deepfakes. Die Autoren warnen vor den Risiken, die durch die sinkenden Hürden zur Erstellung täuschend echter medizinischer Bilder entstehen.
Totally lit: How to shoot nights out on your smartphone, from camera settings to AI tools
In ihrem Artikel „Totally lit: How to shoot nights out on your smartphone, from camera settings to AI tools“ gibt DJ Miamor, eine aufstrebende Künstlerin der UK-Clubszene, wertvolle Tipps für das Festhalten von nächtlichen Erlebnissen mit dem Smartphone, insbesondere dem Samsung Galaxy S26 Ultra. Sie empfiehlt, die beste Kamera des Geräts zu nutzen und die Belichtung anzupassen, um eine natürliche Atmosphäre zu schaffen. Die integrierte KI-Technologie hilft, unerwünschte Personen aus den Bildern zu entfernen, was in überfüllten Clubs von Vorteil ist. Miamor betont die Wichtigkeit, entspannt zu bleiben und viel Material aufzunehmen, um die besten Momente festzuhalten. Der Dual Camera-Modus ermöglicht es, sowohl die Umgebung als auch persönliche Reaktionen gleichzeitig zu erfassen, was die Authentizität der Inhalte steigert. Zudem erleichtert die integrierte Bearbeitungssoftware schnelle Anpassungen der Fotos. Letztlich hebt sie hervor, dass der Fokus auf dem Erlebnis und nicht auf der Technik liegen sollte, um die Nacht wirklich genießen zu können.
U.S. Reportedly Preparing Version Of Powerful Anthropic AI Model Mythos To Federal Agencies
Die US-Regierung plant die Einführung einer Version des leistungsstarken KI-Tools Mythos von Anthropic für Bundesbehörden, trotz Bedenken hinsichtlich möglicher Cybersecurity-Risiken. Gregory Barbaccia, Chief Information Officer des Weißen Hauses, betont, dass Schutzmaßnahmen getroffen werden, um den sicheren Einsatz des Tools zu gewährleisten. In den letzten Wochen rückte Mythos aufgrund seiner potenziellen Auswirkungen auf die Banksicherheit in den Fokus, was zu einem geschlossenen Treffen zwischen dem Finanzminister, dem Vorsitzenden der Federal Reserve und führenden Bankmanagern führte. Dort wurden die Bankchefs aufgefordert, ihre Cyberabwehr zu verstärken, da die fortschrittlichen Fähigkeiten von Mythos Angreifern helfen könnten, Schwachstellen in verbreiteten Softwaresystemen zu identifizieren. Diese Besorgnis wird durch die Einschätzung verstärkt, dass das neue Modell von Anthropic außergewöhnliche Fähigkeiten zur Erkennung von Softwareanfälligkeiten besitzt, was die Gefahr erhöht, dass solche Tools in die falschen Hände geraten könnten.
AliveCor brings its pocket-sized 12-lead ECG to Europe after detecting more than 4,000 heart attacks in the US
AliveCor hat die CE-Zulassung für sein tragbares Kardia 12L EKG-System erhalten, was den Markteintritt in Europa ermöglicht. Das innovative 12-Kanal-EKG, das nur fünf Elektroden und ein Kabel benötigt, wird zunächst in Frankreich, Deutschland, Italien, Spanien und dem Vereinigten Königreich eingeführt. Es kann 35 Herzkrankheiten, einschließlich akuten Myokardinfarkts, erkennen und bietet eine erhebliche Zeitersparnis bei der EKG-Erfassung. Das leichte, batteriebetriebene Gerät ist für verschiedene medizinische Umgebungen geeignet, in denen herkömmliche EKG-Geräte unpraktisch sind. AliveCor hat bereits über 4.000 Fälle von Myokardinfarkt und Ischämie identifiziert, was die klinische Nützlichkeit des Systems belegt. Die Einführung des Kardia 12L unterstützt den EU-Kardiovaskulären Gesundheitsplan zur frühzeitigen Erkennung von Herzkrankheiten. Simona Esposito von AliveCor bezeichnete die CE-Zulassung als wichtigen Schritt in der globalen Strategie des Unternehmens.
Apple threatens Elon Musk’s Grok with app store removal
Apple hat Elon Musks Grok-App mit der Drohung konfrontiert, sie aus dem App Store zu entfernen, aufgrund von Bedenken hinsichtlich der Erstellung nicht einvernehmlicher Deepfakes. Diese Maßnahme folgte auf Beschwerden und einen Brief von drei demokratischen Senatoren, die die Erzeugung sexualisierter Bilder ohne Zustimmung kritisierten. Apple forderte die Entwickler von Grok auf, die Inhaltsmoderation zu verbessern, und wies eine überarbeitete Version der App zunächst zurück, da sie nicht den strengen Richtlinien entsprach. Nach der Implementierung "substantielle Verbesserungen" genehmigte Apple schließlich eine aktualisierte Version der Grok-App für den Store. Trotz früherer Aussagen von X zur Verhinderung solcher Inhalte zeigen aktuelle Berichte von Cybersicherheitsquellen und NBC News, dass weiterhin Probleme mit KI-generierten expliziten Bildern von realen Personen auf der Plattform bestehen.
Diabetische Retinopathie: Drogerie-Augenscreening für alle?
Die frühzeitige Erkennung der diabetischen Retinopathie ist entscheidend für den Behandlungserfolg. Moderne Fundus-Fotografie, unterstützt durch Künstliche Intelligenz, könnte ein flächendeckendes Screening ermöglichen und somit die rechtzeitige Diagnose von Diabetes-Patienten verbessern, um schwerwiegende Folgeschäden zu vermeiden. Die VESALIUS-CV-Studie zeigt zudem, dass PCSK9-Hemmer auch für Diabetiker ohne Atherosklerose vorteilhaft sein können. Darüber hinaus wird die Bedeutung einer frühzeitigen Therapie bei Vitamin-B12-Mangel hervorgehoben, da unbehandelte Mängel ernsthafte gesundheitliche Probleme verursachen können. Der Artikel beleuchtet auch die Herausforderungen im deutschen Gesundheitswesen, wo Reformen oft langwierig sind und Diskussionen über notwendige Veränderungen angestoßen werden müssen.
AI system detects manipulated video frames with 95% accuracy
Ein neu entwickeltes KI-System hat die Fähigkeit, manipulierte Videoframes mit einer beeindruckenden Genauigkeit von 95 % zu erkennen. Diese Technologie nutzt fortschrittliche Algorithmen, um Unregelmäßigkeiten und Veränderungen in Videoinhalten zu identifizieren, die auf eine Bearbeitung hindeuten. Angesichts der zunehmenden Verbreitung von Deepfakes und anderen Formen der Video-Manipulation ist dieses System ein wichtiger Schritt zur Wahrung der Integrität visueller Medien. Die Forscher betonen, dass die Erkennung von gefälschten Inhalten entscheidend ist, um Fehlinformationen und Betrug in sozialen Medien und Nachrichtenplattformen zu bekämpfen. Die Ergebnisse zeigen das Potenzial der KI, nicht nur in der Medienüberprüfung, sondern auch in anderen Bereichen wie der Sicherheitsüberwachung und der forensischen Analyse.
Pfälzer KI soll zukünftig weitere Fake News und Manipulationen aufdecken
Das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) in Kaiserslautern hat ein Projekt ins Leben gerufen, um während der Landtagswahl in Rheinland-Pfalz manipulierte Bilder in sozialen Netzwerken aufzudecken. Nutzer können verdächtige Bilder an die KI senden, die diese auf Manipulationen überprüft. In den ersten zehn Tagen wurden über 5.000 Bilder eingereicht, von denen etwa 50 Prozent als manipuliert identifiziert wurden. Das große Interesse an der Technologie zeigte sich in über 20.000 Aufrufen der Plattform, insbesondere während der Wahlphase, in der häufig falsche Inhalte verbreitet werden. Ziel des DFKI ist es, die öffentliche Wahrnehmung zu schützen und das Bewusstsein für die Problematik von Fake-Bildern zu schärfen. Aufgrund des Erfolgs plant das DFKI, die Technologie auch bei zukünftigen Wahlen einzusetzen und möglicherweise weiterzuentwickeln, um auch andere gefälschte Inhalte wie Videos oder Texte zu erkennen.