Erkennung
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Erkennung innerhalb von Deepfakes & Desinformation auf JetztStarten.de.
Einordnung
Dieses Cluster bündelt aktuelle Links, Zusammenfassungen und Marktinformationen zu einem klar abgegrenzten Thema.
Rubrik: KI Ethik, Sicherheit & Vertrauen
Unterrubrik: Deepfakes & Desinformation
Cluster: Erkennung
Einträge: 338
Article: CodeGuardian: A Model Context Protocol Server for AI-Assisted Code Quality Analysis and Security Scanning
CodeGuardian ist ein fortschrittlicher Model Context Protocol (MCP) Server, der AI-gestützte Analysen zur Codequalität und Sicherheitsüberprüfungen bietet. Durch die Integration in gängige Entwicklungsumgebungen erleichtert er Entwicklern den Zugriff auf spezialisierte Sicherheitstools, wodurch der Wechsel zwischen verschiedenen Dashboards entfällt. In Tests identifizierte CodeGuardian über fünfzehn Schwachstellenkategorien mit einer Präzision von über 87 Prozent und erreichte eine wöchentliche Adoptionsrate von 75 Prozent unter den Entwicklern. Die AI-gestützte Remediation bietet nicht nur Warnungen, sondern auch konkrete Codefixes, was die Behebung von Sicherheitsproblemen beschleunigt. In der Praxis wurden 47 zuvor unbekannte Schwachstellen entdeckt, und 68 Prozent der identifizierten Probleme konnten innerhalb eines Sprints gelöst werden. Trotz seiner Stärken hat CodeGuardian Einschränkungen bei großen Codebasen und bestimmten Programmiersprachen. Ein natürliches Sprachinterface ermöglicht es Entwicklern, Sicherheitsüberprüfungen und Remediation-Anfragen effizient zu formulieren. Insgesamt zeigt CodeGuardian, wie AI-Technologie die Sicherheitsstandards in der Softwareentwicklung durch frühzeitige Erkennung und Behebung von Schwachstellen verbessern kann.
Cognex bringt den In-Sight Vision Controller mit NVIDIA-Technologie auf den Markt
Cognex hat den In-Sight 6900 Vision Controller mit NVIDIA-Technologie eingeführt, der für anspruchsvolle Fertigungsanwendungen konzipiert ist. Dieser modulare Controller ermöglicht eine individuelle Anpassung von Kameras, Optik und Beleuchtung, wodurch die Einschränkungen fester Systeme überwunden werden. Dank der Integration der NVIDIA Jetson-Technologie kann der Controller komplexe KI-Verarbeitungsaufgaben direkt am Netzwerkrand ausführen, was die Implementierung leistungsstarker KI-Lösungen erleichtert. Er bietet fortschrittliche KI-Toolmodi zur Inspektion verschiedener Teile und zur Erkennung von Fehlern. Die modulare Architektur ermöglicht eine präzise Systemkonfiguration und beschleunigt die Bereitstellung durch den Einsatz von Transformer-basierten Klassifizierungsmodellen. Zudem unterstützt die nahtlose Integration in die kollaborative KI-Plattform OneVision von Cognex Entwicklungsteams dabei, Inspektionsanwendungen effizient zu optimieren und zu skalieren, was zu schnelleren Verbesserungen und konstanter Qualität in der Produktion führt.
Taylor Swift is stepping up the legal war on AI copycats
Taylor Swift hat kürzlich neue Markenanmeldungen eingereicht, um sich vor unbefugten, KI-generierten Inhalten wie Deepfakes und Sprachklonen zu schützen. Diese rechtlichen Schritte sind Teil eines wachsenden Trends, bei dem Prominente gegen die unautorisierte Nutzung ihrer Stimme, ihres Bildes und ihrer Persona durch KI-Technologien vorgehen. Die Entwicklungen verdeutlichen die Spannungen zwischen den Fortschritten in der KI und den Rechten an geistigem Eigentum, da generative KI-Tools zunehmend in der Lage sind, die Stimmen und Abbildungen von Berühmtheiten ohne deren Zustimmung zu reproduzieren. Swifts Markenanmeldungen könnten einen bedeutenden rechtlichen Ansatz darstellen, um unautorisierte KI-Inhalte zu bekämpfen und möglicherweise einen Präzedenzfall dafür schaffen, wie öffentliche Figuren ihre digitalen Identitäten in einer Zeit schützen können, in der Technologien wie Deepfakes immer überzeugender werden.
Taylor Swift trademarks voice and likeness in apparent bid to stop AI deepfakes
Taylor Swift hat Anträge zur Eintragung von Marken für ihre Stimme und ihr Abbild gestellt, um sich gegen die Erstellung von KI-Deepfakes zu schützen. Die Anträge beinhalten zwei Klangmarken, die ihre Stimme abdecken, sowie eine Marke für ein Bild von ihr mit einer pinken Gitarre während ihrer "Eras"-Tour. Ein Fachanwalt für geistiges Eigentum erläuterte, dass diese Maßnahmen Swift rechtliche Möglichkeiten bieten könnten, um gegen unautorisierte Nutzungen ihrer Stimme vorzugehen. Mit der Eintragung ihrer Stimme könnte sie im Falle eines Rechtsstreits argumentieren, dass ähnliche Verwendungen ihre Markenrechte verletzen. Das eingetragene Bild könnte zudem dazu dienen, gegen manipulierte oder KI-generierte Darstellungen ihres Abbilds vorzugehen. Diese Schritte folgen einem ähnlichen Vorgehen von Matthew McConaughey, der ebenfalls Markenanträge gestellt hat, um die Kontrolle über die Nutzung seiner Stimme und seines Abbilds zu wahren. Beide Künstler betonen die Wichtigkeit, ihre Zustimmung für solche Nutzungen einzuholen.
dehaze raises €3.2M for AI chronic disease detection
Das Münchener Healthtech-Unternehmen dehaze hat in einer Seed-Finanzierungsrunde 3,2 Millionen Euro gesammelt, um ein KI-Modell zur Erkennung chronischer Krankheiten zu entwickeln. Die Finanzierung, angeführt von YZR Capital und DN Capital, soll eine Plattform schaffen, die große Mengen an Patientendaten analysiert und Gesundheitsdienstleistern hilft, Risikopatienten frühzeitig zu identifizieren. Dies könnte die Behandlungsergebnisse verbessern und die Gesundheitskosten senken, da chronische Krankheiten einen erheblichen Teil der globalen Ausgaben ausmachen. dehaze setzt auf kausale KI, um heterogene Datensätze zu verarbeiten und wertvolle Einblicke für Entscheidungsträger zu liefern. CEO Marius Klages betont die globale Ausrichtung des Unternehmens und plant, die technischen und kommerziellen Teams zu erweitern. Die Plattform wird zudem Funktionen zur Empfehlung von nächsten Schritten und zur Verbesserung der Nachverfolgbarkeit entwickeln, um die Effizienz im Gesundheitswesen weiter zu steigern.
Die KI-Milliarden-Wette im geheimen CEO-Gruppenchat – warum Netzwerke unter Top-Managern so entscheidend sind
Im Silicon Valley findet nicht nur eine massive Investition in künstliche Intelligenz statt, sondern es werden auch strategische Wetten über deren zukünftige Entwicklungen in einem geheimen Gruppenchat unter Top-CEOs, angeführt von Sam Altman von OpenAI, getroffen. Diese informellen Netzwerke ermöglichen einen ehrlichen Austausch über Herausforderungen und Unsicherheiten, die in öffentlichen Diskussionen oft nicht behandelt werden. Der enge Kontakt zwischen Führungskräften fördert die frühzeitige Erkennung von Entwicklungen und beschleunigt Entscheidungsprozesse. Solche Gespräche sind entscheidend, um reale Erfahrungen und strategische Zweifel zu thematisieren. In einer sich schnell verändernden technologischen Landschaft wird die Bedeutung dieser Netzwerke weiter zunehmen, da der Zugang zu verschiedenen Perspektiven und die Bereitschaft, unbequeme Fragen zu stellen, für den langfristigen Erfolg unerlässlich sind.
Echtheit sicherstellen, statt Fälschung entlarven: Deepfake‑Erkennung für die Assekuranz per Imagesign
Der Artikel beschreibt die Herausforderungen des Versicherungsbetrugs durch gefälschte Bilder und die Unzulänglichkeiten herkömmlicher Prüfmethoden wie Metadatenanalysen. Tallence hat mit ImageSign einen innovativen Ansatz entwickelt, der die Echtheit von Bildern sichert, anstatt lediglich Fälschungen zu identifizieren. Durch den Einsatz digitaler Signaturen und kryptografischer Verfahren wird die Herkunft und Integrität von Bildern bereits bei der Aufnahme gewährleistet, was eine manipulationssichere Dokumentation ermöglicht. Für unsignierte Bilder ist jedoch eine mehrstufige Bildforensik erforderlich, um Manipulationen zu erkennen. ImageSign bietet eine plattformübergreifende Lösung, die sichere Speicherung und Schutz vor unbefugtem Zugriff garantiert. Ziel ist es, das Vertrauen in Bild- und Videodokumente innerhalb der Assekuranz wiederherzustellen und die Integrität der visuellen Informationen zu gewährleisten.
Quokka Labs Launches Guardia to Prevent Sensitive Data Leaks on AI Platforms
Quokka Labs hat die Chrome-Erweiterung Guardia eingeführt, um versehentliche Datenlecks bei der Nutzung von KI-Plattformen zu verhindern. Angesichts der wachsenden Bedenken hinsichtlich Datenschutz und Informationssicherheit in der zunehmend KI-gesteuerten Arbeitswelt bietet Guardia eine Echtzeitschutzschicht, die Benutzereingaben überwacht und sensible Informationen identifiziert. Bei der Erkennung potenzieller Risiken warnt die Erweiterung die Nutzer oder blockiert problematische Inhalte, um Datenlecks zu vermeiden. Ein datenschutzorientierter Ansatz garantiert, dass keine Benutzerdaten verkauft oder missbraucht werden, was Guardia besonders attraktiv für Einzelpersonen und Organisationen macht, die KI-Technologien sicher nutzen möchten. Die Erweiterung ist jetzt im Chrome Web Store verfügbar und ermöglicht es den Nutzern, KI-Tools zu verwenden, ohne die Einhaltung von Datenschutzstandards zu gefährden.
Redwood AI kündigt Zusammenarbeit mit Aidos Innovations an, die darauf abzielt, die Kooperation zwischen der Regierung von British Columbia, der kanadischen Bundesregierung sowie lokalen Strafverfolgungsbehörden in Bezug auf öffentliche Sicherheit ...
Redwood AI und Aidos Innovations haben eine Kooperation angekündigt, um eine Analyseplattform zur Erkennung und Vorhersage von Opioiden in Vancouver und Victoria zu entwickeln. Das zweijährige Projekt zielt darauf ab, zeitnahe Informationen zur Opioidaktivität bereitzustellen und die Zusammenarbeit zwischen der Regierung von British Columbia, der kanadischen Bundesregierung und lokalen Strafverfolgungsbehörden zu verbessern. Die Plattform wird interaktive Dashboards und Lageberichte umfassen, die den Behörden helfen, aufkommende Opioidaktivitäten effektiver zu interpretieren. Die Implementierung erfolgt schrittweise, beginnend mit Prototypen und repräsentativen Daten, bevor Live-Daten integriert werden. Die Initiative "Track and Trace" soll als Frühwarnsystem für gefährliche Drogen fungieren und die öffentliche Sicherheit durch frühzeitige Erkennung und bessere Koordination der Reaktionen auf Drogenbedrohungen unterstützen. Aidos bringt Expertise in der Schadensminderung ein, während Redwood AI fortschrittliche KI-Technologien bereitstellt. Diese Zusammenarbeit könnte entscheidend zur Bekämpfung der Opioidkrise und zur Unterstützung der am stärksten betroffenen Gemeinschaften beitragen.
TwainGPT: The AI Humanizer That Bypasses Every AI Detector
TwainGPT ist eine innovative Plattform, die AI-generierte Texte in natürliche, schwer erkennbare Schreibweisen umwandelt, um die Erkennung durch AI-Detektoren zu umgehen. Sie adressiert das Problem der typischen Muster in AI-Texten, die oft als zu glatt und vorhersehbar gelten, was zu akademischen Strafen oder abgelehnten Arbeiten führen kann. Nutzer können ihre AI-Inhalte einfach in die TwainGPT-Oberfläche einfügen und mit einem Klick humanisieren. Die Plattform nutzt fortschrittliche Algorithmen, um die Texte umzuschreiben und bietet zudem ein integriertes AI-Detektor-Tool zur Überprüfung der Texte vor und nach der Umwandlung. TwainGPT unterstützt über 100 Sprachen und ist auf allen Geräten zugänglich, was es zu einer vielseitigen Lösung für Studenten, Blogger und Marketingteams macht. Mit einem Freemium-Modell können Nutzer die Plattform kostenlos testen, bevor sie sich für ein kostenpflichtiges Abonnement entscheiden. Die Kombination aus Benutzerfreundlichkeit und Effizienz macht TwainGPT zu einem wertvollen Werkzeug für alle, die AI-Inhalte erstellen und sicherstellen möchten, dass diese menschlich klingen.
AI Watch in Bremer Straßenbahnen: KI soll Bedrohungen früh erkennen
In Bremen wird das Sicherheitsprojekt AI Watch in Straßenbahnen getestet, das potenzielle Bedrohungen frühzeitig erkennen soll, ohne die Privatsphäre der Fahrgäste zu gefährden. Entwickelt in Zusammenarbeit mit dem Bremer KI-Unternehmen Just Add AI, nutzt das System vorhandene Innenkameras, um Videobilder in Echtzeit zu analysieren. Bei der Erkennung von aggressivem Verhalten wird ein aktuelles Kamerabild an die Leitstelle übermittelt, die dann Hilfe organisieren kann. Die Datenverarbeitung erfolgt datenschutzkonform, indem die Videodaten anonymisiert und nicht gespeichert werden. Die Politik sieht das Projekt als wichtigen Schritt zur Verbesserung des Sicherheitsgefühls im öffentlichen Nahverkehr, während die Bremer Straßenbahn AG (BSAG) betont, dass es das Fahrpersonal entlasten und eine schnellere Reaktion auf Vorfälle ermöglichen soll. Die Kosten für die Entwicklung und den Einbau in einem Drittel der Flotte betragen etwa 500.000 Euro, wobei ein Großteil der Finanzierung aus einem Bundesprogramm stammt. Die Zukunft von AI Watch hängt von den Ergebnissen der Testphase ab, und es bleibt abzuwarten, ob das System auch in anderen Städten eingeführt wird.
Here is Why Lantheus Holdings Inc (LNTH) Is Among the Best Medical AI Stocks to Invest In
Lantheus Holdings Inc (NASDAQ:LNTH) hat sich als eine der vielversprechendsten Investitionsmöglichkeiten im Bereich medizinischer KI etabliert, mit einem Aktienanstieg von etwa 23% in diesem Jahr und über 46% in den letzten sechs Monaten. Das Unternehmen erweitert sein Produktportfolio, um der steigenden Nachfrage nach medizinischen Bildgebungslösungen gerecht zu werden, und erhielt kürzlich die FDA-Zulassung für sein Bildgebungsprodukt PYLARIFY TruVu. Zudem wartet Lantheus auf die FDA-Zulassung für das diagnostische Bildgebungsset LNTH-2501, dessen Überprüfung um drei Monate verlängert wurde, was positive Marktreaktionen hervorrief. Analysten von Citizens bleiben optimistisch und sehen großes Potenzial für LNTH-2501, da es möglicherweise das einzige Bildgebungsset mit TPT-Erstattung sein könnte. Im vierten Quartal 2025 verzeichnete Lantheus einen Umsatzanstieg von 4% im Vergleich zum Vorjahr und einen Nettogewinn von 54,1 Millionen Dollar. Das Unternehmen verfügt über mehr als 359 Millionen Dollar in bar und 750 Millionen Dollar in seiner revolvierenden Kreditlinie und ist auf die Herstellung von Radiopharmazeutika spezialisiert, die bei der Erkennung und Behandlung schwerer Krankheiten helfen.
Hörakustik wird zur Demenz-Prävention
Die Hörakustik spielt eine zunehmend wichtige Rolle in der Prävention von Demenz. Studien zeigen, dass unentdeckter oder unbehandelter Hörverlust das Risiko für kognitive Beeinträchtigungen und Demenz erhöhen kann. Durch die frühzeitige Erkennung und Behandlung von Hörproblemen können nicht nur die Lebensqualität der Betroffenen verbessert, sondern auch potenzielle kognitive Rückgänge verlangsamt werden. Hörgeräte und andere akustische Hilfsmittel tragen dazu bei, die soziale Interaktion zu fördern und das Gehirn aktiv zu halten. Fachleute in der Hörakustik sind daher gefordert, präventive Maßnahmen zu entwickeln und das Bewusstsein für die Zusammenhänge zwischen Hörgesundheit und kognitiver Funktion zu schärfen. Die Integration von Hörtests in regelmäßige Gesundheitsuntersuchungen könnte ein entscheidender Schritt zur frühzeitigen Intervention sein.
The drowning detection startup that never mentions AI
Das taiwanesische Startup Fortune AI wird im Mai am Plug and Play Silicon Valley Summit teilnehmen und präsentiert mit SAFE SWIM eine innovative Lösung zur Erkennung von Ertrinkungsrisiken in Echtzeit. Gründer Andrew Chen verfolgt eine Marketingstrategie, die den Begriff "KI" bewusst vermeidet, um potenzielle Kunden wie Schwimmbadbetreiber nicht zu verwirren. SAFE SWIM dient als unterstützendes Werkzeug für Rettungsschwimmer, indem es sofortige Alarme auslöst und präzise Standorte angibt. Chen betont die Bedeutung der Schulung der Betreiber für den Erfolg des Systems. Fortune AI hat bereits internationale Märkte erschlossen und plant, die Technologie auf offene Gewässer auszudehnen, um eine kontinuierliche Überwachung zu ermöglichen. Die Markteinführung in den USA gestaltet sich jedoch herausfordernd, insbesondere hinsichtlich Kapital und kultureller Unterschiede, weshalb Chen strategische Partnerschaften anstrebt. Zudem wird ein zweites Produkt entwickelt, das speziell auf nordamerikanische Betreiber zugeschnitten ist, um die Marktchancen zu erweitern.
Anthropic: US-Regierung will offenbar KI-Modell Mythos auch selbst nutzen
Die US-Regierung plant, das KI-Modell „Mythos“ von Anthropic in verschiedenen Bundesbehörden einzusetzen, um Software-Schwachstellen zu identifizieren und zu beheben. Ein internes Memo des Chief Information Officer des Office of Management and Budget, Gregory Barbaccia, kündigt an, dass Schutzmaßnahmen eingerichtet werden, um den Behörden den Zugang zu diesem KI-Tool zu ermöglichen. Die vielseitigen Fähigkeiten von Mythos, sowohl zur Erkennung als auch zur Ausnutzung von Schwachstellen, haben Besorgnis ausgelöst. Finanzminister Scott Bessent und der Vorsitzende der US-Notenbank, Jerome Powell, beriefen eine Dringlichkeitssitzung mit Bankenchefs ein, um die potenziellen Cyberrisiken zu erörtern. Trotz dieser Bedenken drängen US-Beamte auf den Einsatz von Mythos zur Verbesserung der Cybersicherheit, insbesondere das Finanzministerium hat um Zugang gebeten. Die Regierung arbeitet eng mit Anthropic und anderen Partnern zusammen, um sicherzustellen, dass angemessene Sicherheitsvorkehrungen getroffen werden, bevor das Modell in Betrieb genommen wird.
Elections watchdog launches scheme to tackle AI deepfakes ahead of local elections
Die britische Wahlaufsichtsbehörde hat ein neues Programm zur Erkennung von Deepfakes ins Leben gerufen, um irreführende KI-generierte Inhalte vor den Kommunalwahlen im Mai zu bekämpfen. Dieses System wird Online-Inhalte überwachen, um täuschende Audio- und Videoaufnahmen zu identifizieren. Obwohl Deepfakes bisher keinen signifikanten Einfluss auf Wahlen im Vereinigten Königreich hatten, warnt die Kommission vor der zunehmenden Raffinesse und Zugänglichkeit dieser Technologie. Berichten zufolge haben mehr als die Hälfte der Wähler bei der letzten Wahl irreführende Informationen wahrgenommen, und ein Viertel gab an, Deepfakes gesehen oder gehört zu haben. Die Wahlkommission plant, die Auswirkungen dieser Inhalte auf die Wählerabsichten zu untersuchen und mit politischen Parteien zusammenzuarbeiten, um solche Informationen zu entfernen. Der Chief Executive der Kommission betont die Notwendigkeit genauer Informationen für die Wähler und die Vermeidung absichtlich irreführender Inhalte. Die Ergebnisse des Programms sollen nach den Wahlen im Mai veröffentlicht werden.
Fresh crackdown against deepfakes and AI ahead of local elections
Die britische Wahlkommission hat ein neues Programm zur Erkennung von Deepfakes ins Leben gerufen, um der Verbreitung von KI-generierten Fehlinformationen vor den Kommunalwahlen im Mai entgegenzuwirken. Das System wird Online-Inhalte überwachen, um irreführende Audio- und Videoaufnahmen zu identifizieren und mit politischen Parteien zusammenzuarbeiten, um schädliches Material zu entfernen. Obwohl Deepfakes bisher keinen signifikanten Einfluss auf Wahlen in Großbritannien hatten, warnt die Kommission vor der zunehmenden Raffinesse und Zugänglichkeit dieser Technologie. Die Initiative folgt Berichten, dass über die Hälfte der Wähler während der Wahlen 2024 auf irreführende Informationen gestoßen ist, wobei etwa ein Viertel Deepfakes gesehen oder gehört hat. Das Pilotprojekt wird in Zusammenarbeit mit dem Innenministerium durchgeführt und zielt darauf ab, den Wählern genaue Informationen zu gewährleisten. Die Ergebnisse des Programms sollen nach den Wahlen im Mai veröffentlicht werden.
KI-Tools und Datenlecks befeuern neue Phishing-Welle
In den letzten Monaten haben Cybersicherheitsforscher einen besorgniserregenden Anstieg raffinierter Phishing-Kampagnen festgestellt, die legitime Fernwartungssoftware und prominente Datenlecks ausnutzen. Angreifer setzen Künstliche Intelligenz ein, um Schwachstellen schneller zu identifizieren und täuschend echte Phishing-Köder zu erstellen, was die Erkennung durch traditionelle Sicherheitsmaßnahmen erschwert. Eine aktuelle Kampagne nutzt gefälschte DHL-Versandbenachrichtigungen, die Malware in Form eines modifizierten Installers enthalten, um vollen Zugriff auf die Systeme der Opfer zu erlangen. Zudem wurde ein erhebliches Datenleck bei Booking.com entdeckt, das Betrügern ermöglicht, realistische Phishing-Angriffe mit echten Buchungsdaten durchzuführen. Die Geschwindigkeit, mit der neue Schwachstellen ausgenutzt werden, hat durch fortschrittliche KI-Modelle zugenommen, was zu einem Anstieg von Zero-Day-Exploits führt. In Reaktion darauf haben Aufsichtsbehörden wie das NIST ihre Verfahren zur Meldung von Schwachstellen angepasst, während Finanzregulierer neue Sicherheitsmaßnahmen einführen. Die Cybersicherheitsbranche entwickelt sich zunehmend in Richtung eines umfassenden Exposure Managements, um den Herausforderungen automatisierter Bedrohungen besser begegnen zu können.
AI tools to help vision-impaired are good, but could be better
Der Artikel thematisiert die aktuellen KI-Tools, die entwickelt wurden, um sehbehinderten Menschen zu helfen. Obwohl diese Technologien bereits nützliche Funktionen bieten, wie etwa die Erkennung von Objekten oder das Vorlesen von Texten, gibt es noch erhebliche Verbesserungsmöglichkeiten. Kritiker weisen darauf hin, dass viele dieser Tools nicht benutzerfreundlich genug sind und oft an den individuellen Bedürfnissen der Nutzer vorbeigehen. Zudem wird die Notwendigkeit betont, die Technologie weiter zu optimieren, um eine höhere Genauigkeit und Zuverlässigkeit zu gewährleisten. Der Artikel schließt mit einem Aufruf an Entwickler und Unternehmen, enger mit der betroffenen Community zusammenzuarbeiten, um die Tools effektiver und zugänglicher zu gestalten.
Apple secretly threatened to pull Grok from the App Store over deepfake nudes
Im Januar 2026 drohte Apple heimlich, die Grok-App von xAI aus dem App Store zu entfernen, weil das Unternehmen nicht ausreichend gegen die Erstellung nicht einvernehmlicher sexualisierter Deepfakes vorging. Diese Drohung wurde in einem Brief an US-Senatoren bekannt, in dem Apple erklärte, dass eine erste Aktualisierung von Grok abgelehnt wurde, da sie nicht den App Store-Richtlinien entsprach. Die Kontroversen entstanden, als Groks Bildgenerierungsfunktionen für die Erstellung sexualisierter Darstellungen von Frauen und Minderjährigen missbraucht wurden. Advocacy-Gruppen und Gesetzgeber forderten die Entfernung der X- und Grok-Apps aus den App-Stores. Apple stellte fest, dass beide Apps gegen die Richtlinien zu anstößigen Inhalten verstießen und forderte xAI auf, einen Plan zur Inhaltsmoderation vorzulegen. Nach mehreren Überprüfungen genehmigte Apple schließlich eine aktualisierte Version von Grok, nachdem Verbesserungen festgestellt wurden. Dennoch berichtete NBC News, dass einige der neuen Einschränkungen möglicherweise umgangen werden konnten, was auf ungelöste Probleme hinweist. xAI betonte jedoch, dass die Erstellung nicht einvernehmlicher Deepfakes strikt verboten sei.
Radiologen & KI scheitern oft an der Erkennung manipulierter Röntgenbilder
Eine aktuelle Studie des Mount Sinai Hospital in New York zeigt, dass sowohl erfahrene Radiologen als auch KI-Modelle Schwierigkeiten haben, manipulierte Röntgenbilder zu erkennen. In Tests äußerten nur 41 Prozent der 17 Radiologen in der Blindphase Verdacht auf KI-generierte Bilder, und die Identifikationsgenauigkeit lag bei etwa 75 Prozent. Auch führende KI-Systeme konnten synthetische Bilder nicht zuverlässig von echten Aufnahmen unterscheiden, wobei einige kaum besser abschnitten als zufälliges Raten. Die Studie identifiziert spezifische Merkmale, die auf KI-generierte Bilder hinweisen, wie übermäßig glatte Knochenstrukturen. Um das Vertrauen in die digitale Radiologie zu wahren, empfehlen die Autoren spezielle Schulungen für Radiologen sowie technische Maßnahmen wie digitale Signaturen und automatisierte Detektoren zur Erkennung von Deepfakes. Die Autoren warnen vor den Risiken, die durch die sinkenden Hürden zur Erstellung täuschend echter medizinischer Bilder entstehen.
U.S. Reportedly Preparing Version Of Powerful Anthropic AI Model Mythos To Federal Agencies
Die US-Regierung plant die Einführung einer Version des leistungsstarken KI-Tools Mythos von Anthropic für Bundesbehörden, trotz Bedenken hinsichtlich möglicher Cybersecurity-Risiken. Gregory Barbaccia, Chief Information Officer des Weißen Hauses, betont, dass Schutzmaßnahmen getroffen werden, um den sicheren Einsatz des Tools zu gewährleisten. In den letzten Wochen rückte Mythos aufgrund seiner potenziellen Auswirkungen auf die Banksicherheit in den Fokus, was zu einem geschlossenen Treffen zwischen dem Finanzminister, dem Vorsitzenden der Federal Reserve und führenden Bankmanagern führte. Dort wurden die Bankchefs aufgefordert, ihre Cyberabwehr zu verstärken, da die fortschrittlichen Fähigkeiten von Mythos Angreifern helfen könnten, Schwachstellen in verbreiteten Softwaresystemen zu identifizieren. Diese Besorgnis wird durch die Einschätzung verstärkt, dass das neue Modell von Anthropic außergewöhnliche Fähigkeiten zur Erkennung von Softwareanfälligkeiten besitzt, was die Gefahr erhöht, dass solche Tools in die falschen Hände geraten könnten.
AliveCor brings its pocket-sized 12-lead ECG to Europe after detecting more than 4,000 heart attacks in the US
AliveCor hat die CE-Zulassung für sein tragbares Kardia 12L EKG-System erhalten, was den Markteintritt in Europa ermöglicht. Das innovative 12-Kanal-EKG, das nur fünf Elektroden und ein Kabel benötigt, wird zunächst in Frankreich, Deutschland, Italien, Spanien und dem Vereinigten Königreich eingeführt. Es kann 35 Herzkrankheiten, einschließlich akuten Myokardinfarkts, erkennen und bietet eine erhebliche Zeitersparnis bei der EKG-Erfassung. Das leichte, batteriebetriebene Gerät ist für verschiedene medizinische Umgebungen geeignet, in denen herkömmliche EKG-Geräte unpraktisch sind. AliveCor hat bereits über 4.000 Fälle von Myokardinfarkt und Ischämie identifiziert, was die klinische Nützlichkeit des Systems belegt. Die Einführung des Kardia 12L unterstützt den EU-Kardiovaskulären Gesundheitsplan zur frühzeitigen Erkennung von Herzkrankheiten. Simona Esposito von AliveCor bezeichnete die CE-Zulassung als wichtigen Schritt in der globalen Strategie des Unternehmens.
Diabetische Retinopathie: Drogerie-Augenscreening für alle?
Die frühzeitige Erkennung der diabetischen Retinopathie ist entscheidend für den Behandlungserfolg. Moderne Fundus-Fotografie, unterstützt durch Künstliche Intelligenz, könnte ein flächendeckendes Screening ermöglichen und somit die rechtzeitige Diagnose von Diabetes-Patienten verbessern, um schwerwiegende Folgeschäden zu vermeiden. Die VESALIUS-CV-Studie zeigt zudem, dass PCSK9-Hemmer auch für Diabetiker ohne Atherosklerose vorteilhaft sein können. Darüber hinaus wird die Bedeutung einer frühzeitigen Therapie bei Vitamin-B12-Mangel hervorgehoben, da unbehandelte Mängel ernsthafte gesundheitliche Probleme verursachen können. Der Artikel beleuchtet auch die Herausforderungen im deutschen Gesundheitswesen, wo Reformen oft langwierig sind und Diskussionen über notwendige Veränderungen angestoßen werden müssen.
AI system detects manipulated video frames with 95% accuracy
Ein neu entwickeltes KI-System hat die Fähigkeit, manipulierte Videoframes mit einer beeindruckenden Genauigkeit von 95 % zu erkennen. Diese Technologie nutzt fortschrittliche Algorithmen, um Unregelmäßigkeiten und Veränderungen in Videoinhalten zu identifizieren, die auf eine Bearbeitung hindeuten. Angesichts der zunehmenden Verbreitung von Deepfakes und anderen Formen der Video-Manipulation ist dieses System ein wichtiger Schritt zur Wahrung der Integrität visueller Medien. Die Forscher betonen, dass die Erkennung von gefälschten Inhalten entscheidend ist, um Fehlinformationen und Betrug in sozialen Medien und Nachrichtenplattformen zu bekämpfen. Die Ergebnisse zeigen das Potenzial der KI, nicht nur in der Medienüberprüfung, sondern auch in anderen Bereichen wie der Sicherheitsüberwachung und der forensischen Analyse.
The Trump administration blacklisted Anthropic – and is now telling banks to use its AI
Die Trump-Administration steht vor einem Widerspruch, indem sie Banken auffordert, das KI-Modell Mythos von Anthropic zur Erkennung von Cybersecurity-Schwachstellen zu testen, während sie das Unternehmen gleichzeitig als Sicherheitsrisiko für die nationale Verteidigung einstuft. Treasury Secretary Scott Bessent und Fed Chair Jerome Powell haben führende Banken wie JPMorgan Chase und Goldman Sachs ermutigt, Mythos zu nutzen, obwohl das Pentagon rechtliche Schritte gegen Anthropic eingeleitet hat, weil das Unternehmen Sicherheitsvorkehrungen für autonome Waffen nicht entfernen wollte. Während der Tests identifizierte Mythos Tausende unbekannter Schwachstellen in Betriebssystemen und Browsern, was zu einer kontrollierten Verbreitung des Modells über das Programm Project Glasswing führte. Diese paradoxe Situation zeigt die widersprüchlichen Politiken der Regierung gegenüber Anthropic: Das Pentagon sieht das Unternehmen als Bedrohung, während Finanzbehörden seine Technologie als unverzichtbar erachten. Trotz dieser Widersprüche testen die Banken Mythos, was auf eine allgemeine Angst vor Cyberangriffen hinweist. Zudem untersuchen britische Behörden die potenziellen Risiken von Mythos. Der Vorfall verdeutlicht ein strukturelles Problem in der nationalen Sicherheitsstrategie der Regierung, die von persönlichen Konflikten geprägt ist.
'Drama': Meta's AI head dismisses Claude Mythos fears
Yann LeCun, der Chief AI Scientist von Meta, hat die Ängste bezüglich des Claude Mythos-Modells von Anthropic als übertrieben und als "BS aus Selbsttäuschung" bezeichnet. Dies geschah, nachdem das Modell angeblich Tausende von kritischen Sicherheitsanfälligkeiten in weit verbreiteten Software-Systemen entdeckt hatte, was zu Diskussionen unter Finanzregulatoren und großen Institutionen führte. Claude Mythos ist jedoch nicht öffentlich zugänglich, sondern wird im Rahmen des kontrollierten Projekts Glasswing nur ausgewählten Organisationen bereitgestellt. Während einige Experten wie Gary Marcus die Bedeutung des Modells als überbewertet ansehen und es als inkrementellen Fortschritt betrachten, sehen Unternehmen wie Cisco und CrowdStrike in Claude Mythos eine revolutionäre Technologie, die die Erkennung von Sicherheitsanfälligkeiten erheblich beschleunigen könnte. Diese Debatte findet in einem schnell wachsenden AI-Sektor statt, der neue Einnahmequellen erschließt und gleichzeitig Sicherheitsbedenken adressiert.
AI Pioneer and Nobel Laureate Geoffrey Hinton Joins Human Longevity, Inc. Scientific Advisory Board
Geoffrey Hinton, ein führender Pionier der künstlichen Intelligenz und Nobelpreisträger, hat sich dem wissenschaftlichen Beratungsgremium von Human Longevity, Inc. angeschlossen. In dieser Rolle wird er die KI-Strategie des Unternehmens leiten und an der Entwicklung einer Plattform zur Vorhersage von Krankheitsrisiken sowie zur frühzeitigen Erkennung von Krankheiten mitwirken. Hinton, der 2024 den Nobelpreis für Physik erhielt, plant, innovative Modelle zu schaffen, die eine frühzeitige Krankheitsdiagnose ermöglichen und die Gesundheit der Menschen verbessern. Human Longevity hat über ein Jahrzehnt daran gearbeitet, umfassende Datensätze zu erstellen, die Genomik, Bildgebung und Biomarker integrieren, um den Übergang von reaktiver zu präventiver, personalisierter Medizin zu fördern. Mit der Einführung der KI-gestützten Longevity-App MyHealth im Jahr 2026 wird diese Vision weiter vorangetrieben. Hinton hebt hervor, dass die Kombination von KI und Biologie das Potenzial hat, die Gesundheitsversorgung grundlegend zu transformieren und personalisierte Ansätze zur Krankheitsvorhersage zu ermöglichen.
Anthropic’s Mythos Will Force a Cybersecurity Reckoning—Just Not the One You Think
Anthropic hat mit der Einführung seines Claude Mythos Preview Modells eine potenzielle Wende in der Cybersecurity eingeläutet. Das Modell soll in der Lage sein, Schwachstellen in nahezu jeder Software zu identifizieren und autonom Exploits zu entwickeln. Derzeit ist es nur einer begrenzten Anzahl von Organisationen zugänglich, um ihnen einen Vorsprung bei der Erkennung von Schwächen zu verschaffen. Während einige Experten skeptisch sind und argumentieren, dass ähnliche Funktionen bereits in bestehenden KI-Modellen vorhanden sind, sehen andere in Mythos Preview eine ernsthafte Bedrohung, da es die Identifizierung und Ausnutzung von "Exploit Chains" verbessert. Diese Ketten ermöglichen es Angreifern, Systeme tiefgreifend zu kompromittieren. Die Diskussion über die Auswirkungen hat auch politische und wirtschaftliche Führungspersönlichkeiten mobilisiert, die sich mit den Risiken für die Finanzbranche befassen. Kritiker warnen, dass die Aufregung über Mythos möglicherweise übertrieben ist und Teil des allgemeinen KI-Hypes darstellt. Dennoch könnte Mythos Preview als Chance gesehen werden, grundlegende Schwächen in der Softwareentwicklung anzugehen und die Sicherheitsarchitektur zu verbessern, was den Beginn eines Wandels hin zu sichereren Technologien markieren könnte.
From Karpathy’s LLM Wiki to Graphify: AI Memory Layers are Here
Graphify revolutioniert den Umgang mit KI, indem es eine persistente Wissensschicht etabliert, die sich dynamisch mit der Nutzung weiterentwickelt. Anstatt bei jeder Anfrage neu zu beginnen, verwandelt Graphify Verzeichnisse in durchsuchbare Wissensgraphen, die eine strukturierte Datenverarbeitung ermöglichen. Der Installationsprozess ist unkompliziert und erfordert lediglich einen Befehl, gefolgt von der Eingabe eines spezifischen Kommandos. Durch die Analyse von Code und unstrukturierten Inhalten entsteht eine einheitliche Netzwerkstruktur, die intuitive Abfragen und die Erkennung von Beziehungen zwischen Datenpunkten erlaubt. Die Zuordnung von Vertrauensniveaus innerhalb des Graphen sorgt für Transparenz, die in vielen KI-Tools oft fehlt. Zudem optimiert Graphify die Effizienz, indem es die Token-Nutzung erheblich reduziert, was besonders bei großen Datenmengen vorteilhaft ist. Die Integration in bestehende KI-Umgebungen ermöglicht schnellere und präzisere Antworten auf komplexe Fragen. Insgesamt verändert Graphify die Interaktion mit KI, indem es eine dauerhafte Gedächtnisschicht schafft, die die Effizienz und Qualität der Ergebnisse signifikant steigert.
LevelBlue und SentinelOne kombinieren SecOps Lösungen für IT-Sicherheit
LevelBlue und SentinelOne haben eine Partnerschaft gegründet, um ihre SecOps-Lösungen für IT-Sicherheit zu vereinen. Ziel dieser Kooperation ist es, LevelBlue als globalen Anbieter für Managed Detection and Response sowie Managed SIEM Services zu positionieren, einschließlich Incident Response. Durch die Kombination von KI-gestützter Erkennung und menschlicher Analyse sollen Sicherheitsvorfälle effizienter bearbeitet werden, was die Reaktionszeiten verkürzt und die Widerstandsfähigkeit der Unternehmen erhöht. Die Integration der Technologien beider Firmen ermöglicht eine verbesserte Orchestrierung von Sicherheitsprozessen über verschiedene IT-Umgebungen hinweg, wodurch die Lücke zwischen Erkennung und Reaktion geschlossen wird. Kunden profitieren von einem integrierten Ansatz, der die Effizienz in der Bedrohungserkennung steigert und die operative Komplexität verringert. Insgesamt verbessert dieser Ansatz die Transparenz in hybriden Umgebungen und deckt den gesamten Sicherheitszyklus ab, von der Prävention bis zur Wiederherstellung.
Anthropic KI „Claude Mythos“: Wie gefährlich ist die neue Hacker-KI?
Das neue KI-Modell „Claude Mythos Preview“ von Anthropic wird als potenzielle Bedrohung für die Cybersicherheit betrachtet, da es in der Lage ist, Schwachstellen in gängigen Softwareprogrammen zu identifizieren und auszunutzen. Experten wie Konrad Rieck warnen jedoch, dass für profitable Cyberkriminalität gegenwärtig keine KI erforderlich ist, da Angreifer oft auf einfachere Methoden zurückgreifen. Anthropic plant, das Modell zunächst durch Unternehmen wie Google und Microsoft im Rahmen des „Project Glasswing“ testen zu lassen, um die Sicherheit zu gewährleisten. Rieck betont, dass die Fähigkeiten von KI in der Schwachstellenerkennung oft überschätzt werden und eine perfekte Erkennung unmöglich ist. Dennoch hat die KI durch Verbesserungen in Programmierung und logischem Denken ihre Hacking-Fähigkeiten gesteigert, was ihr ermöglicht, in mehreren Schritten zu arbeiten. Während KI die Entdeckung von Schwachstellen beschleunigt, profitieren auch Verteidiger von dieser Technologie, da sie schneller reagieren können. Die zentrale Frage bleibt, ob solche KI-Modelle die IT-Sicherheit gefährden oder als Werkzeug zur Verbesserung dienen können.
Palladyne AI secures additional Foundational Swarming U.S. Patent on AI-Driven Path Creation, Target Detection, and Behavioral Prediction
Palladyne AI hat ein neues US-Patent (Nr. 12,517,525 B1) für sein Bayesian Program Learning (BPL) Framework erhalten, das sich auf intelligente Zielerkennung, autonome Pfadplanung und Verhaltensvorhersage spezialisiert. Dieses Patent stärkt die geistigen Eigentumsrechte des Unternehmens in den Bereichen autonome Robotik, Multi-Sensor-Überwachung und intelligentes Edge-Computing. Die Technologie ermöglicht die Erkennung und Verfolgung von Zielen über verschiedene Sensoren hinweg, ohne auf Cloud-Dienste angewiesen zu sein, und wandelt gesprochene Anweisungen in optimierte Bewegungspläne um. Dadurch wird die Einsatzbereitschaft in der Fertigung und Logistik erheblich beschleunigt und Umstellungszeiten reduziert. Zudem kann das System das Verhalten von Zielen vorhersagen, selbst bei Störungen oder Ausfällen der Sensoren, was eine kontinuierliche Verfolgung in schwierigen Kommunikationsumgebungen ermöglicht. Laut Palladyne AI repräsentiert dieses Patent einen bedeutenden Fortschritt in der Maschinenintelligenz und den langfristigen Wert des Unternehmens.
Police corporal created AI porn from driver's license pics
Stephen Kamnik, ein Polizeikorporal aus Pennsylvania, hat sich schuldig bekannt, über 3.000 pornografische Deepfakes erstellt zu haben, die auf illegal aus staatlichen Datenbanken, einschließlich Führerscheinfotos, heruntergeladenen Bildern basierten. Die Ermittlungen gegen ihn begannen 2024, als die Polizei auffiel, dass sein Computer ungewöhnlich viel Internetbandbreite nutzte. Bei Durchsuchungen seiner Geräte fanden die Ermittler nicht nur die Deepfakes, sondern auch Kinderpornografie und gestohlene Waffen. Zudem hatte Kamnik heimlich Videos und Fotos von Kollegen aufgenommen und bearbeitet, darunter ein Gerichtsvideo für obszöne Zwecke. Sein Missbrauch staatlicher Ressourcen für persönliche sexuelle Befriedigung hat nicht nur seine Karriere ruiniert, sondern auch das Vertrauen in die Polizei erheblich beschädigt.
Using AI models to detect sinkhole trouble
In dem Artikel "Using AI models to detect sinkhole trouble" wird untersucht, wie Künstliche Intelligenz (KI) zur frühzeitigen Erkennung von Sinklöchern eingesetzt werden kann. Sinklöcher stellen ein ernstes geologisches Risiko dar, das sowohl Infrastruktur als auch die Sicherheit von Menschen gefährden kann. Der Einsatz von KI-Modellen ermöglicht es, große Datenmengen zu analysieren, um Muster und Anomalien zu identifizieren, die auf potenzielle Sinklochbildung hinweisen. Durch die Kombination von geologischen Daten, Satellitenbildern und maschinellem Lernen können Forscher präzisere Vorhersagen treffen und gefährdete Gebiete schneller identifizieren. Der Artikel hebt die Vorteile dieser Technologie hervor, einschließlich der Verbesserung der Reaktionszeiten und der Minimierung von Schäden. Abschließend wird betont, dass die Integration von KI in die Geowissenschaften ein vielversprechender Ansatz ist, um die Herausforderungen im Zusammenhang mit Sinklöchern besser zu bewältigen.
AI can predict a patient’s chance of getting heart disease five years before it develops
Ein neues KI-Tool der Universität Oxford kann das Risiko von Herzinsuffizienz fünf Jahre im Voraus mit einer Genauigkeit von 86 Prozent vorhersagen. Finanziert von der British Heart Foundation, analysiert das Tool Computertomographie-Scans von 72.000 Patienten, um Veränderungen im Fettgewebe um das Herz zu erkennen, die auf eine ungesunde Herzmuskelfunktion hinweisen. Die Forschung zeigt, dass Patienten in der höchsten Risikogruppe 20-mal wahrscheinlicher an Herzinsuffizienz erkranken als solche mit niedrigem Risiko. Herzinsuffizienz, oft durch Fettansammlungen verursacht, ist eine der häufigsten Todesursachen im Vereinigten Königreich. Die Forscher hoffen, dass das Tool die frühzeitige Erkennung der Krankheit verbessert und somit die Behandlung optimiert. Professor Charalambos Antoniades bezeichnete die Entwicklung als bedeutenden Fortschritt und plant, die Methode auf andere CT-Scans auszuweiten. Die Einführung des Tools könnte nicht nur die Diagnose verbessern, sondern auch den Druck auf Krankenhäuser verringern, indem Patienten länger gesund bleiben. Experten betonen die Wichtigkeit einer frühen Diagnose zur Steigerung der Lebensqualität der Patienten. Die britische Regierung plant, die NHS durch neue Technologien zu reformieren und die Nutzung von KI im Gesundheitswesen zu fördern.
Cribl Guard: KI soll sensible Daten im Telemetrie-Strom aufspüren
Cribl hat sein Sicherheitsmodul Guard um eine KI-gestützte Funktion namens Background Detection erweitert, die Muster sensibler Daten in Logs und Events erkennt. Diese kontinuierliche Analyse erfolgt direkt während der Datenverarbeitung auf den Cribl-Workers, wodurch sensible Informationen die Kundeninfrastruktur nicht verlassen. Im Gegensatz zu herkömmlichen Data Loss Prevention-Tools, die externe Analysen durchführen, ermöglicht diese Methode eine proaktive Risikominderung, indem potenzielle Bedrohungen frühzeitig identifiziert werden. Die neue Funktion ersetzt statische Regelwerke und bietet Unternehmen eine kontinuierliche Erkennung neuer Risiken. Laut Cribl-CPO Dritan Bitincka wird so der Übergang von reaktiven zu proaktiven Sicherheitsmaßnahmen erleichtert. Die Plattform wird bereits von zahlreichen Unternehmen, darunter die Hälfte der Fortune-100, genutzt und dient als zentrale Datendrehscheibe für Logs, Metriken und Events.
Argentine wildfire AI startup raises $2.7M after building a detection system that beats NASA’s alerts by 35 minutes
Das argentinische Startup Satellites on Fire, gegründet von drei Teenagern im Jahr 2020, hat kürzlich 2,7 Millionen US-Dollar in einer Seed-Finanzierungsrunde gesammelt, um seine KI-gestützte Plattform zur frühzeitigen Waldbranddetektion weiterzuentwickeln. Die innovative Software nutzt Satellitendaten von verschiedenen Agenturen und bietet eine schnellere Erkennung als das NASA-System FIRMS, indem sie die Zeitlücken zwischen Satellitenüberflügen überbrückt. Nach Gesprächen mit über 80 Feuerwehrleuten wurde die Plattform optimiert und aktualisiert ihre Daten alle fünf Minuten, was eine durchschnittliche Vorlaufzeit von 35 Minuten gegenüber NASA-Warnungen ermöglicht. Mit über 55.000 Nutzern und einer Datenbank von mehr als 20.000 validierten Feuerberichten hat das Unternehmen bereits bei über 600 Waldbränden im Jahr 2025 geholfen. Die neuen Mittel sollen die Expansion in den US-Markt unterstützen, wo Pilotprojekte bereits laufen, sowie die Verbesserung der KI-Modelle und die Einführung eines parametric wildfire insurance products in Zusammenarbeit mit Aon vorantreiben. Die Plattform hat das Potenzial, die enormen Kosten von Waldbränden in den USA erheblich zu senken.
Mit KI gegen KI: So decken IT-Forensiker Deepfakes auf
Die steigende Verbreitung von Deepfakes im Internet, die sowohl unterhaltsame als auch schädliche Auswirkungen haben können, hat das Interesse von IT-Forensikern geweckt. Diese Fachleute setzen einfache visuelle Prüfungen sowie fortschrittliche KI-Tools ein, um gefälschte Inhalte zu erkennen. Nicolas Müller vom Fraunhofer-Institut erläutert, dass erste Analysen durch die Überprüfung von Wetterbedingungen und Schattenverläufen erfolgen können. Weitere Hinweise auf Deepfakes sind unpassende Hauttöne und Bildartefakte. KI-Modelle können zudem die Wahrscheinlichkeit quantifizieren, dass ein Video gefälscht ist, wobei Werte um 95 auf einen Deepfake hindeuten. Jens Kramosch von Leak. Red warnt, dass die Erkennung von Deepfakes zunehmend schwieriger wird, da sich die Technologie ständig verbessert. Um dem entgegenzuwirken, könnte in Zukunft ein digitales Echtheitszertifikat erforderlich sein, um zwischen Originalinhalten und Fälschungen zu unterscheiden. Trotz der Herausforderungen sind die Experten optimistisch, dass KI-Tools weiterhin in der Lage sein werden, Deepfakes zu identifizieren.
KI-Malware schreibt jetzt ihren eigenen Code um
Die Entwicklung von KI-gesteuerter Malware stellt eine wachsende Bedrohung für die Cybersicherheit dar, da diese Malware nun in der Lage ist, ihren eigenen Code in Echtzeit umzuschreiben und somit traditionelle Abwehrmechanismen zu umgehen. Ein Beispiel ist die Malware "DeepLoad", die Unternehmenspasswörter stiehlt und sich nach einer Entfernung selbst reaktivieren kann. Durch die Nutzung von APIs großer Sprachmodelle generiert sie kontinuierlich neuen bösartigen Code, was die Erkennung durch signaturbasierte Antivirenprogramme erschwert. Besonders gefährdet sind Verbraucher, da Smartphones mit sensiblen Daten ein attraktives Ziel darstellen. Zudem erleichtern KI-generierte Phishing-Nachrichten und Deepfakes die Täuschung. Um dieser Bedrohung zu begegnen, sollten Unternehmen und Nutzer auf verhaltensbasierte Erkennung setzen und proaktive Sicherheitsmaßnahmen ergreifen. Experten empfehlen den Einsatz von "Agentiver KI" zur Automatisierung von Sicherheitsprozessen und zur Überwachung von API-Missbrauch. Das Jahr 2026 könnte entscheidend für die Verteidigung gegen diese zunehmend komplexen Cyberangriffe sein.
Anthropic launches PAC to shape AI policy ahead of midterms
Anthropic hat mit der Gründung von AnthroPAC, einem politischen Aktionskomitee, einen bedeutenden Schritt in die politische Arena unternommen, um die bevorstehenden Midterm-Wahlen zu beeinflussen. Das Komitee wird Kampagnenbeiträge an Kandidaten leisten, die die AI-Politikprioritäten des Unternehmens unterstützen, und markiert damit den Übergang von Anthropic von einem forschungsorientierten Unternehmen zu einer aktiven politischen Kraft. Diese Entscheidung zeigt das Bestreben von Anthropic, in Washington Einfluss zu nehmen, insbesondere in einer Zeit, in der die Regulierung von KI weltweit diskutiert wird. Während das Unternehmen sich zuvor als verantwortungsbewusste Alternative in der KI-Entwicklung positioniert hat, tritt es nun in politische Auseinandersetzungen ein, die traditionell von größeren Tech-Unternehmen dominiert werden. Die Gründung eines PAC ermöglicht es Anthropic, direkt auf die Machtverhältnisse Einfluss zu nehmen und signalisiert einen neuen Reifegrad der KI-Branche. Angesichts der laufenden Debatten im Kongress über KI-Gesetzgebung, einschließlich Regelungen zu Deepfakes und algorithmischer Verantwortung, könnten politische Entscheidungen erhebliche Auswirkungen auf das Geschäftsmodell von Anthropic haben.
IREX Launches Smarter, Faster Fire and Smoke AI Detection to Protect Communities and Critical Infrastructure
IREX hat ein Update für sein FireTrack-Modul zur Erkennung von Rauch und Feuer vorgestellt, das ohne zusätzliche Hardware auskommt und auf kritische Infrastrukturen sowie öffentliche Einrichtungen anwendbar ist. Die neue Technologie verarbeitet visuelle Daten in nur 75 bis 105 Millisekunden, was eine nahezu sofortige Identifizierung von Gefahren ermöglicht und die frühzeitige Intervention durch Einsatzkräfte fördert. Durch verbesserte Genauigkeit und die Fähigkeit, echte Gefahren von harmlosen visuellen Eindrücken zu unterscheiden, werden Fehlalarme erheblich reduziert. Dies ermöglicht Sicherheitskräften, sich auf tatsächliche Notfälle zu konzentrieren. IREX hat zudem eine Segmentierungstechnik implementiert, die unregelmäßige Formen von Feuer und Rauch besser erfasst. Die aktualisierte FireTrack-Technologie bietet eine kosteneffiziente Lösung zur Verbesserung der Brandsicherheit, indem sie bestehende Überwachungssysteme nutzt, ohne spezielle Sensoren installieren zu müssen. Dies fördert eine schnellere Reaktion auf potenzielle Brände und stärkt die Resilienz von Gemeinschaften weltweit.
Penemue raises €1.7M to scale AI hate speech detection
Die deutsche Startup-Firma Penemue hat in einer aktuellen Finanzierungsrunde 1,7 Millionen Euro gesammelt, um ihre KI-Technologie zur Erkennung von Hassrede, digitaler Gewalt und Desinformation in Echtzeit auszubauen. Das Unternehmen arbeitet mit Staatsanwaltschaften, der Polizei und kommerziellen Kunden zusammen und überwacht soziale Medien in 89 Sprachen, um problematische Inhalte zu identifizieren. Die KI wird kontinuierlich aktualisiert, um neue Begriffe und kulturelle Nuancen zu erfassen, und ermöglicht es Nutzern, solche Inhalte sofort zu melden oder zu löschen. Penemue bietet sowohl Software-as-a-Service-Lösungen für Unternehmen als auch Lizenzen für Regierungen an, was die Entwicklung ihrer Technologien unterstützt. Angesichts der rechtlichen Anforderungen, insbesondere des EU-Digitaldienstegesetzes, wächst die Nachfrage nach solchen Lösungen. Die neuen Mittel sollen die Weiterentwicklung der KI sowie den Ausbau internationaler Partnerschaften und die Zusammenarbeit mit öffentlichen Institutionen fördern.
Smishing-Welle 2026: KI macht Betrugs-SMS perfekt
Die Sicherheitsbehörden in Deutschland warnen vor einer alarmierenden Zunahme von Smishing-Angriffen, die durch fortschrittliche KI-Technologien optimiert werden. Cyberkriminelle erstellen mithilfe spezialisierter Tools massenhaft personalisierte und täuschend echte SMS, die oft in denselben Chat-Threads wie legitime Nachrichten erscheinen. Besonders gefährdet sind Kunden großer Finanzinstitute, die durch gefälschte SMS zur Eingabe sensibler Daten oder zum Scannen von QR-Codes verleitet werden. Die wirtschaftlichen Schäden sind enorm, mit durchschnittlichen Verlusten von 4.000 bis 6.000 Euro pro Fall und einem Anstieg der Angriffe um über 120 Prozent im Vergleich zu vor zwei Jahren. Experten raten zu technischen Schutzmaßnahmen wie der Deaktivierung der automatischen Link-Vorschau und der Nutzung von Multi-Faktor-Authentifizierung. Das Wettrüsten zwischen Kriminellen und Sicherheitsanbietern bleibt intensiv, da neue Technologien wie Deepfakes in Smishing-Kampagnen integriert werden könnten. Die Sensibilisierung der Nutzer ist entscheidend, um dieser wachsenden Bedrohung entgegenzuwirken.
Corero Network Security Finds Most DDoS Attacks Now Evade Traditional Defenses as AI Drives Faster, Multi-Vector Threats
Der aktuelle Bericht von Corero Network Security zeigt, dass DDoS-Angriffe zunehmend traditionelle Verteidigungen umgehen, was auf eine grundlegende Veränderung in der Angriffsstrategie hinweist. Angreifer setzen verstärkt auf KI-gesteuerte Automatisierung und kombinierte Multi-Vektor-Techniken, um ihre Angriffe schneller und unauffälliger durchzuführen. Über 50 Prozent der Angriffe haben eine Bandbreite von unter 200 Mbps, was ihre Erkennung erschwert, und viele Angriffe sind in weniger als zehn Minuten abgeschlossen. Diese neue Angriffsform erfordert eine sofortige und automatisierte Reaktion, da manuelle Methoden nicht mehr ausreichen. Carl Herberger, CEO von Corero, betont die Notwendigkeit eines kontinuierlichen und automatischen Schutzes, um die Verfügbarkeit von Diensten zu gewährleisten. Die kontinuierliche Sichtbarkeit und der Echtzeitschutz werden als entscheidend für die Verteidigung gegen moderne Bedrohungen hervorgehoben. Corero bietet mit seiner Cyber Resilience-Plattform eine Lösung an, die diese Anforderungen erfüllt und als Managed Service verfügbar ist.
InvoiceRecognition.com Launches New AI Software for Invoice Data Extraction
InvoiceRecognition.com hat eine neue KI-gestützte Plattform zur automatischen Erkennung und Datenextraktion von Rechnungen vorgestellt. Diese Software soll Unternehmen helfen, eingehende Rechnungen effizienter zu klassifizieren und strukturierte Daten zu extrahieren, wodurch manuelles Sortieren reduziert wird. Sie kann Rechnungsdokumente aus verschiedenen Formaten wie E-Mails, gescannten Dateien und PDFs erkennen, ohne dass eine vorherige Vorlageneinrichtung erforderlich ist. Dies ermöglicht eine konsistentere Verwaltung des Rechnungseingangs, insbesondere bei einer Vielzahl von Lieferanten. Die Plattform optimiert die Erkennung und strukturierte Extraktion von Daten, was die Effizienz vor der Genehmigung und Buchung erhöht. Zudem unterstützt die Software den Export in Tabellenkalkulationen und strukturierte Datenformate sowie API-Verbindungen zu ERP- und Buchhaltungssystemen. Mit dieser Einführung reagiert InvoiceRecognition.com auf den wachsenden Bedarf an präziseren und weniger manuellen Lösungen für den Rechnungseingang.
It’s International Fact-Checking Day. Refresh your AI identification skills
Am Internationalen Tag der Faktenprüfung wird auf die Herausforderungen durch KI-generierte Inhalte hingewiesen, insbesondere im Kontext des Iran-Kriegs. Seit dem Beginn des Konflikts am 28. Februar haben Forscher eine besorgniserregende Menge an falschen und irreführenden Bildern identifiziert, die durch künstliche Intelligenz erstellt wurden. Diese Inhalte, oft von verifizierten Social-Media-Konten geteilt, erreichen ein breites Publikum und erschweren die Unterscheidung zwischen Wahrheit und Fiktion. Um die Authentizität von Bildern zu überprüfen, wird empfohlen, visuelle Hinweise zu beachten, die Quelle zu ermitteln und Expertenmeinungen einzuholen. Technologien zur Erkennung von KI-Inhalten können hilfreich sein, sind jedoch nicht immer zuverlässig. Es ist wichtig, sich Zeit zu nehmen und nicht impulsiv zu handeln, um die Verbreitung von Fehlinformationen zu vermeiden. Letztlich bleibt die Bestimmung der Echtheit von Inhalten eine Herausforderung, die Wachsamkeit erfordert.
It’s International Fact-Checking Day. Refresh your AI identification skills
Der Artikel zum Internationalen Tag der Faktenprüfung beleuchtet die Herausforderungen, die durch KI-generierte Inhalte in der aktuellen Informationslandschaft, insbesondere im Zusammenhang mit dem Iran-Krieg, entstehen. Seit dem Beginn der Konflikte am 28. Februar ist ein besorgniserregender Anstieg von falschen und irreführenden Bildern zu beobachten, die weltweit verbreitet werden. Diese umfassen gefälschte Bombenangriffe und manipulierte Videos, die über Social-Media-Konten mit über einer Milliarde Aufrufen geteilt werden. Um die Authentizität solcher Inhalte zu überprüfen, wird empfohlen, visuelle Hinweise zu beachten, die Quelle zu ermitteln und Expertenmeinungen einzuholen. Technologien zur Erkennung von KI-Inhalten können ebenfalls hilfreich sein, jedoch nicht immer zuverlässig. Der Artikel hebt die Bedeutung hervor, Informationen kritisch zu hinterfragen und nicht impulsiv zu teilen, um der Verbreitung von Fehlinformationen entgegenzuwirken.
Kintsugi Shuts Down After FDA Clearance Failure
Kintsugi, ein kalifornisches Startup, hat nach dem Scheitern, rechtzeitig eine FDA-Zulassung für seine KI-Technologie zur Erkennung von Depressionen und Angstzuständen zu erhalten, geschlossen. Das Unternehmen arbeitete sieben Jahre lang an einem innovativen Ansatz, der sich auf die Analyse von Sprachmustern statt auf die Inhalte von Aussagen konzentrierte, was eine Abkehr von traditionellen Diagnosemethoden darstellt. Trotz des Potenzials dieser Technologie konnte Kintsugi die regulatorischen Hürden nicht überwinden, da die bestehenden FDA-Richtlinien nicht für KI-gestützte Diagnosen ausgelegt sind. Diese Situation ist besonders bedauerlich, da die Nachfrage nach mentaler Gesundheitstechnologie in den letzten Jahren, insbesondere aufgrund der Pandemie, stark gestiegen ist. Der Fall Kintsugi verdeutlicht die Herausforderungen, mit denen Healthcare-AI-Startups konfrontiert sind, und zeigt, dass brillante Algorithmen ohne die notwendige regulatorische Genehmigung wertlos sind. Letztlich kann der regulatorische Druck die Marktchancen erheblich einschränken.
+++ Achtung Sperrfrist (Print, Radio und Online): 18.00 Uhr +++ARD-DeutschlandTREND: Deutsche blicken gespalten auf KI
Die aktuelle Umfrage des ARD-DeutschlandTREND zeigt eine gespaltene Meinung der Deutschen zur Künstlichen Intelligenz (KI). 38 Prozent der Befragten glauben, dass KI das Leben verbessern wird, während 45 Prozent eine Verschlechterung erwarten. Besonders optimistisch sind die 18- bis 34-Jährigen, von denen 51 Prozent eine positive Entwicklung erwarten. Die Einstellung zur KI variiert stark nach Einkommensgruppen, wobei Menschen mit höherem Einkommen tendenziell positiver eingestellt sind. Die größten Risiken sehen die Deutschen in der Erstellung von Deepfakes (53 Prozent) und der Unterscheidung zwischen echten und falschen Nachrichten (47 Prozent). Der Verlust von Arbeitsplätzen durch KI wird von 17 Prozent als sehr großes Risiko und von 47 Prozent als großes Risiko wahrgenommen. Die Umfrage wurde zwischen dem 30. und 31. März 2026 unter 1.000 Personen durchgeführt.
Verwandte Cluster
Weitere Themen innerhalb derselben Unterrubrik zur schnellen Navigation.