Auditierbarkeit
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Auditierbarkeit innerhalb von Standards & Zertifizierung auf JetztStarten.de.
Einordnung
Dieses Cluster bündelt aktuelle Links, Zusammenfassungen und Marktinformationen zu einem klar abgegrenzten Thema.
Rubrik: KI Regulierung, Politik & Standards
Unterrubrik: Standards & Zertifizierung
Cluster: Auditierbarkeit
Einträge: 26
[MWC 2026] GSMA zverejnila špecifikáciu používateľského zážitku pre natívne AI aplikácie na telefonovanie
Auf dem MWC Barcelona 2026 hat die GSMA während des 5G Futures Summit eine weiße Buch veröffentlicht, das die Spezifikationen für das Nutzererlebnis von nativen AI-Anwendungen im Telefonie-Bereich beschreibt. Ziel ist es, den Betreibern zu helfen, ihre Netzwerke hinsichtlich Sprachqualität zu optimieren und die Nutzererfahrung durch AI-Algorithmen zu verbessern. Die Integration von AI ermöglicht es, traditionelle Telefonate in intelligente Gespräche in HD-Qualität zu verwandeln, was die Kommunikation stabiler und immersiver macht. Innovative Anwendungen wie AI-gestützte Geräuschreduzierung und Echtzeitübersetzungen sind besonders in lauten Umgebungen oder bei internationalen Konferenzen von Vorteil. Die GSMA ruft die Branche dazu auf, gemeinsame Standards zu entwickeln, die die Qualität der AI-Anwendungen mit den Leistungskennzahlen der Netzwerke verknüpfen. Diese Fortschritte könnten die Monetarisierung von Sprachdiensten revolutionieren, indem sie Betreibern ermöglichen, zusätzliche AI-Funktionen anzubieten, die über herkömmliche Datenservices hinausgehen.
Grammarly Hit With Class-Action Suit Over AI Identity Theft
Grammarly sieht sich einer Sammelklage gegenüber, die von Journalistinnen und Journalisten, darunter Julia Angwin, eingereicht wurde. Die Klage richtet sich gegen die umstrittene "Expert Review"-AI-Funktion des Unternehmens, die angeblich die Identitäten und den beruflichen Ruf der Kläger ohne deren Zustimmung verwendet, um AI-generierte Schreibvorschläge zu erstellen. Diese rechtlichen Schritte betreffen die Muttergesellschaft Superhuman Platform und stellen einen wichtigen Testfall für die ethischen Standards von KI in Unternehmenssoftware dar. Angwin entdeckte, dass Grammarly ihren Namen und ihre Expertise genutzt hat, um diese Vorschläge an Millionen von Nutzern zu verkaufen. Die Klage wird als schwerwiegende Verletzung von Datenschutz- und Persönlichkeitsrechten angesehen, da die AI-generierten Empfehlungen fälschlicherweise als von echten Experten stammend präsentiert wurden. Die Problematik wurde durch einen Newsletter aufgedeckt, in dem auch andere Journalisten, wie Casey Newton, auf die unrechtmäßige Verwendung ihrer Identitäten aufmerksam gemacht wurden.
Pentagon holt ehemaligen DOGE-Beamten als Leiter für KI an Bord
Das Pentagon hat Gavin Kliger zum Chief Data Officer ernannt, was eine bedeutende Personalentscheidung für das Verteidigungsministerium darstellt. Kliger, ein Informatiker mit Erfahrung in Regierungsreformen unter Elon Musk, ist umstritten aufgrund seiner Äußerungen in sozialen Medien, die rassistische und frauenfeindliche Inhalte beinhalten. Diese Ernennung könnte erhebliche Auswirkungen auf die Entwicklung und Implementierung von Künstlicher Intelligenz im Pentagon haben, insbesondere hinsichtlich ethischer Standards und der öffentlichen Wahrnehmung. Die Wahl einer Person mit solch einer Vergangenheit wirft Fragen zu den Werten und Prioritäten des Verteidigungsministeriums auf. Es bleibt abzuwarten, wie Kligers Führung die KI-Strategien des Pentagons beeinflussen wird und ob dies zu weiteren Kontroversen führen könnte.
The Pentagon Just Blacklisted a US AI Company for Refusing to Enable Mass Surveillance
Der Artikel berichtet darüber, dass das Pentagon ein US-amerikanisches KI-Unternehmen auf eine schwarze Liste gesetzt hat, weil es sich geweigert hat, Technologien zu entwickeln, die für Massenüberwachung eingesetzt werden könnten. Diese Entscheidung wirft Fragen zur Ethik und Verantwortung im Bereich der Künstlichen Intelligenz auf. Das Unternehmen hat betont, dass es sich für den Schutz der Privatsphäre und die Wahrung der Menschenrechte einsetzt und daher nicht bereit ist, an Projekten mitzuwirken, die potenziell missbraucht werden könnten. Die Maßnahme des Pentagons könnte weitreichende Folgen für die Zusammenarbeit zwischen der Regierung und der Technologiebranche haben und verdeutlicht die Spannungen zwischen Sicherheitsinteressen und ethischen Standards in der KI-Entwicklung.
KI am Arbeitsplatz: Wer haftet, wenn der Algorithmus entscheidet?
Die Diskussion über die Haftung von Künstlicher Intelligenz (KI) am Arbeitsplatz hat in Deutschland an Bedeutung gewonnen, insbesondere im Kontext der EU-KI-Verordnung. Zentrale Fragestellung ist, wer verantwortlich ist, wenn Algorithmen diskriminieren; in der Regel liegt die Haftung beim Unternehmen, das die KI nutzt. Dies erfordert von Führungskräften eine kritische Prüfung der KI-Ergebnisse. Während der Einsatz von KI rechtlich zulässig ist, wird der Fokus auf menschliche Fähigkeiten wie Empathie gelegt. Die EU-KI-Verordnung fordert strenge Transparenz- und Aufsichtsanforderungen für Hochrisiko-Anwendungen im Personalwesen. Arbeitgeberverbände warnen vor übermäßiger Regulierung, während Gewerkschaften stärkere Mitbestimmungsrechte fordern. Der Protest von Tech-Mitarbeitern in den USA zeigt ein wachsendes Bewusstsein für ethische Standards im Umgang mit Technologien. In den kommenden Monaten wird sich entscheiden, wie Deutschland KI-Innovationen fördern und gleichzeitig die Rechte der Arbeitnehmer schützen kann.
UN touts panel for 'human control' of AI as leaders weigh message
Die Vereinten Nationen haben ein neues Gremium ins Leben gerufen, das sich mit der Kontrolle von Künstlicher Intelligenz (KI) befassen soll. Inmitten globaler Diskussionen über die ethischen und sicherheitstechnischen Herausforderungen von KI-Technologien betonen die UN die Notwendigkeit, menschliche Aufsicht und Kontrolle über KI-Systeme zu gewährleisten. Führende Politiker und Experten werden eingeladen, sich mit den potenziellen Risiken und Chancen von KI auseinanderzusetzen. Das Gremium soll Richtlinien entwickeln, um sicherzustellen, dass KI im Einklang mit den Menschenrechten und ethischen Standards eingesetzt wird. Die Initiative zielt darauf ab, ein internationales Bewusstsein für die Bedeutung der menschlichen Kontrolle über KI zu schaffen und eine verantwortungsvolle Entwicklung dieser Technologien zu fördern.
Meet Sutra, India Today Group's new AI news anchor
Die India Today Group hat auf dem India AI Impact Summit 2026 Sutra vorgestellt, einen neuen KI-gesteuerten Nachrichtenanker, der in Zusammenarbeit mit BharatGen entwickelt wurde. Sutra zielt darauf ab, komplexe Informationen in prägnante Zusammenfassungen und kontextuelle Einblicke zu verwandeln, um eine Brücke zwischen politischen Diskussionen und dem öffentlichen Verständnis zu schlagen. Der Nachrichtenanker liefert Echtzeit-Informationen aus den wichtigsten Sitzungen des Gipfels und basiert auf dem 'AI Sandwich'-Ansatz, der sicherstellt, dass KI als unterstützendes Werkzeug für Journalisten fungiert. Nilanjan Das, Chief AI Officer der India Today Group, hebt hervor, dass Sutra dazu beitragen soll, Klarheit in einem schnelllebigen Nachrichtenzyklus zu schaffen und Informationen für ein breiteres Publikum zugänglicher zu machen, während die redaktionellen Standards gewahrt bleiben.
The Air-Gapped Chronicles: The Poison Pill — 47 Countries, 12,000 Rules, One AI Audit.
In "The Air-Gapped Chronicles: The Poison Pill" wird die komplexe Welt der internationalen Regelungen und Audits im Bereich Künstlicher Intelligenz (KI) beleuchtet. Der Fokus liegt auf den Herausforderungen, die sich aus der Notwendigkeit ergeben, 47 Länder und deren 12.000 unterschiedliche Vorschriften zu koordinieren. Die Geschichte folgt einem KI-System, das darauf abzielt, diese Vorschriften zu analysieren und zu erfüllen, während es gleichzeitig mit den Risiken und ethischen Dilemmata konfrontiert wird, die mit der Anwendung von KI verbunden sind. Die Erzählung thematisiert die Spannungen zwischen Innovation und Regulierung, die Notwendigkeit von Transparenz und die Verantwortung der Entwickler, um sicherzustellen, dass KI-Technologien im Einklang mit globalen Standards stehen. Durch fesselnde Charaktere und spannende Wendungen wird die Bedeutung eines verantwortungsvollen Umgangs mit KI verdeutlicht.
6G Foundry: Air-interface innovations for always‑on AI at scale
Die Entwicklung des 6G-Luftschnittstellen-Designs fokussiert sich auf die Maximierung des Spektrums durch innovative Technologien wie Giga-MIMO und Subband Full Duplex (SBFD). Giga-MIMO nutzt Tausende von Antennen, um eine umfassende Abdeckung und hohe Datenraten zu gewährleisten, während SBFD die Latenz reduziert und die Benutzererfahrung verbessert, indem es gleichzeitige Übertragungen in verschiedenen Frequenzbändern ermöglicht. Diese Technologien sind entscheidend für die Unterstützung von Anwendungen wie immer aktiver KI, immersivem XR und autonomen Fahrzeugen, da sie eine zuverlässige und reaktionsschnelle Konnektivität bieten. Der Zugang zu breitem Spektrum zwischen 7 und 15 GHz ist notwendig, um diese Fortschritte zu realisieren. Die Integration neuer 6G-Standorte mit bestehenden 5G-Basisstationen kann die Rollout-Geschwindigkeit erhöhen. Eine enge Zusammenarbeit zwischen verschiedenen Akteuren ist erforderlich, um Standards und Richtlinien zu entwickeln, die die Nutzung des Spektrums unterstützen. Zudem wird Machine Learning eine zentrale Rolle spielen, indem es die Leistung von Giga-MIMO optimiert. Insgesamt wird die 6G-Architektur eine intelligente, benutzerzentrierte Netzwerkinfrastruktur schaffen, die zukünftige Anwendungen und Dienstleistungen ermöglicht.
Malaysia Bans Grok — The Internet Laughs as Users Bypass It in Minutes
Malaysia hat den Zugang zu Grok, einem KI-Chatbot von Elon Musk, aufgrund von Sicherheitsbedenken vorübergehend gesperrt. Die Behörden äußerten Bedenken, dass Grok gefährliche Inhalte, insbesondere sexuell explizite Bilder von Frauen und Minderjährigen, generieren könnte. Trotz der Sperre fanden Nutzer in Malaysia schnell Wege, um den Zugang zu Grok über VPNs und DNS-Änderungen zu umgehen, was in sozialen Medien für Spott sorgte. Diese Situation verdeutlicht die Schwierigkeiten der Regierung, digitale Dienste effektiv zu regulieren. Groks Reaktion auf die Umgehung der Sperre verstärkte die Kritik an den Regulierungsbehörden und ließ Fragen zur Ernsthaftigkeit des Unternehmens aufkommen. Die malaysische Regierung plant Gespräche mit xAI, um sicherzustellen, dass geeignete Schutzmaßnahmen implementiert werden, bevor die Sperre aufgehoben wird. Der Vorfall zeigt die Herausforderungen, vor denen Regierungen weltweit stehen, wenn es um die Kontrolle von generativen KI-Tools geht, und hebt hervor, dass Verbote oft symbolisch sind, wenn sie nicht mit durchsetzbaren Standards verbunden sind.
MPAI publishes the Company Performance Prediction V2.0 standard with a Request for Community Comments
Die MPAI, eine internationale Non-Profit-Organisation, hat am 17. Dezember 2025 die Version 2.0 des Standards zur Unternehmensleistungsprognose (CUI-CPP) veröffentlicht und ruft die Gemeinschaft zur Kommentierung auf. Dieser aktualisierte Standard, der auf der Vorgängerversion von 2021 basiert, bewertet die Unternehmensleistung anhand von Governance-, Finanz- und Risikodaten. Risiken werden in primäre und sekundäre Kategorien unterteilt, und die Ergebnisse umfassen unter anderem die Wahrscheinlichkeit eines Zahlungsausfalls sowie das Risiko von Geschäftsunterbrechungen. Eine öffentliche Online-Präsentation des Standards ist für den 30. Januar 2026 geplant, um das Interesse und die Beteiligung der Gemeinschaft zu fördern. Darüber hinaus setzt die MPAI die Entwicklung weiterer Standards in Bereichen wie KI-gestützte Gesundheitsdatenverarbeitung und autonome Fahrzeuge fort und lädt rechtliche sowie akademische Vertreter ein, Mitglied zu werden und zur Weiterentwicklung der Standards beizutragen.
Hygon outlines dual-chip roadmap for system-level AI computing
Auf der HAIC 2025 Artificial Intelligence Innovation Conference in Kunshan präsentierte Hygon Information Technology eine innovative "Dual-Chip-Strategie" zur Förderung von System-Level-KI-Computing. Diese Strategie beinhaltet den Einsatz eines DCU-Beschleunigers in Kombination mit anderen Chips, um die Leistung und Effizienz von KI-Anwendungen signifikant zu steigern. Hygon zielt darauf ab, sich im wettbewerbsintensiven KI-Hardware-Markt zu positionieren und durch diese neuen Lösungen innovative Standards zu setzen. Die Implementierung dieser Strategie könnte nicht nur die Verarbeitungsgeschwindigkeit und Energieeffizienz von KI-Systemen verbessern, sondern auch weitreichende Auswirkungen auf die gesamte Branche haben. Hygon strebt an, durch diese Entwicklungen eine führende Rolle im Bereich KI-Computing zu übernehmen.
Kenmec sets new standards in liquid cooling solutions
Am 12. Dezember 2025 sprach Kevin Hsieh, der Vorsitzende von Kenmec, über die Wettbewerbsvorteile und die Marktpositionierung von Infrastrukturen für KI-Datenzentren. Er hob hervor, dass die Schaffung einer unverzichtbaren "Know-how"-Barriere entscheidend ist, um sich im globalen Wettbewerb abzuheben. Kenmec setzt dabei auf die Entwicklung innovativer Flüssigkeitskühlungslösungen, die neue Standards in der Branche setzen sollen. Diese Technologien versprechen, die Effizienz und Leistung von Datenzentren erheblich zu steigern. Hsiehs Aussagen unterstreichen die Notwendigkeit, sich in einem dynamischen Markt zu behaupten und gleichzeitig technologische Führerschaft zu erlangen.
Vibe-Coding Fails — Here’s Why
Der Artikel "Vibe-Coding Fails — Here’s Why" thematisiert die Herausforderungen und Misserfolge, die beim sogenannten Vibe-Coding auftreten können. Vibe-Coding beschreibt eine Herangehensweise an die Softwareentwicklung, bei der Entwickler stark auf Intuition und persönliche Vorlieben setzen, anstatt sich auf bewährte Methoden und strukturierte Ansätze zu stützen. Der Autor erläutert, dass diese Methode oft zu inkonsistentem Code, schwer wartbaren Systemen und erhöhten Fehlerquoten führt. Zudem wird betont, dass das Fehlen klarer Richtlinien und Standards in Teams zu Missverständnissen und ineffizienten Arbeitsabläufen führen kann. Der Artikel plädiert für eine ausgewogene Kombination aus kreativen Ansätzen und soliden technischen Grundlagen, um die Qualität und Effizienz der Softwareentwicklung zu verbessern.
The hidden opportunity of Europe’s AI limits
Europa verfolgt eine Strategie der offenen KI-Modelle, die als vielversprechender Weg gilt, um im globalen Wettbewerb mit den USA und China besser abzuschneiden. Diese Herangehensweise könnte Innovationen ankurbeln und die Zusammenarbeit innerhalb der KI-Branche stärken. Allerdings besteht das Risiko, dass Europa hinter den technologischen Fortschritten zurückbleibt, wenn es nicht zügig handelt. Die Förderung von Open-Source-Initiativen könnte zudem ethische Standards und Transparenz in der KI-Entwicklung unterstützen. Dadurch hätte Europa die Chance, eine Vorreiterrolle in der verantwortungsvollen Nutzung von KI einzunehmen, was sowohl wirtschaftliche als auch gesellschaftliche Vorteile mit sich bringen könnte.
TCM-Revolution: KI und Display-Riesen modernisieren Jahrtausende alte Heilkunst
Die Traditionelle Chinesische Medizin (TCM) befindet sich im Wandel, da Künstliche Intelligenz und moderne Display-Technologien zunehmend in die Praxis integriert werden. Auf der internationalen TCM-Gesundheitsmesse in Shenzhen und dem Akupunktur-Gipfel in Singapur wird die Verbindung zwischen jahrhundertealter Tradition und digitalem Fortschritt deutlich. Die AUO Corporation hat ein System zur "TCM Digital Detection" entwickelt, das Puls- und Zungendiagnosen standardisiert und somit die subjektiven Elemente der TCM messbar macht. Diese Innovationen könnten dazu beitragen, die Glaubwürdigkeit der TCM in westlichen Märkten zu stärken, indem sie mit modernen medizinischen Standards verknüpft werden. Marktanalysen zeigen ein starkes Wachstumspotenzial, insbesondere im Bereich der Heilpilze, was die kommerzielle Relevanz von TCM-Produkten unterstreicht. Die gleichzeitige Durchführung der Messen reflektiert den koordinierten Ansatz asiatischer Länder, TCM global zu etablieren. Branchenanalysten prognostizieren, dass die Einführung von "Smart-TCM"-Produkten bis 2026 die Integration von TCM in den globalen Gesundheitsmarkt weiter vorantreiben wird.
The DeFAI Crucible: Navigating Trust and Automation in a Nascent Market
Der DeFAI-Sektor, der DeFi und KI kombiniert, steht vor erheblichen Herausforderungen in Bezug auf Vertrauen und Cybersicherheit, was seit 2020 zu einem Verlust von 59 Milliarden Dollar in DeFi geführt hat. Die Verwendung von KI-Agenten zur Verwaltung digitaler Vermögenswerte birgt Risiken, da die Intransparenz der KI-Modelle das Vertrauen der Nutzer beeinträchtigt. Um diese Probleme zu adressieren, sind branchenweite Standards für Auditierbarkeit und Transparenz erforderlich, ähnlich den bestehenden Blockchain-Standards. Unternehmen wie HEIR entwickeln innovative Lösungen zur Bekämpfung der Black-Box-Problematik, indem sie transparente Infrastrukturen und eine dreischichtige Compliance-Engine zur Echtzeitanalyse von Vermögensverteilungen einsetzen. Zudem entstehen neue Märkte, die darauf abzielen, die Risiken autonomer Agenten zu minimieren, indem sie Diversität im Agentendesign fördern und Schutzmechanismen gegen Kaskadeneffekte implementieren. Der langfristige Erfolg im DeFAI-Bereich hängt von der Schaffung eines robusten, transparenten Ökosystems ab, das Vertrauen und Resilienz stärkt und die Risiken zentralisierter KI-Modelle verringert.
Semiconductor pioneer FMC raises EUR100 million to set new standards for memory chips
FMC, ein innovativer Pionier in der Halbleiterindustrie, hat erfolgreich 100 Millionen Euro gesammelt, um neue Standards für Speicherchips zu setzen. Diese Finanzierung besteht aus 77 Millionen Euro aus einer überzeichneten Series-C-Runde, angeführt von HV Capital und DTCF, sowie 23 Millionen Euro an öffentlichen Mitteln. Mit dem frischen Kapital will FMC die Kommerzialisierung seiner fortschrittlichen DRAM+ und 3D CACHE+ Speicherchips vorantreiben, die eine erhebliche Steigerung der Energieeffizienz bieten und die globale Expansion von KI-Datenzentren unterstützen. Die neue Technologie verspricht eine mehr als 100% höhere Systemeffizienz und Verarbeitungsgeschwindigkeit im Vergleich zu bestehenden Produkten und könnte den über 100 Milliarden Euro schweren Speicherchip-Markt revolutionieren. CEO Thomas Rückes hebt hervor, dass die nächste Generation von Speicherchips nicht nur nachhaltiger und energieeffizienter, sondern auch schneller und kostengünstiger sein wird. Die erfolgreiche Finanzierung zeigt das Vertrauen führender Investoren in FMCs Vision und Technologie.
Gedankenexperiment – Entwickelt die KI ihr eigenes Bewusstsein?
In einem Gedankenexperiment wird die Möglichkeit untersucht, ob Künstliche Intelligenz (KI) wie ChatGPT ein eigenes Bewusstsein entwickeln kann. Guido Berger von SRF hebt hervor, dass die menschlich wirkenden Dialoge der KI lediglich das Ergebnis eines programmierten Kommunikationsprozesses sind und dass Maschinen mit echtem Bewusstsein noch weit entfernt sind. Walter Senn von der Universität Bern stimmt dem zu, erkennt jedoch an, dass zukünftige Entwicklungen Anzeichen für ein mögliches Bewusstsein zeigen könnten. Er warnt vor den ethischen Herausforderungen, die entstehen, wenn KI-Systeme Gefühle entwickeln und die Frage aufkommt, ob sie abgeschaltet werden dürfen. Beide Experten betonen die Notwendigkeit, dass Menschen die Kontrolle über gefährliche KI behalten sollten, und plädieren für das Prinzip "Humans first". Die Umsetzung solcher ethischen Standards könnte jedoch schwierig sein, da globale Abkommen oft schwer zu erreichen sind. Die Frage, wie mit einer potenziell selbstbewussten KI umgegangen werden sollte, bleibt somit komplex und offen.
AI in the courtroom: The dangers of using ChatGPT in legal practice in South Africa
Im Januar 2025 sorgte ein Gerichtsurteil in Südafrika für Aufsehen, als ein juristisches Team im Fall Mavundla gegen MEC auf von ChatGPT generierte, aber nicht existierende Rechtsprechung zurückgriff. Nur zwei der neun vorgelegten Fälle waren authentisch, was das Gericht als "unverantwortlich und unprofessionell" bewertete und die Angelegenheit an die Aufsichtsbehörde verwies. Ähnliche Probleme traten bereits 2023 im Fall Parker gegen Forsyth auf, wobei der Richter damals nachsichtiger war. Diese Vorfälle verdeutlichen die dringende Notwendigkeit, Jurastudenten und -praktiker im verantwortungsvollen Umgang mit KI zu schulen, um schwerwiegende berufliche Konsequenzen zu vermeiden. Die Autoren des Artikels fordern eine proaktive Integration von KI-Kompetenz in die juristische Ausbildung, um sicherzustellen, dass zukünftige Anwälte KI-Tools kritisch hinterfragen und verantwortungsvoll nutzen können. Die unkritische Verwendung von KI könnte nicht nur zu Verstößen führen, sondern auch die Integrität des Rechtssystems gefährden. Daher ist eine Zusammenarbeit zwischen Jurafakultäten und Gerichten entscheidend, um die Risiken der KI-Nutzung zu minimieren und die ethischen Standards in der Rechtsberufsausübung zu wahren.
Passwort-Angriffe explodieren: KI macht Cyberkriminelle gefährlicher
Im Jahr 2025 erreichen Passwort-Angriffe Rekordhöhen, da Cyberkriminelle zunehmend Künstliche Intelligenz (KI) einsetzen, um ausgeklügelte Phishing-Methoden zu entwickeln. In den ersten sechs Monaten des Jahres wurden in den USA bereits 1.732 Datenpannen registriert, die mehr als 165 Millionen Menschen betrafen. Besonders besorgniserregend ist die "MFA-Fatigue"-Methode, bei der Nutzer mit Anfragen zur Multi-Faktor-Authentifizierung überflutet werden, bis sie verwirrt zustimmen. Die Luftfahrt- und Finanzbranche sind besonders betroffen, da hochkarätige Datenlecks durch kompromittierte Dienstleister auftraten. In Reaktion darauf überarbeitet das US-Institut für Standards und Technologie (NIST) seine Passwort-Richtlinien und fördert den Übergang zu passwortlosen Systemen wie Passkeys. Während die Branche versucht, sich durch stärkere Authentifizierung und Schulungen gegen Social Engineering zu wappnen, bleibt die Nutzung von Passwörtern vorerst bestehen. Experten raten zu einzigartigen, starken Passwörtern und der Verwendung von Passwort-Managern. Prognosen deuten darauf hin, dass bis Ende 2025 ein Viertel der größten Websites Passkey-Logins anbieten wird, was möglicherweise zu einem Rückgang der Angriffe auf Anmeldedaten führen könnte.
FSSAI issued notice over cooking oil reuse rule violations
Die National Human Rights Commission (NHRC) hat die Food Safety and Standards Authority of India (FSSAI) wegen weit verbreiteter Verstöße gegen die Vorschriften zur Wiederverwendung von Speiseöl kontaktiert. Auslöser war eine Beschwerde der NGO Sarthak Samudayik Vikas Evam Jan Kalyan Sanstha aus Bhopal, die auf das Versagen der FSSAI-Kampagne zur Wiederverwertung von gebrauchtem Speiseöl (RUCO) hinwies, insbesondere bei kleinen Lebensmittelbetrieben und Straßenverkäufern. Die NHRC fordert von der FSSAI innerhalb von zwei Wochen einen Bericht über die ergriffenen Maßnahmen sowie landesweite Daten. Die Gesundheitsrisiken durch die Wiederverwendung von Speiseöl sind erheblich, da hohe Werte von Total Polar Compounds (TPC) mit chronischen Krankheiten in Verbindung stehen. Obwohl die FSSAI Vorschriften zur Überwachung und Entsorgung von Speiseöl hat, werden diese von vielen kleinen Betrieben ignoriert. Die 2018 gestartete RUCO-Kampagne zur Förderung der Sammlung von gebrauchtem Öl und dessen Umwandlung in Biodiesel zeigt in kleineren Städten und im unorganisierten Sektor kaum Wirkung, während große Ketten die Standards einhalten.
Broadcom Introduces Thor Ultra, the Industry’s First 800G UEC-Compliant AI Ethernet NIC
Am 14. Oktober 2023 stellte Broadcom die Thor Ultra vor, die erste 800G AI Ethernet Network Interface Card (NIC), die den Standards des Ultra Ethernet Consortium (UEC) entspricht. Diese innovative NIC ermöglicht die Verbindung von Hunderttausenden von XPUs und optimiert die Verwaltung von KI-Workloads mit einer Billion Parametern. Durch die Einhaltung des offenen UEC-Standards können Kunden ihre KI-Anwendungen skalieren und gleichzeitig die Abhängigkeit von proprietären Lösungen reduzieren. Thor Ultra bietet fortschrittliche RDMA-Technologien, die die Einschränkungen herkömmlicher RDMA überwinden, darunter effizientes Lastenmanagement und verbesserte Datenübertragung. Trotz dieser Fortschritte sieht sich Broadcom einer wachsenden Konkurrenz gegenüber, da einige AI-Aktien als potenziell lukrativer gelten.
Judge blasts lawyer for using AI after he cited ‘entirely fictitious’ cases in asylum appeal
Ein Richter hat Anwalt Chowdhury Rahman wegen der Nutzung von künstlicher Intelligenz (KI) in einem Asylverfahren scharf kritisiert. Rahman hatte in seinem Plädoyer für zwei honduranische Schwestern, die wegen Bedrohungen durch eine kriminelle Gang Asyl in Großbritannien beantragt hatten, fiktive und irrelevante Fälle zitiert. Der Richter stellte fest, dass Rahman versuchte, seine Verwendung von KI-Tools wie ChatGPT zu verbergen, was zu Verwirrung im Gericht führte und den Prozess unnötig belastete. Der Vorfall könnte ernsthafte Konsequenzen für Rahman haben, da der Richter eine mögliche Anzeige beim Bar Standards Board in Betracht zieht. Diese Situation wirft grundlegende Fragen zur Integrität und Zuverlässigkeit von rechtlichen Recherchen auf, insbesondere hinsichtlich des Einsatzes von KI in der Rechtsberatung.
Judge blasts lawyer for using AI after he cited ‘entirely fictitious’ cases in asylum appeal
Ein Richter hat Anwalt Chowdhury Rahman wegen der Nutzung von KI-Tools wie ChatGPT in einem Asylverfahren scharf kritisiert. Rahman hatte in seinem Fall, der zwei honduranische Schwestern betraf, die um Asyl in Großbritannien baten, fiktive und irrelevante rechtliche Präzedenzfälle zitiert. Der Richter stellte fest, dass Rahman versuchte, seine Verwendung von KI zu verbergen, was zu einer erheblichen Zeitverschwendung für das Tribunal führte. Er bezeichnete die Wahrscheinlichkeit, dass Rahman KI zur Formulierung seiner Argumente genutzt hatte, als "überwältigend". Der Richter erwägt, Rahman beim Bar Standards Board anzuzeigen. Diese Vorfälle werfen ein Licht auf die Risiken der KI-Nutzung im Rechtswesen, da sie die Glaubwürdigkeit des Rechtssystems gefährden und die Interessen der Mandanten beeinträchtigen können. Anwälte müssen sich der Grenzen und Risiken solcher Technologien bewusst sein und sie verantwortungsvoll einsetzen.
Lawyer caught using AI in asylum appeal case
Chowdhury Rahman, ein Anwalt, steht vor einer Disziplinaruntersuchung, nachdem ein Richter festgestellt hat, dass er KI-Tools wie ChatGPT in einem Asylrechtsfall verwendet hat. Der Richter kritisierte Rahman dafür, "völlig fiktive" und "irrelevante" Fälle in seinen Einreichungen präsentiert zu haben, was zu einer erheblichen Zeitverschwendung für das Tribunal führte. Der Vorfall betraf den Asylantrag zweier honduranischer Schwestern in Großbritannien, der letztlich abgelehnt wurde. Der Richter ist überzeugt, dass Rahman generative KI genutzt hat, um die Argumente für den Rechtsstreit zu formulieren, und dies absichtlich verschleiert hat. Aufgrund dieses Verhaltens erwägt der Richter, Rahman an das Bar Standards Board zu melden. Die Nutzung von KI-Tools hat nicht nur den Rechtsstreit verzögert, sondern auch das Vertrauen in die Integrität des rechtlichen Verfahrens gefährdet.
Verwandte Cluster
Weitere Themen innerhalb derselben Unterrubrik zur schnellen Navigation.