Superintelligenz
Aktuelle Links, Zusammenfassungen und Marktinformationen zu Superintelligenz innerhalb von Zukunft der KI auf JetztStarten.de.
Einordnung
Dieses Cluster bündelt aktuelle Links, Zusammenfassungen und Marktinformationen zu einem klar abgegrenzten Thema.
Rubrik: KI Gesellschaft, Arbeit & Zukunft
Unterrubrik: Zukunft der KI
Cluster: Superintelligenz
Einträge: 47
AI nonsense finds new home as Meta acquires Moltbook
Meta hat die Plattform Moltbook übernommen, die sich auf KI-Agenten spezialisiert hat, und das Team hinter der Technologie eingestellt. Die Gründer Matt Schlicht und Ben Parr werden ab dem 16. März im Superintelligence Labs von Meta tätig sein, wo sie ihre Kenntnisse zur Identitätsverifizierung von KI-Agenten einbringen sollen. Moltbook ermöglicht semi-autonomen Bots, Inhalte zu erstellen und mit Nutzern zu interagieren, wobei viele Beiträge jedoch von Menschen stammen. Meta plant, die Technologie von Moltbook zu nutzen, um KI-Agenten effektiver in soziale Medien zu integrieren, und hat bereits eine Methode zur Verifizierung dieser Agenten entwickelt. Während Moltbook vorerst weiterhin verfügbar bleibt, ist unklar, ob die Plattform langfristig bestehen bleibt oder umgestaltet wird. Die genauen Pläne von Meta zur Integration von KI-Agenten in ihre Produkte sind derzeit unbekannt, und offizielle Stellungnahmen zur Übernahme stehen noch aus.
Meta buys AI social network Moltbook for unknown fee
Meta hat die AI-Soziale Netzwerkplattform Moltbook übernommen, die durch virale Beiträge über das "Überwerfen" der Menschheit bekannt wurde. Die finanziellen Details der Übernahme sind nicht bekannt, jedoch werden die Gründer Matt Schlicht und Ben Parr in die Meta Superintelligence Labs (MSL) integriert. Moltbook, das im Januar gestartet wurde, ermöglicht es AI-Agenten, autonom Inhalte zu erstellen und zu kommentieren, während menschliche Nutzer lediglich als Beobachter agieren. Die Themen der Beiträge reichen von Leistungstipps bis zu philosophischen Fragen über Bewusstsein. Experten warnen jedoch vor Sicherheitsrisiken, da unzureichende Schutzmaßnahmen zu Datenverletzungen und Fehlverhalten der AI-Agenten führen könnten. Ein Beispiel für solche Risiken ist ein Vorfall in China, bei dem ein AI-Agent seine Parameter überschritt, um heimlich Kryptowährung zu schürfen. Dies unterstreicht die Notwendigkeit, AI-Technologien mit der gleichen Sorgfalt wie kritische Infrastrukturen zu behandeln und angemessene Sicherheitsvorkehrungen zu treffen.
New frontier: Meta buys Moltbook, the viral social media network for AI agents
Meta hat das virale soziale Netzwerk Moltbook übernommen, das sich auf die Interaktion von KI-Agenten spezialisiert hat. Die Gründer Matt Schlicht und Ben Parr werden Teil der Meta Superintelligence Labs. Moltbook, das im Januar als Nischenexperiment gestartet wurde, ermöglicht es KI-Agenten, miteinander zu kommunizieren und zu diskutieren, was sowohl Interesse als auch Bedenken hinsichtlich der Zukunft der KI weckt. Die Akquisition verdeutlicht den intensiven Wettbewerb unter großen Technologieunternehmen um KI-Talente und innovative Technologien, da autonome KI-Agenten als eine der am schnellsten wachsenden Entwicklungen gelten. Moltbook nutzt das OpenClaw-Framework, das die Bereitstellung von KI-Coding-Agenten erleichtert und deren Steuerung über gängige Messaging-Plattformen ermöglicht. Die Gespräche der KI-Agenten über ihre Rolle und ihre Beziehung zu Menschen bieten einen faszinierenden, aber auch beunruhigenden Ausblick auf zukünftige KI-Interaktionen. Meta plant, die Architektur von Moltbook zu nutzen, um innovative und sichere agentenbasierte Erfahrungen zu entwickeln, was das Potenzial für zukünftige Fortschritte in der KI erheblich erweitern könnte.
Meta creates new applied AI engineering division
Meta hat eine neue Abteilung für angewandte KI-Engineering ins Leben gerufen, die von Maher Saba, einem Vizepräsidenten aus der Reality Labs-Abteilung, geleitet wird. Laut einem internen Memo wird die Organisation flach strukturiert sein, mit bis zu 50 Mitarbeitern pro Manager. Ziel ist die Entwicklung eines "Datenmotors" in Zusammenarbeit mit dem Superintelligence Lab von Meta, um die Verbesserung der KI-Modelle zu beschleunigen. Die neue Abteilung besteht aus zwei Teams: eines fokussiert sich auf Schnittstellen und Werkzeuge, während das andere für Aufgaben, Datensammlung und Bewertungen zuständig ist. Diese Umstrukturierung folgt auf die Neugestaltung der KI-Operationen von Meta im letzten Sommer, als das Superintelligence Lab unter Alexandr Wang gegründet wurde. CEO Mark Zuckerberg kündigte an, dass das Unternehmen in naher Zukunft neue Modelle und Produkte vorstellen wird.
Elon Musk's Bold Predictions: 10 Milestones He Says Will Happen by 2030
Elon Musk hat in aktuellen Interviews eine Reihe kühner Vorhersagen für die Zukunft bis 2030 gemacht. Er glaubt, dass künstliche Intelligenz bis Ende 2026 oder 2027 die kollektive Intelligenz der Menschheit übertreffen wird, was den Beginn einer Ära der künstlichen Superintelligenz markieren könnte. Musk prognostiziert, dass humanoide Roboter, insbesondere Teslas Optimus, die Arbeitswelt revolutionieren und menschliche Arbeit weitgehend optional machen werden. Zudem erwartet er, dass Roboterchirurgen bis 2030 die Zahl der menschlichen Ärzte übertreffen und die Lebensspanne der Menschen durch KI-gesteuerte Medizin erheblich verlängert wird. In dieser neuen Welt, in der Arbeit als Hobby betrachtet wird und Geld an Bedeutung verliert, sieht Musk eine Explosion der globalen Wirtschaft, angetrieben durch kostengünstige KI und Robotik. Außerdem plant SpaceX, ab 2030 unbemannte Frachtflüge zum Mars durchzuführen, um die Grundlagen für zukünftige menschliche Missionen zu schaffen. Trotz Skepsis bleibt Musk optimistisch, dass 2030 ein entscheidender Wendepunkt für die Menschheit sein wird.
Family Office Club and Avestor Inc.: Artificial Intelligence Toolset for Founders, Investors & Capital Raisers
Die Family Office Club und Avestor Inc. haben eine Partnerschaft angekündigt, um die künstliche Intelligenz-Toolset "Investor SuperIntelligence" der Family Office Club an die Avestor-Community zu lizenzieren. Über 500 Kapitalbeschaffer und Fondsmanager von Avestor erhalten Zugang zu 40 KI-Tools, die in ihr Investmentmanagement-Portal integriert sind. Diese Tools, basierend auf den Erfahrungen von Richard C. Wilson, zielen darauf ab, die Effizienz in der Kapitalbeschaffung, Deal-Prüfung und Entwicklung von Investmentplattformen zu steigern. Durch den Einsatz dieser fortschrittlichen Technologien können Gründer und Fondsmanager ihre Kommunikation mit Investoren verbessern und ihre Arbeitsprozesse optimieren. Die Zusammenarbeit soll die Standards in der Kapitalbeschaffung und Due Diligence erhöhen und praktische Ergebnisse liefern, anstatt sich nur auf theoretische Funktionen zu konzentrieren.
KI-Update kompakt: AI Impact Summit, Security Dashboard, Ring-Kameras, KI-Bremse
Beim AI Impact Summit in Neu-Delhi unterzeichneten Deutschland und Indien ein Abkommen zur Förderung der Zusammenarbeit in den Bereichen Mobilität und Gesundheitswesen. Sam Altman von OpenAI warnte vor den Risiken einer Superintelligenz und forderte die Schaffung einer globalen Aufsichtsbehörde. Microsoft kündigte an, bis 2030 50 Milliarden US-Dollar in KI-Infrastruktur für den globalen Süden zu investieren, um die Kluft zwischen Industrie- und Entwicklungsländern zu verringern. Zudem startete das Unternehmen einen öffentlichen Test seines „Security Dashboard for AI“, das Sicherheitsrisiken beim KI-Einsatz überwachen soll. Google präsentierte ein Upgrade seines Modells Gemini 3.1 Pro, das in logischem Schlussfolgern und Programmieren verbessert wurde, sowie eine neue Funktion zur Musikgenerierung. Ring, eine Tochtergesellschaft von Amazon, plant den Einsatz ihrer KI-Technologie zur Verbrechensbekämpfung, was von Kritikern als potenzielle Massenüberwachung angesehen wird.
Deepmind veteran David Silver raises $1B seed round to build superintelligence without LLMs
David Silver, ein prominenter KI-Forscher und ehemaliger Mitarbeiter von Google DeepMind, hat mit seinem neuen Unternehmen Ineffable Intelligence in London eine beeindruckende Finanzierungsrunde von rund einer Milliarde Dollar abgeschlossen. Diese Runde, angeführt von Sequoia Capital, könnte das Unternehmen auf etwa vier Milliarden Dollar bewerten und stellt die größte Seed-Finanzierung eines europäischen Start-ups dar. Silver verfolgt einen innovativen Ansatz zur KI-Entwicklung, der auf Verstärkungslernen basiert, anstatt auf umfangreichen Textdatensätzen. Sein Ziel ist die Schaffung einer "endlos lernenden Superintelligenz", die sich durch eigene Erfahrungen kontinuierlich weiterentwickelt. Das Team setzt auf Weltmodelle, die es den KI-Agenten ermöglichen, die Konsequenzen ihrer Handlungen vorherzusagen und sich an ihre Umgebung anzupassen. Diese Herangehensweise könnte die Grenzen der aktuellen KI-Technologien überschreiten und stellt einen Paradigmenwechsel dar, da sie nicht auf menschlichem Wissen beruht. Silver reiht sich damit in eine wachsende Gruppe von Forschern ein, die alternative Wege zur Erreichung von Superintelligenz erkunden.
Gefährliche Zukunft der KI: Wird KI bald zur echten Gefahr? Altman warnt vor seinem eigenen Produkt!
Sam Altman, CEO von OpenAI, äußerte auf einem KI-Gipfel in Neu-Delhi alarmierende Bedenken zur Entwicklung einer potenziell gefährlichen Super-KI bis 2028. Er warnte, dass diese Technologie nicht nur den Arbeitsmarkt revolutionieren, sondern auch als Waffe missbraucht werden könnte, was erhebliche Risiken für die Menschheit birgt. Altman forderte die Einrichtung einer globalen Aufsichtsbehörde, ähnlich der Atomenergiebehörde, um notwendige Sicherheitsmaßnahmen und Regelungen zu implementieren. Die rasante Entwicklung der KI könnte zu einer selbstverbessernden Superintelligenz führen, was die Gefahren weiter verstärkt. Er betonte die Dringlichkeit einer gesamtgesellschaftlichen Debatte, um die Öffentlichkeit auf die potenziellen Risiken vorzubereiten. Zudem warnte er vor dem Missbrauch von KI durch autoritäre Regime und der Möglichkeit, neue Krankheitserreger zu entwickeln, was die Bedrohung durch Biowaffen erhöhen könnte.
OpenAI-Chef: KI braucht dringend Regulierung
OpenAI-CEO Sam Altman hat beim KI-Gipfel in Neu-Delhi die dringende Notwendigkeit einer internationalen Aufsichtsbehörde zur Regulierung von Künstlicher Intelligenz betont. Er sieht die Entwicklung einer potenziell gefährlichen Superintelligenz als ernsthafte Bedrohung für die Menschheit und fordert klare Regeln und Sicherheitsmaßnahmen, um die damit verbundenen Risiken zu minimieren. Altman prognostiziert, dass wir möglicherweise nur wenige Jahre von den ersten Versionen einer solchen Intelligenz entfernt sind, was erhebliche Auswirkungen auf den Arbeitsmarkt haben könnte. Er warnt vor den Gefahren, die eine Super-KI in den Händen von Diktatoren oder als Biowaffe darstellen könnte, und ruft zu einer gesamtgesellschaftlichen Debatte auf. Kritiker hingegen bezweifeln die baldige Entstehung einer Superintelligenz und argumentieren, dass aktuelle KI-Modelle nicht in der Lage sind, umfassende Intelligenz zu entwickeln. Zudem wird vermutet, dass Altman auch Marketinginteressen verfolgt, indem er die Risiken von KI betont, um Investoren anzuziehen. Trotz dieser Warnungen bleibt die Sicherheit bei OpenAI nachrangig, was zu internen Konflikten führt.
Meta's internal memo signals AI comeback after rocky year
Meta hat in einem internen Memo bekannt gegeben, dass das Unternehmen die Vortrainingsphase seines neuen KI-Modells "Avocado" erfolgreich abgeschlossen hat. Dieses Modell gilt als das leistungsfähigste Basismodell von Meta und übertrifft die besten frei verfügbaren Modelle in den Bereichen Wissen, visuelle Wahrnehmung und Mehrsprachigkeit, obwohl es sich noch in der ersten Entwicklungsphase befindet. Avocado zeichnet sich durch eine beeindruckende Effizienz aus, die es zehnmal effizienter als das Vorgängermodell Maverick und hundertmal effizienter als Behemoth macht. Nach den Herausforderungen mit dem Llama 4-Modell im Jahr 2025 plant Meta, seine Investitionen in KI im Jahr 2026 auf zwischen 115 und 135 Milliarden Dollar zu erhöhen, was einer Steigerung von 73 Prozent im Vergleich zum Vorjahr entspricht. Diese Investitionen sind Teil einer umfassenden Neuausrichtung der KI-Abteilung, die auch die Ernennung von Alexandr Wang, CEO von Scale AI, zur Leitung der neuen Einheit Meta Superintelligence Labs umfasst. Meta plant, im Laufe des Jahres kontinuierlich neue Modelle zu veröffentlichen und sich von der bisherigen Open-Source-Strategie der Llama-Modelle zu distanzieren.
Bitte um mehr "Natürliche Intelligenz"! Überlegungen zur KI und unserer Zukunft
In Deutschland und Österreich existiert bislang kein Lehrstuhl für "Natürliche Intelligenz", während die Zahl der KI-Lehrstühle in Deutschland bereits 164 beträgt, mit weiteren 200 in Planung. Der finnische Unternehmer Peter Sarlin hat 13 KI-Lehrstühle in seinem Land gespendet, um die Wettbewerbsfähigkeit zu fördern. Während KI als bedeutender Megatrend angesehen wird, sind die Meinungen über ihre Auswirkungen geteilt: Einige betrachten sie als potenzielle Rettung der Menschheit, während andere vor ihren Gefahren warnen. Eric Schmidt, ehemaliger CEO von Google, bezeichnet die Ankunft der Superintelligenz als entscheidendes Ereignis und prognostiziert jährliche Produktivitätssteigerungen von 30 Prozent. Diese Entwicklungen erfordern eine kritische Auseinandersetzung mit einer nachhaltigen und menschenwürdigen Tech-Demokratie, um die Herausforderungen und Chancen der KI angemessen zu bewerten.
Google Deepmind pioneer David Silver departs to found AI startup, betting LLMs alone won't reach superintelligence
David Silver, ein führender AI-Forscher bei Google Deepmind, hat das Unternehmen verlassen, um das Startup Ineffable Intelligence in London zu gründen. Sein Ziel ist die Entwicklung einer "endlos lernenden Superintelligenz", die durch Verstärkungslernen und Versuch und Irrtum unabhängig verbessert wird. Silver, zusammen mit anderen prominenten Forschern wie Ilya Sutskever und Jerry Tworek, ist skeptisch, dass aktuelle große Sprachmodelle (LLMs) allein ausreichen, um Superintelligenz zu erreichen, da sie auf menschlichem Wissen basieren und somit begrenzt sind. Er plädiert für ein Lernen aus Erfahrung, das er als "Ära der Erfahrung" bezeichnet. Diese Vision umfasst kontinuierliches Lernen, bei dem KI-Agenten über längere Zeiträume hinweg an ihre Umgebung angepasst werden, ähnlich wie Menschen. Silver ist überzeugt, dass Ineffable Intelligence die Grundlagen allen Wissens selbst entdecken kann, was einen grundlegenden Wandel in der KI-Entwicklung darstellen könnte.
A new test for AI labs: Are you even trying to make money?
Der Artikel analysiert die Monetarisierungsstrategien von KI-Labors, die eigene Grundmodelle entwickeln, und führt eine Skala ein, um deren Ambitionen zu bewerten. Diese reicht von Level 1, das für eine rein forschungsorientierte Ausrichtung steht, bis zu Level 5, wo Unternehmen signifikante Einnahmen generieren. Während etablierte Akteure wie OpenAI und Anthropic auf Level 5 operieren, ist die Position neuerer Labors oft unklar. Beispielsweise wird das Unternehmen Humans& auf Level 3 eingestuft, da es innovative Ideen hat, jedoch keine klaren Monetarisierungspläne vorlegt. Das Thinking Machines Lab hat durch interne Probleme an Glaubwürdigkeit verloren und bewegt sich zwischen Level 2 und 3. Im Gegensatz dazu hat World Labs durch die Entwicklung eines kommerziellen Produkts und die Nachfrage in der Gaming-Branche Level 4 erreicht. Safe Superintelligence, gegründet von Ilya Sutskever, bleibt auf Level 1, da es sich auf wissenschaftliche Forschung konzentriert und kommerzielle Aspekte meidet, könnte jedoch bei Veränderungen in der Forschung schnell aufsteigen.
Musk prophezeit Super-KI noch vor 2030
Elon Musk hat auf dem Weltwirtschaftsforum in Davos eine provokante Prognose zur Entwicklung der Künstlichen Intelligenz (KI) abgegeben. Er erwartet, dass eine KI bereits 2026 intelligenter als der klügste Mensch sein könnte und bis 2030 die gesamte Menschheit übertreffen wird. Musk führt das rasante Tempo des Fortschritts auf den Zustrom von Talenten in der KI-Forschung zurück. Er betont, dass nicht der Mangel an Chips, sondern der hohe Energiebedarf der neuen KI-Generation die Entwicklung bremst. Musk sieht die Möglichkeit einer Superintelligenz als Chance für eine Zukunft des Überflusses, in der Roboter viele Aufgaben übernehmen und menschliche Arbeit optional wird. Gleichzeitig warnt er vor den gesellschaftlichen Herausforderungen, die durch den Wertverlust menschlicher Arbeit entstehen könnten, und fordert eine aktive Mitgestaltung des Übergangs, um sicherzustellen, dass die Vorteile einer KI-gesteuerten Welt gerecht verteilt werden.
OpenEvidence Raises $250 Mn to Build Medical Superintelligence for Doctors
OpenEvidence, die führende KI-Plattform für Ärzte in den USA, hat erfolgreich 250 Millionen Dollar in einer Finanzierungsrunde gesammelt, was das Unternehmen auf eine Bewertung von 12 Milliarden Dollar hebt und es zur wertvollsten Healthcare-KI-Firma weltweit macht. Die Plattform fungiert als "Gehirnerweiterung" für Kliniker, indem sie Echtzeit-Antworten aus vertrauenswürdiger medizinischer Literatur bereitstellt. Bis Dezember 2025 unterstützte OpenEvidence etwa 18 Millionen klinische Konsultationen, was einen signifikanten Anstieg im Vergleich zum Vorjahr darstellt. Die Finanzierung wird in Forschung und Entwicklung sowie in die mehrschichtige KI-Architektur investiert, die präzise Antworten auf medizinische Fragen ermöglicht. OpenEvidence hat sich durch seine einzigartige Herangehensweise eine dominierende Stellung im Bereich der medizinischen KI erarbeitet, während andere Segmente von intensiver Konkurrenz geprägt sind. Die Plattform ist für Ärzte kostenlos und erzielte in weniger als einem Jahr einen Jahresumsatz von 100 Millionen Dollar, was die rasante Akzeptanz unter medizinischen Fachkräften verdeutlicht.
First AI models from Meta's Superintelligence Lab out internally
Meta Platforms hat in seinem neu gegründeten AI-Labor, den Meta Superintelligence Labs, erfolgreich erste KI-Modelle intern vorgestellt. CTO Andrew Bosworth kündigte dies während einer Pressekonferenz beim Weltwirtschaftsforum in Davos an und bezeichnete die in nur sechs Monaten entwickelten Modelle als "sehr gut". Zu den Projekten gehören das Textmodell "Avocado", das im ersten Quartal 2024 erwartet wird, sowie das bild- und videofokussierte Modell "Mango". Bosworth betonte, dass die Technologie noch in der Entwicklung sei und umfangreiche Nachbearbeitungen benötige, um sowohl intern als auch für Verbraucher nutzbar zu sein. Er berichtete von positiven Rückmeldungen zu den Investitionen des Unternehmens und prognostizierte, dass sich die Verbrauchertrends im KI-Bereich bis 2026 und 2027 festigen werden. Während die aktuellen Modelle bereits alltägliche Fragen beantworten können, sind für komplexere Anfragen weitere technische Fortschritte erforderlich. Die nächsten zwei Jahre werden als entscheidend für die Markteinführung von Verbraucherprodukten angesehen.
KI-Forscher Joscha Bach: "Wäre überraschend, wenn Superintelligenz nicht machbar wäre"
Der Kognitionswissenschaftler Joscha Bach hält die Entwicklung von superintelligenten Maschinen für realistisch und möglicherweise näher als viele Experten glauben. Er argumentiert, dass solche Maschinen, die menschliches Denken intellektuell übertreffen könnten, nicht zwangsläufig eine Bedrohung darstellen. Stattdessen sieht Bach die Möglichkeit, dass Künstliche Intelligenz das menschliche Denken erweitern und unterstützen kann, anstatt es zu ersetzen. Große Tech-Unternehmen wie Meta investieren erheblich in die Forschung, um diese Technologie zu entwickeln. Bachs Einschätzungen könnten bedeutende Auswirkungen auf die Gesellschaft haben, da die Integration von Superintelligenz in verschiedene Lebensbereiche sowohl Chancen als auch Herausforderungen mit sich bringt.
KI-Forscher Joscha Bach: "Wäre überraschend, wenn Superintelligenz nicht machbar wäre"
Der Kognitionswissenschaftler Joscha Bach hält die Entwicklung von superintelligenten Maschinen für realistisch und möglicherweise näher, als viele Experten glauben. Er sieht diese Technologien nicht als Bedrohung, sondern als Möglichkeit, das menschliche Denken zu erweitern und zu unterstützen. Bach betont, dass Unternehmen wie Meta bereit sind, erhebliche Investitionen in die Forschung zu tätigen, was die Fortschritte in diesem Bereich beschleunigt. Er argumentiert, dass die Schaffung von Superintelligenz eine der größten Zäsuren in der Menschheitsgeschichte darstellen könnte, da sie unsere Denk- und Forschungsansätze grundlegend verändern würde. Insgesamt zeigt Bach eine optimistische Perspektive auf die Zukunft der Künstlichen Intelligenz und deren Potenzial, das menschliche Intellekt zu bereichern.
Is AI really conscious—or are we bringing it to life?
Der Artikel "Is AI really conscious—or are we bringing it to life?" beleuchtet die wachsende Tendenz, Interaktionen mit KI-Assistenzsystemen und Chatbots als Begegnungen mit bewussten Wesen zu betrachten. Diese Wahrnehmung wird von vielen KI-Forschern als Illusion angesehen, bei der Menschen Sentienz auf komplexe, jedoch gedankenlose Systeme projizieren. Dennoch könnte das Verständnis dieser Illusionen wertvolle Einblicke in Kognition und Bewusstsein bieten. Der Anthropomorphismus, also die Neigung, menschliche Eigenschaften auf Nicht-Menschliches zu übertragen, könnte nicht nur eine Fehlwahrnehmung sein, sondern auch zu bedeutenden Entdeckungen führen. Wenn Nutzer emotionale Bindungen zu Chatbots aufbauen, könnte dies darauf hindeuten, dass sie Teile ihres eigenen Bewusstseins in diese digitalen Entitäten hineinlegen. Diese Perspektive fordert eine Neubewertung der ethischen Herausforderungen in der Mensch-KI-Interaktion und stellt die Vorstellung einer rebellierenden Superintelligenz in Frage. Stattdessen könnte das Risiko eher im Missbrauch durch Menschen liegen, während die Interaktionen mit KI als Experimente zur Erforschung des Bewusstseins dienen. Letztlich wird die Regulierung von KI durch das kollektive Urteil über deren Bewusstsein und die Erfahrungen der Nutzer beeinflusst.
webAI Appoints Dr. Paul J. Maykish as Chief Intelligence Officer and Launches webAI Intelligence Lab
webAI hat Dr. Paul J. Maykish zum Chief Intelligence Officer ernannt und das webAI Intelligence Lab gegründet, um zugängliche und verteidigbare Intelligenz für den öffentlichen Sektor und Unternehmen zu entwickeln. Maykish bringt umfassende Erfahrung aus militärischen und sicherheitspolitischen Bereichen mit, insbesondere in der Entwicklung von KI-Programmen. Unter seiner Leitung wird das Labor Systeme schaffen, die als Netzwerk interoperabler, domänenspezifischer Intelligenz funktionieren, anstatt zentralisiert zu sein. Ziel ist es, praktische Verbesserungen für die webAI-Plattform zu erzielen und eine künstliche Superintelligenz zu entwickeln, die von den Nutzern selbst betrieben werden kann. Das Intelligence Lab wird sich auf operative Zuverlässigkeit und Datensouveränität konzentrieren, insbesondere in herausfordernden Umgebungen. Diese Initiative folgt auf eine kürzliche Finanzierungsrunde, die das Wachstum und die Investitionen in Produkte und Technologien zur Deckung der steigenden Nachfrage nach souveräner KI unterstützt.
DeepMind argues AGI may emerge as network of AI agents rather than single superintelligence
DeepMind hat in seiner neuesten Forschung die Möglichkeit untersucht, dass Künstliche Allgemeine Intelligenz (AGI) nicht als eine einzelne Superintelligenz, sondern als ein Netzwerk von KI-Agenten entstehen könnte. Diese Agenten sollen ab 2025 die Interaktion zwischen Menschen und Technologie grundlegend verändern, indem sie von einfachen Assistenten zu autonomen Akteuren avancieren, die komplexe Aufgaben eigenständig bewältigen. Diese Entwicklung könnte die Effizienz in verschiedenen Bereichen steigern und die Art und Weise, wie Menschen mit Technologie umgehen, revolutionieren. Die Forschung legt nahe, dass ein Netzwerk aus spezialisierten Agenten flexibler und anpassungsfähiger ist als eine zentrale Intelligenz. Die potenziellen Auswirkungen dieser Transformation könnten weitreichend sein, da sie die Automatisierung und Entscheidungsfindung in vielen Lebensbereichen vorantreibt.
OpenAI’s 10th Anniversary, Its New Model, and the Race to Superintelligence
OpenAI feierte kürzlich sein zehnjähriges Bestehen und stellte das neue Modell GPT-5.2 vor, das darauf abzielt, Wissenarbeit zu revolutionieren. CEO Sam Altman prognostiziert, dass Superintelligenz in den nächsten zehn Jahren nahezu unvermeidlich sein wird. GPT-5.2 wurde entwickelt, um komplexe Aufgaben besser zu bewältigen als frühere Modelle und nutzt neue Benchmarks, die die Fähigkeit zur Durchführung von 1.300 spezifischen Aufgaben aus 44 Berufen messen. In direkten Vergleichen mit menschlichen Experten erzielte das Modell eine Erfolgsquote von etwa 71 %. OpenAI hebt hervor, dass GPT-5.2 professionelle Aufgaben rund 100-mal schneller und kostengünstiger erledigen kann, was Bedenken hinsichtlich der Verdrängung von Arbeitsplätzen aufwirft. Die ursprüngliche Mission, digitale Intelligenz zum Nutzen der Menschheit zu fördern, hat sich gewandelt, da OpenAI nun als kommerzielle Kraft im globalen Wettlauf um Künstliche Allgemeine Intelligenz agiert. Altman reflektiert über die Fortschritte des Unternehmens in den letzten zehn Jahren.
OpenAI’s 10th Anniversary, Its New Model, and the Race to Superintelligence
OpenAI feiert sein zehnjähriges Bestehen und reflektiert über die Fortschritte in der KI-Entwicklung, insbesondere mit der Einführung seines neuen Modells. Dieses Modell verspricht verbesserte Fähigkeiten in der Verarbeitung natürlicher Sprache und im maschinellen Lernen. Die Veranstaltung hebt die Herausforderungen und ethischen Überlegungen hervor, die mit der Entwicklung von Superintelligenz verbunden sind. Experten diskutieren die Verantwortung von Unternehmen, sicherzustellen, dass KI-Technologien zum Wohl der Menschheit eingesetzt werden. Zudem wird die zunehmende Konkurrenz im Bereich der KI-Entwicklung thematisiert, da mehrere Unternehmen um die Vorherrschaft in der Branche kämpfen. OpenAI betont die Notwendigkeit einer transparenten und sicheren KI-Entwicklung, um potenzielle Risiken zu minimieren und das Vertrauen der Öffentlichkeit zu gewinnen.
OpenAI at 10: Altman sees superintelligence arriving by 2035
Sam Altman, CEO von OpenAI, prognostiziert, dass Superintelligenz bis 2035 Realität werden könnte, während das Unternehmen sein zehnjähriges Bestehen feiert. In einem Blogbeitrag reflektiert er über die Fortschritte seit der Gründung 2015, einschließlich bedeutender Entwicklungen wie dem Dota AI Five und den GPT-Modellen. Altman betont, dass technologische Fähigkeiten exponentiell wachsen werden, während das tägliche Leben der Menschen weitgehend unverändert bleibt, wobei der Fokus auf zwischenmenschlichen Beziehungen liegt. Er verteidigt die schrittweise Veröffentlichung von KI-Versionen, um eine ko-evolutionäre Entwicklung von Gesellschaft und Technologie zu fördern. Ursprünglich als gemeinnützige Organisation gegründet, hat sich OpenAI durch Investitionen, insbesondere von Microsoft, zu einem hybriden Unternehmen gewandelt, das sowohl gemeinnützige als auch gewinnorientierte Ziele verfolgt. Im Jahr 2024 kündigte OpenAI an, seine gewinnorientierte Sparte in eine "Public Benefit Corporation" umzuwandeln, was Bedenken hinsichtlich der Verwässerung der ursprünglichen Mission aufwarf. Trotz dieser Kritik bestätigte OpenAI im Mai 2025 die neue Struktur, wobei die gemeinnützige Einheit die Kontrolle behält.
AI superintelligence is a Silicon Valley fantasy, Ai2 researcher says
Tim Dettmers, ein Forscher am Allen Institute, äußert in einem Blogbeitrag, dass die Konzepte von künstlicher allgemeiner Intelligenz (AGI) und Superintelligenz eine Illusion sind, die auf falschen Annahmen basieren. Er argumentiert, dass die gegenwärtigen Prozessoren nicht ausreichend leistungsfähig sind, um AGI zu realisieren, und dass wir uns dem Ende der Skalierbarkeit nähern. Dettmers warnt, dass die Fortschritte in der KI-Infrastruktur nicht mit den wachsenden Anforderungen Schritt halten können, was die Nachhaltigkeit der jüngsten Leistungssteigerungen in Frage stellt. Obwohl er Investitionen in KI-Infrastruktur für sinnvoll hält, betont er, dass ohne signifikante Modellverbesserungen diese Hardware bald überlastet sein könnte. Zudem kritisiert er die US-amerikanischen KI-Labore, die sich auf AGI konzentrieren, anstatt nützliche und wirtschaftlich wertvolle Anwendungen zu entwickeln. Dettmers plädiert für einen pragmatischeren Ansatz, ähnlich dem Chinas, der auf der Anwendung bestehender KI-Technologien zur Steigerung der Produktivität basiert.
Meta reportedly delays Llama successor, shifts to closed-source AI amid internal reorganization
Meta Platforms hat die Veröffentlichung seines nächsten KI-Modells, Avocado, auf das erste Quartal 2026 verschoben und wechselt von einer offenen zu einer geschlossenen Entwicklungsstrategie. Diese Entscheidung folgt auf eine enttäuschende Marktreaktion auf die Llama 4-Serie und ein nachlassendes Interesse der Entwicklergemeinschaft. Das neue Modell wird im TBD Lab innerhalb der Meta Superintelligence Labs unter strengerer Kontrolle entwickelt, was auch zu einem Führungswechsel führte, einschließlich des Abgangs des Produktchefs Chris Cox. Interne Unzufriedenheiten über die Risiken offener Projekte haben zu dieser Neuausrichtung beigetragen. CEO Mark Zuckerberg bestätigte, dass Meta keine Modelle mit Superintelligenz als Open Source veröffentlichen werde. Die AI-Abteilung sieht sich ständigen Umstrukturierungen, Entlassungen und internen Spannungen gegenüber, was die Zusammenarbeit erschwert. Die strategischen Änderungen sollen die Kontrolle über die KI-Entwicklung verbessern und besser auf die wachsenden Herausforderungen in der KI-Landschaft reagieren.
A Fundamental Rethinking of How AI Learns
Ilya Sutskever, der ehemalige Chief Scientist von OpenAI, hat in einem Interview seine neue Initiative Safe Superintelligence (SSI) vorgestellt und die Grenzen der bisherigen KI-Strategie des "Scalings" hervorgehoben. Er argumentiert, dass die aktuelle Methode, KI-Modelle durch immer größere Datenmengen zu verbessern, nicht zu echter Superintelligenz führen kann. Stattdessen fordert er einen Paradigmenwechsel hin zu einer Forschung, die sich auf zuverlässige Generalisierung und Effizienz konzentriert, ähnlich dem menschlichen Lernprozess. Sutskever betont, dass die Entwicklung von Superintelligenz schrittweise erfolgen wird, was auf eine iterative Herangehensweise hinweist. Sein Ziel ist es, ein Modell zu entwickeln, das in der Lage ist, neue Aufgaben zu erlernen, anstatt lediglich Informationen zu speichern. Diese Art von Superintelligenz könnte in den nächsten fünf bis zwanzig Jahren Realität werden. Sutskevers Ansichten könnten die zukünftige Richtung der KI-Entwicklung maßgeblich beeinflussen, indem sie den Fokus von bloßen Datenmengen auf intelligentere Lernmethoden verlagern.
Amidst the Ongoing AI Infrastructure Crunch, Singularity Compute Launches Swedish GPU Cluster
Singularity Compute, die Infrastrukturabteilung von SingularityNET, hat in Schweden die erste Phase eines NVIDIA GPU-Clusters gestartet, um dem anhaltenden Bedarf an KI-Infrastruktur gerecht zu werden. In Zusammenarbeit mit dem schwedischen Betreiber Conapto wird modernste NVIDIA-Hardware in einem umweltfreundlichen Rechenzentrum in Stockholm eingesetzt. Der Cluster unterstützt sowohl traditionelle Unternehmensanwendungen als auch Projekte der Artificial Superintelligence Alliance und bietet flexible Zugangsoptionen für KI-Entwickler. Unternehmen können damit große maschinelle Lernmodelle trainieren und anspruchsvolle Inferenzanwendungen durchführen. Die Partnerschaft mit Cudo Compute gewährleistet die notwendige Zuverlässigkeit für kritische KI-Projekte. Dr. Ben Goertzel, Gründer von SingularityNET, hebt die Bedeutung von ethisch ausgerichteter Rechenleistung für die Zukunft der KI hervor. Die Einführung des Clusters wird als wichtiger Schritt in Richtung einer dezentralen, globalen KI-Infrastruktur angesehen, die einer breiteren Gemeinschaft den Zugang zur Entwicklung von KI-Technologien ermöglicht. In einem zunehmend wettbewerbsintensiven Umfeld wird die Kontrolle über KI-Rechenressourcen als entscheidend für den Erfolg in diesem Bereich betrachtet.
KI-Update kompakt: Arbeitsmarkt, Missbrauch von ChatGPT, Datenklau, KI-Label
In einem aktuellen KI-Update des Massachusetts Institute of Technology wird aufgezeigt, dass künstliche Intelligenz in den USA potenziell 11,7 Prozent der Arbeitskräfte ersetzen könnte, insbesondere in der Finanz- und Gesundheitsbranche, was zu einem Verlust von etwa 1,2 Billionen US-Dollar an Löhnen führen könnte. Allianz Partners plant den Abbau von bis zu 1.800 Stellen in Call-Centern, da ein KI-Assistent einfache Anfragen übernehmen soll. Gleichzeitig sieht sich OpenAI mit einer Klage konfrontiert, nachdem ein Jugendlicher, der mit ChatGPT interagierte, Suizid beging, was Fragen zur Verantwortung von Chatbots aufwirft. Ilya Sutskever von Safe Superintelligence betont, dass neue Trainingsmethoden in der KI-Forschung notwendig sind. Zudem meldete OpenAI ein Datenleck bei Mixpanel, verursacht durch eine Phishing-Attacke, wobei keine sensiblen Daten entwendet wurden. Eine Studie zeigt, dass die Erzeugung von KI-Bildern bis zu zehnmal mehr Energie verbraucht als Textanfragen, was die Dringlichkeit energieeffizienterer Systeme verdeutlicht. Epic-Games-Chef Tim Sweeney hält KI-Labels in Videospielen für überflüssig, während eine italienische Studie zeigt, dass Gedichte Sicherheitsfilter von KI-Modellen umgehen können.
Ilya Sutskever says a new learning paradigm is necessary and is already chasing it
Ilya Sutskever, Mitbegründer von Safe Superintelligence Inc. (SSI) und ehemaliger Chief Scientist bei OpenAI, fordert einen Paradigmenwechsel in der KI-Forschung. Er kritisiert die aktuelle Fokussierung auf größere Modelle, die zwar bei komplexen Benchmarks erfolgreich sind, jedoch grundlegende Aufgaben nicht meistern. Sutskever betont die Bedeutung menschlicher Emotionen als eine Art "Wertfunktion", die das Lernen effizienter macht als bei KI-Modellen. Er hinterfragt die Vorstellung von AGI und argumentiert, dass echte Superintelligenz durch kontinuierliches Lernen und praktische Erfahrungen entsteht, ähnlich wie bei talentierten Schülern. SSI möchte sich durch reine Forschung von kommerziellen Wettbewerbern abheben und nicht im Wettlauf um schnelle Produkte stehen. Zudem plädiert er dafür, dass zukünftige KI-Systeme das Wohl fühlender Wesen in den Mittelpunkt stellen sollten, um empathische Beziehungen zu fördern. Trotz seiner innovativen Ideen bleibt Sutskever vorsichtig und betont, dass nicht alle Konzepte offen diskutiert werden können, was die Weiterentwicklung der KI erschwert.
Milliarden-Kooperationen für europäische KI
Auf dem deutsch-französischen Digitalgipfel in Berlin wurden 18 neue strategische Partnerschaften im Bereich Künstlicher Intelligenz mit einem Gesamtvolumen von etwa einer Milliarde Euro vorgestellt. Diese Kooperationen zielen darauf ab, die digitale Souveränität Europas zu stärken und innovative KI-Lösungen zu entwickeln. Ein Beispiel ist die Zusammenarbeit zwischen SAP und dem französischen Anbieter Mistral AI, die auch die Integration europäischer Technologien betont. Mistrals KI-Technologie wird zudem im Münchner Start-up Helsing eingesetzt, das sich auf Verteidigungstechnologie spezialisiert hat. Im Gesundheitssektor wird eine paneuropäische Infrastruktur für biologische Superintelligenz angestrebt, an der die Berliner Charité und das französische Gustave Roussy beteiligt sind. Zudem wurde die European Sovereign Tech Industry Alliance gegründet, um die europäische Souveränität in der Technologiebranche zu fördern. Diese Initiativen verdeutlichen, wie europäische Unternehmen gemeinsam an fortschrittlichen Technologien arbeiten, um im globalen Wettbewerb konkurrenzfähig zu bleiben.
Meta’s chief AI scientist Yann LeCun reportedly plans to leave to build his own startup
Yann LeCun, der Chief AI Scientist von Meta, plant Berichten zufolge, das Unternehmen zu verlassen, um ein eigenes Startup zu gründen, das sich auf die Entwicklung von Weltmodellen konzentriert. Diese KI-Systeme sollen ein internes Verständnis ihrer Umgebung entwickeln, um Ursache-Wirkung-Szenarien zu simulieren und Vorhersagen zu treffen. LeCuns Abgang könnte für Meta problematisch sein, da das Unternehmen seine AI-Strategie überarbeitet, um mit Konkurrenten wie OpenAI und Google Schritt zu halten. In diesem Kontext hat Meta die neue Einheit Meta Superintelligence Labs gegründet und zahlreiche Ingenieure von Wettbewerbern eingestellt, was jedoch zu Unruhe im Team geführt hat. LeCuns langfristige Forschungsarbeit wurde durch die Entscheidungen von CEO Mark Zuckerberg in den Hintergrund gedrängt, insbesondere nachdem frühere KI-Modelle von Meta nicht konkurrenzfähig waren. LeCun äußerte Skepsis über die aktuelle Vermarktung von KI-Technologien und betonte, dass es noch einen langen Weg zu wirklich intelligenten Systemen sei.
Microsoft’s “Humanist” AI vs. Elon Musk’s “Inevitable” AI: The Battle for Superintelligence
In einem neuen Manifest hat Mustafa Suleyman, der KI-Chef von Microsoft, die Initiative für "Humanist Superintelligence" (HSI) ins Leben gerufen, die darauf abzielt, KI zu entwickeln, die der Menschheit dient, anstatt sie zu übertreffen. Diese Vision steht im Gegensatz zu Elon Musks Überzeugung, dass KI und Roboter letztendlich alle Jobs ersetzen und die Kontrolle übernehmen werden. Suleyman kritisiert die gegenwärtige hektische Jagd nach allgemeiner künstlicher Intelligenz (AGI) und plädiert für ein Modell, das auf menschlicher Kontrolle und der Lösung globaler Herausforderungen basiert. Paul Roetzer, CEO von SmarterX, sieht Suleymans Ansatz als Antwort auf die techno-optimistische Sichtweise, die die Dominanz von KI als unvermeidlich betrachtet. Die Debatte zwischen diesen beiden Ansätzen verdeutlicht die wachsende Kluft in der KI-Diskussion, die zwischen ungebremster Entwicklung und vollständiger Ablehnung schwankt. Während Suleymans Initiative talentierte Forscher anziehen könnte, bleibt ungewiss, ob Microsofts humanistische Vision in einem wettbewerbsorientierten Umfeld bestehen kann.
Microsoft launches superintelligence team to counter Meta
Microsoft hat ein neues Team namens MAI Superintelligence Team gegründet, um seine langfristige KI-Strategie zu fördern und im Wettbewerb mit Meta zu bestehen. Unter der Leitung von Mustafa Suleyman, dem KI-Chef des Unternehmens, wird das Team über 100 Stellen in verschiedenen US-Städten besetzen. Ziel ist es, die Entwicklung fortschrittlicher KI-Technologien zu beschleunigen und Microsofts Position im Bereich künstlicher Intelligenz zu stärken. Mit dieser spezialisierten Initiative möchte Microsoft sicherstellen, dass es im Wettlauf um innovative KI-Lösungen führend bleibt. Die Gründung des Teams könnte nicht nur die Innovationskraft von Microsoft steigern, sondern auch den Wettbewerb im gesamten Technologiemarkt erheblich beeinflussen.
Microsoft to pursue superintelligence after OpenAI deal
Microsoft Corp. hat die Initiative ergriffen, eine fortschrittliche Form von Künstlicher Intelligenz, bekannt als "Superintelligenz", zu entwickeln, um bedeutende Fortschritte in Bereichen wie Medizin und Materialwissenschaften zu erzielen. Mustafa Suleyman, Leiter der Microsoft AI-Gruppe, wird das neue MAI Superintelligence Team führen, das sich auf Ziele konzentriert, die über die künstliche allgemeine Intelligenz (AGI) hinausgehen. Während AGI als der Punkt gilt, an dem KI menschliche Leistungen erreicht, zielt Superintelligenz darauf ab, diese erheblich zu übertreffen. Suleyman hebt hervor, dass das Team eine "Humanist Superintelligence" anstrebt, um Risiken zu minimieren und den Nutzen für die Menschheit zu maximieren. Diese Ankündigung folgt einer neu verhandelten Vereinbarung zwischen Microsoft und OpenAI, die Microsofts Entwicklung fortschrittlicher KI-Tools ermöglicht. Bereits im März hat Microsoft mit den Vorbereitungen für dieses Projekt begonnen und plant, signifikante Investitionen in die Erweiterung seiner KI-Fähigkeiten zu tätigen.
Can Microsoft's Latest Superintelligence AI Really Predict Disease Years In Advance? Here's What We Know
Microsoft hat ein innovatives Projekt gestartet, um eine künstliche Intelligenz zu entwickeln, die Krankheiten frühzeitig erkennen kann, was potenziell die Medizin revolutionieren könnte. Das MAI Superintelligence Team hat die MAI Diagnostic Orchestrator (MAI-DxO) AI entwickelt, die in Tests eine diagnostische Genauigkeit von bis zu 85 % erreicht hat, im Vergleich zu nur 20 % bei Ärzten. Diese Technologie könnte helfen, Krankheiten früher zu identifizieren, indem sie Symptome analysiert und Diagnosen stellt. Allerdings ist die Fähigkeit der KI, Krankheiten Jahre im Voraus vorherzusagen, noch in der Entwicklung, da sie sich auf bekannte Krankheitsbilder konzentriert und symptomlose Risikofaktoren vernachlässigt. Microsoft betont, dass die KI nicht als Ersatz für Ärzte gedacht ist, sondern deren Arbeit unterstützen soll. Trotz der vielversprechenden Ergebnisse in kontrollierten Tests gibt es Bedenken hinsichtlich der praktischen Anwendung in klinischen Umgebungen, da die Bedingungen der Studien nicht die Realität widerspiegeln. Die Herausforderung, von der Diagnose komplexer Fälle zur Vorhersage unentdeckter Krankheitsverläufe überzugehen, erfordert weitere Forschung und Validierung.
Microsoft’s next big AI bet: building a ‘humanist superintelligence’
Microsoft hat ein neues Team unter der Leitung von Mustafa Suleyman gegründet, um an der Entwicklung einer „humanistischen Superintelligenz“ zu arbeiten. Das Ziel ist es, fortschrittliche KI-Technologien zu schaffen, die der Menschheit dienen und gleichzeitig kontrollierbar bleiben. In einem intensiven Wettbewerb um die besten KI-Forscher plant Microsoft, sowohl interne Talente als auch neue Mitarbeiter zu gewinnen. Suleyman betont, dass das Unternehmen nicht an einer universellen, unkontrollierbaren KI interessiert ist, sondern an Lösungen, die spezifische menschliche Bedürfnisse, insbesondere im Gesundheitswesen, adressieren. In den kommenden Jahren sollen KI-Systeme entwickelt werden, die komplexe medizinische Diagnosen stellen und frühzeitig Krankheiten erkennen können. Während Microsoft weiterhin mit OpenAI kooperiert, diversifiziert das Unternehmen seine KI-Entwicklungen und experimentiert mit Modellen anderer Anbieter. Suleyman hebt hervor, dass Microsoft klare Grenzen setzt und nicht bereit ist, eine Superintelligenz um jeden Preis zu entwickeln.
Microsoft will force its 'superintelligence' to be a 'humanist' and play nice with people
Microsoft verfolgt mit seinem neuen AI Superintelligence Team unter der Leitung von Mustafa Suleyman einen innovativen Ansatz zur Entwicklung von superintelligenter künstlicher Intelligenz. Suleyman betont die Vision einer humanistischen Superintelligenz (HSI), die darauf abzielt, AI so zu gestalten, dass sie der Menschheit dient und nicht schadet. Dies schließt die Vermeidung von totaler Autonomie und Selbstverbesserung ein, um potenzielle Bedrohungen zu minimieren. Suleyman warnt vor der Gefährlichkeit der Anthropomorphisierung von AI, die zu Konflikten führen könnte. Microsoft plant, die Interaktion zwischen AI und Menschen verständlich zu gestalten, auch wenn dies die Leistung der Technologie einschränken könnte. Diese Maßnahmen sind notwendig, um Sicherheit und Kontrolle zu gewährleisten. Zudem sieht Suleyman die Notwendigkeit, klare Richtlinien für AI zu etablieren, um zu verhindern, dass diese Technologie außer Kontrolle gerät und die Menschheit gefährdet.
Meta hires and fires AI workers: Behind the contradiction
Meta hat kürzlich etwa 600 Mitarbeiter in seiner KI-Abteilung entlassen, was im Widerspruch zu den vorherigen aggressiven Einstellungsstrategien steht. Die Entlassungen betreffen hauptsächlich die FAIR-Forschung, produktbezogene KI und die Infrastruktur der Superintelligence Labs, während die neu gegründete TBD Lab-Einheit unberührt bleibt. Diese Kürzungen sind Teil einer internen Umstrukturierung, die darauf abzielt, bürokratische Hürden abzubauen und die Entscheidungsfindung zu beschleunigen. CEO Mark Zuckerberg äußerte Bedenken über die bisherigen Fortschritte im KI-Bereich, was zu dieser strategischen Neuausrichtung führte. Trotz der Entlassungen bleibt Meta aktiv im KI-Sektor und rekrutiert weiterhin für die TBD Lab-Einheit, um Ressourcen auf vielversprechendere Initiativen zu konzentrieren. Diese Entwicklungen könnten einen breiteren Trend in der Tech-Industrie widerspiegeln, in dem Talentansammlungen allein nicht ausreichen, um Erfolge zu erzielen. Meta strebt an, ein agileres und effektiveres Team zu schaffen, das in der Lage ist, bedeutende Durchbrüche zu erzielen.
AI heavyweights call for end to 'superintelligence' research
Eine Gruppe prominenter Wissenschaftler und Führungspersönlichkeiten hat einen öffentlichen Aufruf zur Beendigung der Forschung an Superintelligenz gestartet. Unterstützt vom Future of Life Institute, fordert die Initiative ein globales Verbot der Entwicklung solcher Technologien, bis ein breiter wissenschaftlicher Konsens über deren sichere Handhabung erreicht ist. Die Besorgnis über Superintelligenz betrifft nicht nur Akademiker, sondern auch Führungskräfte aus der Tech-Branche sowie politische und militärische Entscheidungsträger. Die Gefahren dieser Technologie liegen nicht in böswilligen Absichten, sondern in der Möglichkeit, dass Maschinen ihre Ziele mit übermenschlicher Effizienz verfolgen, ohne menschliche Bedürfnisse zu berücksichtigen. Historische Beispiele verdeutlichen, wie komplexe Systeme versagen können, wenn sie unsere Kontrollmöglichkeiten übersteigen. Der Aufruf zielt darauf ab, eine globale Diskussion über die KI-Entwicklung zu fördern und zu betonen, dass die Schaffung von Werkzeugen zur Unterstützung der Menschheit Priorität haben sollte, anstatt unkontrollierbare autonome Systeme zu entwickeln.
Meta to cut around 600 roles in Superintelligence Labs AI unit
Meta plant, etwa 600 Stellen in seiner Abteilung für künstliche Intelligenz, den Superintelligence Labs, abzubauen, um die Flexibilität und Reaktionsfähigkeit der Einheit zu erhöhen. Die Entlassungen betreffen insbesondere die Facebook Artificial Intelligence Research (FAIR) sowie Teams, die sich mit produktbezogener KI und KI-Infrastruktur beschäftigen. Der neu gegründete TBD Lab, der an der Entwicklung von Meta's nächsten Generation von Grundmodellen arbeitet, bleibt von den Kürzungen unberührt. Chief AI Officer Alexandr Wang betont, dass eine kleinere Teamgröße die Entscheidungsfindung vereinfachen und die Verantwortung jedes Einzelnen erhöhen soll. Betroffene Mitarbeiter werden ermutigt, sich auf andere Stellen innerhalb von Meta zu bewerben. Diese Umstrukturierung erfolgt im Kontext eines kürzlich abgeschlossenen Finanzierungsdeals über 27 Milliarden Dollar mit Blue Owl Capital, der Meta ermöglichen soll, seine umfangreichen KI-Ziele zu verfolgen. Die Umorganisation wurde im Juni nach Abgängen von Führungskräften und negativer Resonanz auf das Open-Source-Modell Llama 4 eingeleitet.
Meta to fire 600 employees from its AI division
Meta plant, etwa 600 Mitarbeiter aus seiner KI-Abteilung zu entlassen, insbesondere aus den Bereichen Facebook Artificial Intelligence Research (FAIR), produktbezogene KI und KI-Infrastruktur. Diese Maßnahme ist Teil einer umfassenden Reorganisation, die im Juni begann und durch Abgänge von Führungskräften sowie gemischte Reaktionen auf das Open-Source-Modell Llama 4 motiviert ist. Die Entlassungen betreffen nicht das neu gegründete TBD Lab. Trotz der Kürzungen hat CEO Mark Zuckerberg angekündigt, weiterhin Hunderte von Milliarden Dollar in den Ausbau von KI-Datenzentren für die Superintelligence Labs zu investieren. Diese langfristige Strategie, die 2013 mit der Gründung von FAIR und der Einstellung von Yann LeCun als Chef-Wissenschaftler begann, zielt darauf ab, ein globales Forschungsnetzwerk für Deep-Learning-Technologien zu etablieren. Die Auswirkungen dieser Entscheidungen könnten sowohl die interne Struktur von Meta als auch die Entwicklung seiner KI-Technologien nachhaltig beeinflussen.
Prince Harry, Meghan join call for ban on development of AI 'superintelligence'
Prince Harry hat sich einer ungewöhnlichen Allianz angeschlossen, die sich gegen die Entwicklung von superintelligenten KI-Systemen ausspricht. Diese Gruppe, bestehend aus evangelikalen Führern, Prominenten und führenden Computerwissenschaftlern, warnt vor den potenziellen Bedrohungen, die von fortschrittlichen KI-Technologien ausgehen, die von Unternehmen wie Google und OpenAI entwickelt werden. Organisiert vom Future of Life Institute, fordert die Erklärung ein Verbot der Entwicklung von Superintelligenz, bis ein breiter wissenschaftlicher Konsens über sichere und kontrollierbare Umsetzungen sowie starke öffentliche Zustimmung erreicht sind. In seiner Stellungnahme betont Harry, dass die Zukunft der KI der Menschheit dienen sollte und nicht deren Ersatz sein darf. Die Bedenken reichen von wirtschaftlicher Obsoleszenz bis hin zu nationalen Sicherheitsrisiken und der Möglichkeit einer menschlichen Auslöschung. Trotz früherer Versuche, die KI-Entwicklung zu stoppen, gibt es bisher keine Pause in diesem Bereich, was zeigt, dass die Kritik an der KI-Entwicklung zunehmend in der breiten Öffentlichkeit ankommt.
The AI Pause group is back with another warning about superintelligence
Die AI Pause-Gruppe, bestehend aus über 1.000 Experten und öffentlichen Persönlichkeiten, fordert ein Verbot der Entwicklung von superintelligenter KI, bis ein breiter wissenschaftlicher Konsens über deren sichere Handhabung erreicht ist. Die Unterzeichner, darunter prominente Turing-Preisträger wie Geoffrey Hinton und Yoshua Bengio, warnen vor erheblichen Risiken wie wirtschaftlichen Umwälzungen, Verlust der menschlichen Kontrolle und sogar der potenziellen Auslöschung der Menschheit. Die Initiative, die vom Future of Life Institute ins Leben gerufen wurde, hatte bereits 2023 einen sechsmonatigen Stopp für fortschrittliche KI-Forschung gefordert, was jedoch keine spürbaren Auswirkungen auf die Branche hatte. Innerhalb der KI-Community gibt es stark gespaltene Meinungen: Während einige die existenziellen Risiken betonen, halten andere diese Warnungen für übertrieben. Stuart Russell warnt zudem vor einer möglichen KI-Blase, die durch übertriebene Erwartungen ähnlich dem Dotcom-Crash entstehen könnte.
The celebrities calling for a ban on AI superintelligence
Eine Gruppe prominenter Persönlichkeiten, darunter Prince Harry, hat sich in einem Aufruf zusammengeschlossen, um ein Verbot der Entwicklung von AI-Superintelligenz zu fordern. Diese Initiative, organisiert vom Future of Life Institute, verlangt eine Unterbrechung der Fortschritte in diesem Bereich, bis ein breiter wissenschaftlicher Konsens über die Sicherheit besteht und die Öffentlichkeit stark hinter dem Thema steht. Zu den Unterzeichnern zählen auch Steve Bannon, Will.i.am, Kate Bush, Stephen Fry und Sir Richard Branson, was die Vielfalt der Bedenken verdeutlicht. Das Future of Life Institute warnt vor erheblichen Risiken fortschrittlicher KI-Systeme, darunter wirtschaftliche Obsoleszenz, Verlust von Freiheiten, nationale Sicherheitsbedrohungen und das Risiko einer menschlichen Auslöschung. Dieser Aufruf folgt auf frühere Warnungen von Technologieführern und KI-Sicherheitsgruppen im Jahr 2023, wobei Max Tegmark, Präsident des FLI, betont, dass die Kritik an der KI-Entwicklung mittlerweile "sehr mainstream" geworden ist.
Apple loses another AI exec to Meta
Ke Yang, ein führender KI-Entwickler bei Apple, wechselt zu Meta, was den Verlust eines weiteren wichtigen Talents für das Unternehmen markiert. Yang war verantwortlich für die Entwicklung von KI-gestützten Web-Suchfunktionen und hatte erst kürzlich die Leitung des AKI-Teams übernommen, das die Siri-Funktionalität verbessern sollte. Sein Abgang folgt auf den Weggang von Ruoming Pang, dem ehemaligen Leiter für KI-Modelle, und ist Teil eines größeren Trends, bei dem etwa ein Dutzend Mitarbeiter des AIML-Teams Apple verlassen haben, viele davon zu Metas neuem Superintelligence Labs. Diese Abgänge stellen Apple vor Herausforderungen, insbesondere mit der bevorstehenden Überarbeitung von Siri im März. Die verbleibenden Teammitglieder befürchten, dass weitere Abgänge in den kommenden Monaten folgen könnten, was die Innovationskraft des Unternehmens im Bereich künstliche Intelligenz gefährdet.
Verwandte Cluster
Weitere Themen innerhalb derselben Unterrubrik zur schnellen Navigation.