,

OpenAI-Mitbegründer John Schulman: In fünf Jahren schon AGI?

Werden wir in fünf Jahren schon AGI (Artificial General Intelligence) erreichen? In der sich rasant entwickelnden KI-Welt ist es vorstellbar – und es gibt wenige Personen, die so tiefgreifende Einblicke bieten können wie John Schulman. Als Mitbegründer von OpenAI und Leiter des Post-Training-Teams hat er nicht nur die Entwicklung von ChatGPT geleitet, sondern auch einige der einflussreichsten Forschungsarbeiten im Bereich KI und Reinforment Learning (RL) verfasst. In einem aktuellen Interview teilt Schulman seine Gedanken über die Zukunft der KI, die Herausforderungen bei der Ausbildung fortschrittlicher Modelle und die ethischen Implikationen ihrer wachsenden Fähigkeiten. Seine Einsichten werfen ein Licht auf die Komplexität der KI-Entwicklung und lassen uns die bevorstehende technologische Revolution in einem neuen Licht betrachten.

Quelle: NExperts

Die Evolution der KI: Von ChatGPT zu menschenähnlichen Assistenten

Die Entwicklung von ChatGPT markiert einen bedeutenden Meilenstein, aber laut Schulman stehen wir erst am Anfang. Er skizziert eine faszinierende Vision der Zukunft, in der KI-Modelle nicht nur einzelne Aufgaben erledigen, sondern zu echten Kollegen werden. Diese Systeme werden unsere gesamte Arbeitswelt durchdringen, komplexe Projekte wie das Schreiben umfangreicher Codes oder die Durchführung wissenschaftlicher Forschung übernehmen und sogar proaktiv Vorschläge machen. „Ich würde gerne sehen, dass wir uns von einmaligen Abfragen wegbewegen und das Modell mehr wie eine Suchmaschine nutzen, hin zu einem ganzen Projekt, an dem ich in Zusammenarbeit mit dem Modell arbeite“, erklärt Schulman. Diese Vision geht weit über die aktuellen Fähigkeiten hinaus und deutet auf eine Zukunft hin, in der KI nicht nur ein Werkzeug, sondern ein Partner ist, der unsere Absichten versteht und erweitert. Schulman prognostiziert sogar, dass in etwa fünf Jahren KI-Systeme in der Lage sein könnten, Jobs wie seinen eigenen zu ersetzen – eine erstaunliche Aussage, die die rasante Entwicklung in diesem Bereich unterstreicht.

Die Herausforderungen der KI-Skalierung: Effizienz, Ethik und Kontrolle

Während die Fähigkeiten der KI exponentiell wachsen, bleiben kritische Fragen offen. Eine zentrale Herausforderung ist die Effizienz: Wie können mit weniger Rechenleistung bessere Modelle trainiert werden? Schulman betont die Fortschritte im Pre- und Posttraining, die es ermöglichen, mit der gleichen Rechenleistung bessere Modelle zu entwickeln. Gleichzeitig warnt er vor der Komplexität der Anpassung dieser Modelle an menschliche Präferenzen. Reinforcement Learning from Human Feedback“ (RLHF) hat zwar zu beeindruckenden Ergebnissen geführt, birgt aber auch Fallstricke wie unbeabsichtigte Verzerrungen oder die Konvergenz, also Annäherung, zu einem bestimmten Sprachstil. Eine noch größere Herausforderung entsteht, wenn KI-Systeme beginnen, ganze Unternehmen zu steuern. Schulman fragt: „Wie überwachen wir jedes einzelne Unternehmen, um sicherzustellen, dass ein Mensch in der Entscheidungsschleife bleibt?“ Diese Frage unterstreicht die Notwendigkeit einer globalen Zusammenarbeit, um sicherzustellen, dass KI-Systeme unsere Werte und ethischen Grundsätze respektieren, auch wenn sie unsere kognitiven Fähigkeiten übersteigen.

Was ist eigentlich AGI?

AGI (Artificial General Intelligence), oder Allgemeine Künstliche Intelligenz, bezeichnet eine Form von KI, die alle kognitiven Aufgaben eines Menschen ausführen kann. Im Gegensatz zu spezialisierten KI-Systemen, die nur spezifische Aufgaben bewältigen, soll AGI vielseitig und flexibel sein. Schulman erklärt, dass die Entwicklung von AGI erhebliche Fortschritte in der Trainingsmethodik erfordert, insbesondere durch Reinforcement Learning with Human Feedback (RLHF). Diese Methode ermöglicht es der KI, durch kontinuierliches Feedback von Menschen zu lernen und sich zu verbessern, wodurch sie in der Lage ist, komplexe und langfristige Aufgaben zu meistern.

Schulman betont, dass die Fähigkeit von Modellen, „lange Horizonte“ zu bewältigen – also Aufgaben, die über längere Zeiträume hinweg ausgeführt werden müssen – ein entscheidender Schritt zur Verwirklichung von AGI ist. Diese Fortschritte könnten bedeutende Auswirkungen auf verschiedenste Bereiche haben, von der Wissenschaft bis hin zur Wirtschaft, indem sie die Effizienz und Innovationskraft erheblich steigern.

Der Weg zur verantwortungsvollen KI: Gleichgewicht zwischen Fortschritt und Sicherheit

Angesichts des rasanten Fortschritts in der KI-Entwicklung wird die Frage der Sicherheit und Verantwortung immer dringlicher. Schulman und sein Team bei OpenAI haben einen bemerkenswerten Ansatz entwickelt: das „Model Spec-Dokument“. Es geht über vage Prinzipien hinaus und bietet konkrete Beispiele für den Umgang mit komplexen ethischen Dilemmas. „Wir wollten, dass es umsetzbar ist, damit es nicht nur ein Haufen schön klingender Prinzipien sind“, erklärt Schulman. Diese Herangehensweise zeigt, wie wichtig es ist, KI-Systeme nicht nur auf technischer, sondern auch auf ethischer Ebene zu trainieren. Die größte Herausforderung liegt jedoch in der Balance zwischen Fortschritt und Sicherheit. Schulman betont die Notwendigkeit, bei unerwarteten Durchbrüchen vorsichtig zu sein: „Wir müssten beim Training und Einsatz sehr vorsichtig sein, bis wir sicher sein können, dass wir wirklich damit umgehen können.“ Er plädiert für eine kontrollierte Pause, sollte die KI schneller als erwartet menschliches Niveau erreichen. Diese Diskussion zeigt, dass die Zukunft der KI nicht nur von technologischem Fortschritt abhängt: Schulman hebt die Notwendigkeit der globalen Zusammenarbeit hervor, um ein sicheres und verantwortungsbewusstes Umfeld für die Entwicklung und den Einsatz von AGI zu schaffen – eine Herausforderung, die ebenso faszinierend wie beängstigend ist. Die kommenden Jahre werden zeigen, ob diese Vision Wirklichkeit wird und welche Auswirkungen AGI auf unsere Gesellschaft haben wird.

Hier ist das vollständige Interview auf YouTube:

Artikel teilen
Generative KI & Marketing

Therapie statt Tabellen? Was wir 2025 wirklich mit KI machen

Noch vor wenigen Jahren galt generative Künstliche Intelligenz (GenAI) als technisches Hilfsmittel, um Texte zu schreiben, Bilder zu generieren oder Codezeilen zu produzieren. Heute, im Jahr 2025, hat sich das Bild radikal gewandelt. Eine aktuelle Studie des britischen KI-Unternehmens Filtered mit dem Titel „2025 Top-100 Gen AI Use Case Report“ offenbart eine bemerkenswerte Entwicklung: Die häufigsten Einsatzbereiche generativer KI betreffen nicht mehr primär Effizienz oder Produktivität – sondern emotionale Nähe, Lebensorganisation und sogar die Suche nach Sinn.
22. Mai 2025
Technologie & Daten

Meta im Visier: Verbraucherschützer stoppen KI-Training mit Nutzerdaten

Der US-Konzern Meta will ab Ende Mai öffentliche Inhalte seiner Nutzer auf Facebook und Instagram für das Training Künstlicher Intelligenz verwenden – ohne deren ausdrückliche Zustimmung. Verbraucherschützer in Deutschland reagieren empört und haben rechtliche Schritte eingeleitet. Der Fall wirft zentrale Fragen zum Umgang mit persönlichen Daten in der Ära generativer KI auf – und könnte europaweite Folgen haben.
8. Mai 2025
Generative KI & Marketing

Elon Musks Grok: Wie eine generative KI zum politischen und strategischen Machtinstrument wird

Mit Grok, dem KI-Chatbot seines Unternehmens xAI, will Elon Musk die Plattform X (ehemals Twitter) zur All-in-One-Kommunikationszentrale umbauen. Dabei trifft Technologie auf Politik, Datenschutz auf Marketing – und eine Vision auf zahlreiche offene Fragen.
17. April 2025
Technologie & Daten

Wenn Daten zur Ware werden: eBay trainiert KI mit personenbezogenen Informationen

Die KI-gestützte Datenverarbeitung verändert die Art und Weise, wie Unternehmen weltweit Informationen nutzen. Durch den Einsatz fortschrittlicher Technologien können riesige Datenmengen effizient ausgewertet werden. eBay macht es vor: Das Unternehmen passt seine Datenschutzerklärung an und erlaubt so künftig die Nutzung personenbezogener Daten zum Training von KI-Modellen. Datenschützer reagieren besorgt. Was wie ein technischer Fortschritt klingt, wirft grundsätzliche Fragen zur Verantwortung im Umgang mit KI und sensiblen Nutzerdaten auf.
3. April 2025
Generative KI & Marketing

Fehler in KI-Texten: Wie zuverlässig sind ChatGPT & Co. wirklich?

Immer mehr Menschen nutzen KI-gestützte Textgeneratoren wie ChatGPT. Doch eine aktuelle Studie des TÜV-Verbands zeigt, dass fast ein Drittel der Nutzer Fehler in den generierten Inhalten bemerkt. Diese Mängel rufen Fragen über die Zuverlässigkeit und Verantwortung im Umgang mit KI auf. Wie kommt es zu diesen Fehlern, und welche Konsequenzen entstehen daraus für Nutzer*innen und Gesellschaft? Ein Blick auf die Dynamik und Herausforderungen der digitalen Textgenerierung.
20. März 2025
Medizin & Gesundheit, Technologie & Daten

TRUSTED: Europas Antwort auf sichere KI-Datenräume

Die digitale Transformation ist in vollem Gange, und mit ihr steigt der Bedarf an sicheren Datenräumen enorm. Besonders im Bereich der KI ist der Schutz sensibler Daten – zum Beispiel in der Gesundheitsforschung- von entscheidender Bedeutung. Das europäische Projekt TRUSTED nimmt sich dieser Herausforderung an. Es entwickelt einen Datenraum, der sowohl hohe Sicherheitsstandards als auch den freien Fluss von Informationen gewährleistet. Ein wichtiger Schritt für die Zukunft der KI in Europa.
13. März 2025
Technologie & Daten

OpenAI enthüllt Sora: Kreative KI-Videogenerierung jetzt auch in Deutschland

OpenAIs neuester Streich, der Sora Videogenerator, setzt neue Maßstäbe in der kreativen Content-Erstellung. Durch einfache Texteingaben entstehen dynamische Kurzfilme, die nun auch den deutschen Markt bereichern. Diese Innovation verspricht, die Art und Weise, wie Videos produziert werden, nachhaltig zu verändern. Doch welche Chancen und Herausforderungen bringt diese Technologie tatsächlich mit sich?
6. März 2025
Generative KI & Marketing

Warum kritisches Denken im Zeitalter der KI unverzichtbar bleibt

In einer Welt, die zunehmend von KI beeinflusst wird, stellt sich die Frage: Wie bewahren wir unser kritisches Denken? Forscher warnen vor einer Abhängigkeit von KI, die das eigenständige Hinterfragen und Problemlösen verdrängt. Der Schlüssel liegt in der Balance zwischen technologischem Fortschritt und menschlichem Urteilsvermögen. Diese Diskussion beleuchtet, warum kritisches Denken essenziell bleibt und welche Herausforderungen damit verbunden sind.
20. Februar 2025
Technologie & Daten

Datenschutz bei KI-Chatbots: Wie sicher sind unsere Daten wirklich?

Die Verbreitung von KI-Chatbots hat den digitalen Austausch revolutioniert, doch sie wirft auch drängende Fragen zum Datenschutz auf. Immer mehr Unternehmen integrieren diese Systeme in ihre Kommunikation, was sensible Nutzerdaten betrifft. Wie gehen die verschiedenen Anbieter mit diesen Informationen um? Angesichts wachsender Sorgen um Datensicherheit wird die Debatte um Schutzmaßnahmen lauter. Was bedeutet das für die Zukunft unserer Daten?
6. Februar 2025
Finance & Controlling, Technologie & Daten

DeepSeek KI: Chinas innovativer Vorstoß bedroht Dominanz der US-Tech-Giganten

Die Deepseek KI aus China stellt die Tech-Welt auf den Kopf. Mit einer beeindruckenden Kombination aus Effizienz und Kostenvorteilen rüttelt das Start-up an der Vormachtstellung etablierter US-Technologiegiganten und sorgt für einen Rekordwertverlust bei NVIDIA-Akien an der Börse. Welche Technologien und Strategien stehen hinter diesem Aufstieg? Und welche Veränderungen könnte dies für den globalen Markt der Künstlichen Intelligenz bedeuten? Ein tieferer Einblick lohnt sich.
30. Januar 2025

Think Tank

Werde Teil der NEXperts Community

Du möchtest wissen, was die KI-Welt bewegt und dich mit Expert*innen und Gleichgesinnten zu aktuellen KI-Themen, -Tools und -Trends austauschen? Dann werde Teil unserer Community. Diskutiere, lerne, vernetze dich und gestalte mit uns und anderen gemeinsam die digitale Zukunft.