Home Uncategorized Altman von OpenAI sieht „Superintelligenz“ innerhalb von „ein paar tausend Tagen“ als...

Altman von OpenAI sieht „Superintelligenz“ innerhalb von „ein paar tausend Tagen“ als möglich an – aber es mangelte ihm an Details

1
0
Altman von OpenAI sieht „Superintelligenz“ innerhalb von „ein paar tausend Tagen“ als möglich an – aber es mangelte ihm an Details

Altman von OpenAI sieht die Aussicht auf „Superintelligenz“ in acht Jahren und damit eine neue Ära menschlichen Wohlstands.

Foto von Tiernan Ray/ZDNET

Laut Sam Altman, CEO von OpenAI, könnte künstliche Intelligenz (KI) in nur acht Jahren zu etwas führen, das „Superintelligenz“ genannt wird.

„Es ist möglich, dass wir in ein paar tausend Tagen (!) Superintelligenz haben werden; Es kann länger dauern, aber ich glaube, wir werden es schaffen“, schrieb Altman in einem Aufsatz, den er mit dem Titel bezeichnete Zeitalter der IntelligenzAn Website in seinem Namen. Der Beitrag scheint bisher der einzige Inhalt auf der Website zu sein.

Außerdem: OpenAI erweitert die Verfügbarkeit von o1-Modellen – hier erfahren Sie, wer wie viel Zugriff erhält

Am Montag veröffentlichte Altman einen Link zu dem Beitrag auf X (ehemals Twitter), der am Dienstagnachmittag 12.000 Likes und 2.400 Reposts hatte:

Zeitalter der Intelligenz: https://t.co/vuaBNwp2bD

– Sam Altman (@sama) 23. September 2024

Altman hat in seinen Interviews den Begriff Superintelligenz verwendet, beispielsweise in einem Interview mit der Financial Times vor einem Jahr. Altman neigt dazu, Superintelligenz mit weit verbreiteten Bemühungen in Wissenschaft und Industrie gleichzusetzen, „künstliche allgemeine Intelligenz“ (AGI) zu erreichen, also Computer, die genauso gut oder sogar besser als Menschen denken können.

In dem 1.100 Wörter umfassenden Aufsatz brachte Altman die Idee vor, KI auf möglichst viele Menschen auszudehnen, als einen Fortschritt in der „Infrastruktur der Gesellschaft“, der dramatische Fortschritte beim menschlichen Wohlbefinden ermöglichen würde.

Auch: Was ist künstliche allgemeine Intelligenz?

„Mit diesen neuen Fähigkeiten können wir gemeinsamen Wohlstand in einem Ausmaß genießen, das heute unvorstellbar erscheint“, schrieb Altman.

„In der Zukunft kann das Leben eines jeden besser sein als das Leben eines jeden heute. Wohlstand allein wird die Menschen nicht unbedingt glücklich machen – es gibt viele reiche Menschen, denen es schlecht geht –, aber er wird das Leben der Menschen auf der ganzen Welt erheblich verbessern.“

Altmans Aufsatz enthält nur wenige technische Details und stellt einige allgemeine Behauptungen über KI auf:

  • KI ist der Höhepunkt „tausender Jahre wissenschaftlicher Entdeckungen und technologischen Fortschritts“, die in der Entdeckung und kontinuierlichen Verbesserung von Computerchips gipfeln.
  • Die Form der KI „Deep Learning“, die generative KI ermöglicht, hat trotz der Kommentare von Skeptikern sehr gut funktioniert.
  • Mit zunehmender Rechenleistung lösen Deep-Learning-Algorithmen weiterhin Probleme, sodass „KI mit zunehmender Skalierung besser wird.“
  • Es ist wichtig, die Computerinfrastruktur weiter zu verbessern, um KI möglichst vielen Menschen zugänglich zu machen.
  • KI wird keine Arbeitsplätze vernichten, aber sie wird die Schaffung neuer Arten von Arbeitsplätzen ermöglichen und zu wissenschaftlichen Fortschritten führen, die bisher unmöglich waren, sowie zu persönlichen Begleitern, wie zum Beispiel personalisierten Nachhilfelehrern für Studierende.

Altmans Aufsatz widerspricht vielen der weit verbreiteten Bedenken hinsichtlich der ethischen, sozialen und wirtschaftlichen Auswirkungen von KI, die in den letzten Jahren zugenommen haben.

Außerdem: Versuchen Sie, das neue o1-Modell von OpenAI zu knacken? Möglicherweise sind Sie blockiert

Die Vorstellung, dass verstärktes Rechnen zu einer Art Superintelligenz oder AGI führen wird, steht im Widerspruch zu den Schlussfolgerungen vieler KI-Akademiker, wie zum Beispiel des Kritikers Gary Marcus, der argumentiert, dass AGI oder etwas Ähnliches noch lange nicht erreicht ist, wenn überhaupt alles kann erreicht werden.

Altmans Idee, dass die Ausweitung der KI der wichtigste Weg zu einer besseren KI sei, ist umstritten. Der prominente KI-Experte und Unternehmer Yoav Shoham sagte letzten Monat gegenüber ZDNET, dass eine Ausweitung der Rechenleistung nicht ausreichen werde, um die KI zu verbessern. Stattdessen befürwortet Shoham eine wissenschaftliche Erforschung, die über Deep Learning hinausgeht.

Altmans optimistische Sichtweise erwähnt auch nicht die vielen Probleme der KI-Voreingenommenheit, die von Technologiewissenschaftlern angesprochen werden, noch erwähnt sie den Energieverbrauch von KI-Rechenzentren wächst schnell und viele glauben, dass dies ernsthafte Risiken für die Umwelt mit sich bringt.

Der Umweltaktivist Bill McKibbon zum Beispiel: habe geschrieben dass „es keine Möglichkeit gibt, erneuerbare Energien schnell genug aufzubauen, um diesen zusätzlichen Bedarf zu decken“ durch KI, und dass „wir in einer rationalen Welt angesichts eines Notfalls KI-Verbesserungen vorerst aufschieben würden.“

Auch: KI-Wissenschaftler: „Wir müssen über den Tellerrand großer Sprachmodelle hinausdenken“

Der Zeitpunkt von Altmans Aufsatz ist bemerkenswert, da er auf mehrere prominente Kritiken zur KI folgt, die kürzlich veröffentlicht wurden. Zu diesen Kritikpunkten gehört auch die von Marcus Das Silicon Valley zähmenIndonesisch: veröffentlicht diesen Monat von MIT PressUnd Schlangenöl-KIvon den Princeton-Informatikwissenschaftlern Arvind Narayanan und Sayash Kapoor, veröffentlicht diesen Monat von Princeton University Press.

Innen Das Silicon Valley zähmenMarcus warnt vor den enormen Risiken generativer KI-Systeme, die keinerlei gesellschaftlichen Kontrollen unterliegen:

Im schlimmsten Fall kann unzuverlässige und unsichere KI zu Massenkatastrophen führen, vom Chaos im Stromnetz bis hin zu versehentlichen Kriegen oder Amoklauf von Roboterflotten. Viele könnten ihren Job verlieren. Generative KI-Geschäftsmodelle ignorieren Urheberrecht, Demokratie, Verbrauchersicherheit und die Auswirkungen auf den Klimawandel. Und weil sie sich so schnell und ohne Aufsicht verbreitet, ist die generative KI im Wesentlichen zu einem riesigen, unkontrollierten Experiment an unserer gesamten Bevölkerung geworden.

Marcus warf Altman wiederholt vor, er nutze den Hype, um die Prioritäten von OpenAI hervorzuheben, insbesondere bei der Förderung der bevorstehenden Einführung von AGI. „Ein todsicherer Schachzug bestand darin, zu sagen, dass der OpenAI-Vorstand zusammentreten würde, um festzustellen, wann künstliche allgemeine Intelligenz ‚erreicht wurde‘“, schrieb Marcus über Altmans öffentliche Äußerungen.

„Und wenn überhaupt, haben nur wenige Altman gefragt, warum die wichtige wissenschaftliche Frage, wann AGI erreicht wird, vom Vorstand und nicht von der wissenschaftlichen Gemeinschaft ‚entschieden‘ wird.“

Außerdem: Wie gut ist der o1-Vorschaucode von OpenAI? Dieser Code hat alle vier meiner Tests bestanden – und zeigt, wie gut er funktioniert

In ihrem Buch AI-SchlangenölIn einer scharfen Verurteilung des KI-Hypes kritisierten Narayanan und Kapoor insbesondere Altmans öffentliche Äußerungen zur KI-Regulierung und warfen ihm vor, eine Form der Manipulation, bekannt als „Regulatory Capture“, zu betreiben, um tatsächliche Beschränkungen der Macht seines Unternehmens zu umgehen:

Anstatt sinnvolle Regeln für die Branche festzulegen, versucht das Unternehmen (OpenAI), die Konkurrenz zu belasten und gleichzeitig Änderungen an der eigenen Struktur zu vermeiden. Zigarettenunternehmen versuchten etwas Ähnliches, als sie sich in den 1950er und 60er Jahren dafür einsetzten, staatliche Maßnahmen gegen Zigaretten zu beenden.

Es bleibt abzuwarten, ob Altman seine öffentlichen Äußerungen über seine Website erweitern wird oder ob der Aufsatz nur ein Einzelstück ist, das möglicherweise anderen skeptischen Narrativen entgegenwirken soll.



Source link