Pause Giant AI ExperimentsAn Open Letter
Publikationsdatum:
|
![]() |

Abstracts
After the San Francisco start-up OpenAI released a new version of ChatGPT in March, more than 1,000 technology leaders and researchers signed an open letter calling for a six-month moratorium on the development of new systems because A.I. technologies pose “profound risks to society and humanity.”
From Cade Metz in the text «The Godfather of A.I.» Leaves Google and Warns of Danger Ahead (2023) 
Andere schauen weiter in die Zukunft. Sie warnen davor, was passieren könnte, wenn KI in der aktuellen Geschwindigkeit weiterentwickelt wird. Dann könnte sie aus deren Sicht genauso intelligent werden wie Menschen oder sogar noch intelligenter. Artificial general intelligence (AGI), nennen Forscher das, manche sprechen auch von starker KI oder von Superintelligenz.
Eine solche Intelligenz könnte uns Menschen "irgendwann überflügeln, überflüssig machen und ersetzen." Das schrieb jedenfalls eine Gruppe KI-Wissenschaftler und Techpromis vergangene Woche in einem offenen Brief. Sie forderten deshalb, entsprechende Systeme erst mal nicht weiterzuentwickeln, sondern stattdessen eine sechsmonatige Pause einzulegen. In dieser Pause sollten Sicherheitsmaßnahmen entwickelt werden, um sicherzustellen, dass eine eventuelle Superintelligenz der Menschheit bei der Lösung ihrer Probleme hilft – statt außer Kontrolle zu geraten und uns zu schaden.
From Eva Wolfangel in the text Wie nah sind wir an der Superintelligenz? (2023)
Comments
Bücher first.

Es geht darum, Öffentlichkeit und Politik auf das Problem aufmerksam zu machen. Die KI-Revolution geht in rasendem Tempo voran. Wir brauchen aber Zeit, um zu verstehen, was da passiert und um Regeln aufstellen zu können. Vielleicht können wir die Entwicklung wenigstens etwas verlangsamen.
From Yuval Noah Harari in the text «Künstliche Intelligenz ist gefährlicher als der Klimawandel» (2023) Leider absorbiert der offene Brief sehr viel Aufmerksamkeit, die bei anderen Fragen der KI-Debatte besser investiert wäre. Richtig ist, dass heute wohl niemand weiß, wie man extrem leistungsfähige KI-Systeme so trainieren kann, dass sie in jedem Fall zuverlässig, hilfreich, ehrlich und harmlos sind. Eine Pause beim Training von KI hilft diesem Ziel allerdings nicht. Allein schon, weil sich ein solches Moratorium nicht global durchsetzen ließe und die geforderten Regulierungen nicht innerhalb von nur sechs Monaten eingeführt werden könnten. Ich bin überzeugt, dass es eine schrittweise Weiterentwicklung von Technologien und parallel dazu die Anwendung und Anpassung von Kontrollmechanismen braucht.
From Urs Gasser in the text «Eine Pause beim Training von Künstlicher Intelligenz hilft nicht» (2023) Leider absorbiert der offene Brief sehr viel Aufmerksamkeit, die bei anderen Fragen der KI-Debatte besser investiertwäre. Richtig ist, dass heute wohl niemand weiß, wie man extrem leistungsfähige KI-Systeme so trainieren kann, dass siein jedem Fall zuverlässig, hilfreich, ehrlich und harmlos sind. Eine Pause beim Training von KI hilft diesem Ziel allerdings
Andreas Heddergott / TUM
nicht. Allein schon, weil sich ein solches Moratorium nicht global durchsetzen ließe und die geforderten Regulierungennicht innerhalb von nur sechs Monaten eingeführt werden könnten. Ich bin überzeugt, dass es eine schrittweiseWeiterentwicklung von Technologien und parallel dazu die Anwendung und Anpassung von Kontrollmechanismenbraucht.
From Urs Gasser in the text «Eine Pause beim Training von Künstlicher Intelligenz hilft nicht» (2023)
This position paper mentions...
This position paperdoes probably not mention... 
![]() Nicht erwähnte Begriffe | Bildung, Chat-GPT, Generative Pretrained Transformer 3 (GPT-3), GMLS & Bildung |
Tagcloud
Talks by Beat mentioning
Citation Graph
Citation Graph(Beta-Test mit vis.js)
Timeline
9 References 
- Pausing AI Developments Isn't Enough. We Need to Shut it All Down (Eliezer Yudkowsky) (2023)
- The ChatGPT King Isn’t Worried, but He Knows You Might Be (Cade Metz) (2023)
- «Eine Pause beim Training von Künstlicher Intelligenz hilft nicht» (Urs Gasser) (2023)
- Wie nah sind wir an der Superintelligenz? (Eva Wolfangel) (2023)
- «Künstliche Intelligenz ist gefährlicher als der Klimawandel» (Yuval Harari, Rico Bandle) (2023)
- «The Godfather of A.I.» Leaves Google and Warns of Danger Ahead (Cade Metz) (2023)
- «Jeder muss ein Picasso werden» (Martin Vetterli, Hannes Grassegger) (2023)
- c't KI-Praxis (2023)
- Systemsprenger (Andrea Trinkwalder) (2023)
- Systemsprenger (Andrea Trinkwalder) (2023)
- Im Silicon Valley regiert der effektive Altruismus (Ruth Falterer) (2023)
Fulltext of this document
![]() | ![]() ![]() ![]() ![]() ![]() |
Search at other places 
Beat and dieses Positionspapier
Beat hat Dieses Positionspapier während seiner Zeit am Institut für Medien und Schule (IMS) ins Biblionetz aufgenommen. Beat besitzt kein physisches, aber ein digitales Exemplar. Eine digitale Version ist auf dem Internet verfügbar (s.o.). Beat hat Dieses Positionspapier auch schon in Vorträgen erwähnt.
Biblionetz-History 
default2
default3
default3