Model Autophagy Disorder (MAD)
Dieses Biblionetz-Objekt existiert erst seit Juni 2024.
Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden.
Somit kann es sein, dass diese Seite sehr lückenhaft ist.
Synonyme
Model Autophagy Disorder, MAD
Bemerkungen
Und siehe da, es gibt auch den KI-Inzest, ein technisches Pendant. Eine
Studie mit dem programmatischen Titel «Der Fluch der ewigen Wiederkehr»
zeigt, dass KI-Modellen diese exponentielle Selbstverdauung nicht guttut.
Sie kollabieren. Dieser Kollaps wird dadurch hervorgerufen, dass die
Sprachmodelle im Verlauf der Zeit die Originaldaten unwiederbringlich
vergessen, sodass die Modelle schlechter werden darin, gute und
wirklichkeitsgetreue Inhalte zu produzieren, und immer mehr Fehler machen.
Von Miriam Meckel, Léa Steinacker im Buch Alles überall auf einmal (2024) im Text Zwischen Amnesie und Autonomie Aber was, wenn KI aus Daten
lernt, die Halluzinationen beinhalten?
Nicolas Papernot von der Universität
von Toronto, Kanada, hat gemeinsam
mit anderen Forschern untersucht, was
passiert, wenn KI von KI lernt. KI mit
KI-generierten Daten zu trainieren, sei
ein bisschen wie Fotokopien von Fotokopien
machen, sagt er. Man entferne
sich immer weiter vom Original.
Er erklärt: «Stellen Sie sich vor, Sie
bauen eine KI, die Bilder von Katzen
generiert. Sie trainieren sie mit 100 Katzenbildern,
davon sind zehn Katzen
blau und 90 gelb. Wenn diese KI Katzenbilder
generiert, werden die blauen
Katzen gelblich aussehen, weil in den
Übungsdaten viel mehr gelbe Katzen
vorkommen. Wenn man aus diesen Katzenbildern
ein neues KI-Modell macht,
werden dessen blaue Katzen noch etwas
gelber sein. Wenn man so weitermacht,
wird die KI irgendwann gar keine blauen
Katzen mehr erzeugen.»
Papernot und seine Kollegen haben
diesen Moment den «Kollaps des KIModells
» getauft: den Punkt, ab dem
die KI so viele Details verloren hat, dass
ihre Erzeugnisse nicht mehr die Verteilungen
der Realität widerspiegeln. «Dieser
Effekt führt zu Ungenauigkeiten und
zu Diskriminierung von Minderheiten»,
sagt Papernot.
Von Ruth Fulterer im Text Erstickt künstliche Intelligenz an sich selbst? (2024) Verwandte Objeke
Verwandte Begriffe (co-word occurance) |
Häufig co-zitierte Personen
Marius
Hobbhahn
Hobbhahn
Tamay
Besiroglu
Besiroglu
Lennart
Heim
Heim
Jaime
Sevilla
Sevilla
Pablo
Villalobos
Villalobos
Anson
Ho
Ho
Ross
Anderson
Anderson
Nicolas
Papernot
Papernot
Yarin
Gal
Gal
Yiren
Zhao
Zhao
Zakhar
Shumaylov
Shumaylov
Ilia
Shumailov
Shumailov
OpenAI
Statistisches Begriffsnetz
Zitationsgraph
Zitationsgraph (Beta-Test mit vis.js)
4 Erwähnungen
- The Curse of Recursion - Training on Generated Data Makes Models Forget (Ilia Shumailov, Zakhar Shumaylov, Yiren Zhao, Yarin Gal, Nicolas Papernot, Ross Anderson) (2023)
- Self-Consuming Generative Models Go MAD (Sina Alemohammad, Josue Casco-Rodriguez, Lorenzo Luzi, Ahmed Imtiaz Humayun, Hossein Babaei, Daniel LeJeune, Ali Siahkoohi, Richard G. Baraniuk) (2023)
- Alles überall auf einmal - Wie Künstliche Intelligenz unsere Welt verändert und was wir dabei gewinnen können (Miriam Meckel, Léa Steinacker) (2024)
- 6. Zwischen Amnesie und Autonomie - Wenn Bots mit Bots sprechen
- Erstickt künstliche Intelligenz an sich selbst? (Ruth Fulterer) (2024)