/ en / Traditional / help

Beats Biblionetz - Begriffe

Model Autophagy Disorder (MAD)

Dieses Biblionetz-Objekt existiert erst seit Juni 2024. Es ist deshalb gut möglich, dass viele der eigentlich vorhandenen Vernetzungen zu älteren Biblionetz-Objekten bisher nicht erstellt wurden. Somit kann es sein, dass diese Seite sehr lückenhaft ist.

iconSynonyme

Model Autophagy Disorder, MAD

iconBemerkungen

Alles überall auf einmalUnd siehe da, es gibt auch den KI-Inzest, ein technisches Pendant. Eine Studie mit dem programmatischen Titel «Der Fluch der ewigen Wiederkehr» zeigt, dass KI-Modellen diese exponentielle Selbstverdauung nicht guttut. Sie kollabieren. Dieser Kollaps wird dadurch hervorgerufen, dass die Sprachmodelle im Verlauf der Zeit die Originaldaten unwiederbringlich vergessen, sodass die Modelle schlechter werden darin, gute und wirklichkeitsgetreue Inhalte zu produzieren, und immer mehr Fehler machen.
Von Miriam Meckel, Léa Steinacker im Buch Alles überall auf einmal (2024) im Text Zwischen Amnesie und Autonomie
Aber was, wenn KI aus Daten lernt, die Halluzinationen beinhalten? Nicolas Papernot von der Universität von Toronto, Kanada, hat gemeinsam mit anderen Forschern untersucht, was passiert, wenn KI von KI lernt. KI mit KI-generierten Daten zu trainieren, sei ein bisschen wie Fotokopien von Fotokopien machen, sagt er. Man entferne sich immer weiter vom Original. Er erklärt: «Stellen Sie sich vor, Sie bauen eine KI, die Bilder von Katzen generiert. Sie trainieren sie mit 100 Katzenbildern, davon sind zehn Katzen blau und 90 gelb. Wenn diese KI Katzenbilder generiert, werden die blauen Katzen gelblich aussehen, weil in den Übungsdaten viel mehr gelbe Katzen vorkommen. Wenn man aus diesen Katzenbildern ein neues KI-Modell macht, werden dessen blaue Katzen noch etwas gelber sein. Wenn man so weitermacht, wird die KI irgendwann gar keine blauen Katzen mehr erzeugen.» Papernot und seine Kollegen haben diesen Moment den «Kollaps des KIModells » getauft: den Punkt, ab dem die KI so viele Details verloren hat, dass ihre Erzeugnisse nicht mehr die Verteilungen der Realität widerspiegeln. «Dieser Effekt führt zu Ungenauigkeiten und zu Diskriminierung von Minderheiten», sagt Papernot.
Von Ruth Fulterer im Text Erstickt künstliche Intelligenz an sich selbst? (2024)

iconVerwandte Objeke

icon
Verwandte Begriffe
(co-word occurance)

iconHäufig co-zitierte Personen

Marius Hobbhahn Marius
Hobbhahn
Tamay Besiroglu Tamay
Besiroglu
Lennart Heim Lennart
Heim
Jaime Sevilla Jaime
Sevilla
Pablo Villalobos Pablo
Villalobos
Anson Ho Anson
Ho
Ross Anderson Ross
Anderson
Nicolas Papernot Nicolas
Papernot
Yarin Gal Yarin
Gal
Yiren Zhao Yiren
Zhao
Zakhar Shumaylov Zakhar
Shumaylov
Ilia Shumailov Ilia
Shumailov
OpenAI OpenAI

iconStatistisches Begriffsnetz  Dies ist eine graphische Darstellung derjenigen Begriffe, die häufig gleichzeitig mit dem Hauptbegriff erwähnt werden (Cozitation).

iconZitationsgraph

Diese Grafik ist nur im SVG-Format verfügbar. Dieses Format wird vom verwendeteten Browser offenbar nicht unterstützt.

Diese SVG-Grafik fensterfüllend anzeigen

iconZitationsgraph (Beta-Test mit vis.js)

iconErwähnungen  Dies ist eine nach Erscheinungsjahr geordnete Liste aller im Biblionetz vorhandenen Werke, die das ausgewählte Thema behandeln.

iconAnderswo suchen  Auch im Biblionetz finden Sie nicht alles. Aus diesem Grund bietet das Biblionetz bereits ausgefüllte Suchformulare für verschiedene Suchdienste an. Biblionetztreffer werden dabei ausgeschlossen.

iconBiblionetz-History Dies ist eine graphische Darstellung, wann wie viele Verweise von und zu diesem Objekt ins Biblionetz eingetragen wurden und wie oft die Seite abgerufen wurde.