aufgelistet.
Amazons-KI-Bewerbungsverfahren | Amazon hat mittels maschinellem Lernen einen Algorithmus konzipiert, der Bewerber, männlich oder weiblich, für Stellungen in der Softwareentwicklung und anderen Jobs der Digitalbranche auf der Grundlage ihrer Profile bewertet. Man stellte sich vor, das System mit einigen hundert Profilen zu füttern und dann die fünf besten zu erhalten, die dann eingestellt würden. Zu ihrer Überraschung »mochte« die Maschine keine Frauen. Abermals befand sich der Bias in den Daten, der die Profile aller Bewerber der letzten zehn Jahre enthielt, wobei die Männer die weit überwiegende Mehrheit stellten. Als man die Vornamen aus den Bewerbungen entfernte, brachte das nicht viel; die KI fand andere Wege, etwa indem sie das Geschlecht aus einem Abschluss an einem reinen Frauencollege schloss.
|
Defensives Entscheiden | |
dread-risk-bias | |
Fehlerkultur (positive) | |
Google Flu | 2008 gaben Medien in aller Welt mit großer Aufmachung bekannt, dass Google-Ingenieure eine weit schnellere Methode gefunden hätten, die Ausbreitung der Grippe vorherzusagen. Die Idee schien vernünftig zu sein. Nutzer, die sich mit der Grippe angesteckt haben, gehen gewöhnlich auf die Google-Suchmaschine, um ihre Symptome zu diagnostizieren und nach Abhilfe zu suchen. Diese Suchen, so die These, könnten erkennen lassen, wo sich die Grippe ausbreitet. Um die entsprechenden Suchanfragen herauszufiltern, analysierten die Ingenieure rund 50 Millionen Suchbegriffe und berechneten, welche von ihnen mit der Grippe assoziiert waren. Dann testeten sie 450 Millionen verschiedene Modelle, um das beste herauszufinden. Das Ergebnis war ein geheimer Algorithmus, der 45 (ebenfalls geheime) Suchbegriffe verwendete. Mit diesem Algorithmus wurden dann täglich und wöchentlich die grippebezogenen Arztbesuche vorhergesagt.
|
reinforcement learning | Das verstärkte Lernen (reinforcement learning), findet etwa bei Spielen wie Go statt, bei denen das Netz nicht nach jedem Zug Feedback erhält, sondern erst am Ende des Spiels. In diesem Fall kennt das Netz nur die Spielregeln und das Ziel, muss also einen eigenen Weg finden, um dorthin zu gelangen.
|
Risiko | Die Unterscheidung, die ich treffe, entspricht derjenigen zwischen Risiko und Ungewissheit, die ursprünglich von dem Wirtschaftswissenschaftler Frank Knight stammt. In Risikosituationen, wie beispielsweise dem Roulette, kennen wir alle denkbaren Ergebnisse (die Zahlen von 0 bis 36) im Voraus sowie ihre Konsequenzen und Wahrscheinlichkeiten. Dagegen können wir in Situationen der Ungewissheit nicht alle Resultate oder deren Konsequenzen schon im Vorfeld wissen. Das ist der Fall, wenn man einen Mitarbeiter einstellt, ein Start-up gründet oder die Infektionsraten von Grippe oder Covid-19 vorhersagt. Ich verwende diesen Begriff für eine Welt, in der alle Alternativen, Folgen und Wahrscheinlichkeiten bekannt sind. Das gilt beispielsweise für Lotterien und Glücksspiele.
|
Risikokompetenz | Wenn ich den allgemeineren Begriff »risikokompetent« (risk savvy) verwende, meine ich damit mehr als Risikointelligenz, nämlich die Fähigkeit, auch mit Situationen umzugehen, in denen nicht alle Risiken bekannt sind und berechnet werden können.
|
Solutionism | Technologischer Solutionismus ist die Überzeugung, dass jedes gesellschaftliche Problem eine »Störung« sei und durch einen Algorithmus »behoben« werden müsse. Technologischer Solutionismus ist die Überzeugung, dass jedes gesellschaftliche Problem eine »Störung« sei und durch einen Algorithmus »behoben« werden müsse. von Gerd Gigerenzerim Buch Klick (2021)
|
supervised learning | Überwachtes Lernen (supervised learning) ist am bekanntesten und verdankt seinen Namen dem Umstand, dass es einen »Lehrer« gibt, der Feedback in der Form von richtig/falsch liefert. Anders als in der psychologischen KI liefert der Lehrer aber keine Regeln. Überwachtes Lernen wird zur Erkennung von Objekten wie Schulbussen und Verkehrsschildern verwendet. Damit es richtig lernen kann, bekommt das Netz Tausende oder sogar Millionen von Fotografien sowie ihre richtigen Klassifizierungen und lernt dann eine Funktion, die den Input so korrekt wie möglich in den Output transformiert.
|
Truthahn-Illusion | Versetzen Sie sich in die Gemütsverfassung eines Truthahns. Am ersten Tag Ihres Lebens kam ein Mann. Sie befürchteten, er wolle Sie töten, aber er war freundlich und gab Ihnen Futter. Am folgenden Tag näherte sich der Mann erneut. Wird er mich wieder füttern? Nach der Wahrscheinlichkeitstheorie können Sie berechnen, wie groß die Aussicht dafür ist. Die Laplace-Regel, so benannt, weil der bedeutende Mathematiker Pierre Simon de Laplace sie abgeleitet hat, liefert die Antwort: Wahrscheinlichkeit, dass etwas abermals geschieht, wenn es schon n Male vorher geschehen ist = (n+1)/(n+2). Hier ist n die Zahl der Tage, die der Bauer Sie gefüttert hat. Das heißt, nach dem ersten Tag beträgt die Wahrscheinlichkeit, dass der Bauer Sie am nächsten Tag füttern wird, 2/3, nach dem zweiten Tat steigt sie auf 3/4 und so fort, sodass die Gewissheit mit jedem Tag zunimmt. Gleichzeitig wird die Alternative, dass er Sie töten könnte, immer unwahrscheinlicher. Am Tag 100 ist es fast gewiss, dass der Bauer kommt, um Sie zu füttern – das könnten Sie jedenfalls meinen. Was Sie nicht wissen: Dieser Tag ist der Tag vor Thanksgiving. Ausgerechnet an dem Tag, an dem die Wahrscheinlichkeit gefüttert zu werden, größer als je zuvor ist, kommen Sie unters Beil.
|
Ungewissheit | Die Unterscheidung, die ich treffe, entspricht derjenigen zwischen Risiko und Ungewissheit, die ursprünglich von dem Wirtschaftswissenschaftler Frank Knight stammt. In Risikosituationen, wie beispielsweise dem Roulette, kennen wir alle denkbaren Ergebnisse (die Zahlen von 0 bis 36) im Voraus sowie ihre Konsequenzen und Wahrscheinlichkeiten. Dagegen können wir in Situationen der Ungewissheit nicht alle Resultate oder deren Konsequenzen schon im Vorfeld wissen. Das ist der Fall, wenn man einen Mitarbeiter einstellt, ein Start-up gründet oder die Infektionsraten von Grippe oder Covid-19 vorhersagt.
|
unsupervised learning | Unüberwachtes Lernen (unsupervised learning) findet ohne Feedback statt. Beispielsweise sucht das Netz nach Ähnlichkeiten in Bildern und erzeugt Klassen von ähnlichen Bildern. Diese Form des Lernens ist wie ein Blick in den Nachthimmel, bei dem man ohne die geringste Ahnung von Astronomie nach Mustern sucht.
|