Die sieben Todsünden der Prognosen über die Zukunft der KI
Ein langer, schlauer Text des MIT-Professors Rodney Brooks, der gängige Annahmen zur Künstlichen Intelligenz auseinanander nimmt.
In Kürze auf diesem Bild:
A.I. Is Our Future. What Happens When the Data It’s Trained on Is Biased and Old?
Algorithmen können unfair sein und gesellschaftliche Vorurteile weitertragen. Das sagt sich leicht, aber wie funktioniert das konkret? Zum Beispiel über die Trainingsdaten. Ein häufig benutzter Datensatz, um E-Mails zu analysieren, sind Mails der Firma Enron. Also derjenigen Firma, die noch immer als der Inbegriff des Bilanzbetrugs gilt. Die Mails hat 2003 die amerikanische Federal Energy Regulatory Commission veröffentlicht: 1,6 Millionen E-Mails zwischen Enron-Mitarbeitern.
„If you think there might be significant biases embedded in emails sent among employees of a Texas oil-and-gas company that collapsed under federal investigation for fraud stemming from systemic, institutionalized unethical culture, you’d be right. (…) Researchers have used the Enron emails specifically to analyze gender bias and power dynamics.“ In other words, the most popular email data set for training A.I. has also been recognized by researchers as something that’s useful for studying misogyny, and our machines may be learning to display the same toxic masculinity as the Enron execs.
Googles „Top Stories“-Box, ganz oben unten dem Suchfenster, ist für Nachrichten gedacht. Wenn dort ein Link zu 4chan erscheint, einer Seite, die – nun ja – nicht gerade für validierte Informationen steht, dann ist etwas schief gelaufen. Googles Reaktion? Der Algorithmus war schuld. „Blaming the algorithm has gotten pretty common“, heißt es bei The Outline. Doch das ist falsch: Der Algorithmus, die Anweisung an den Computer hat funktioniert, er kann ausgeführt werden. Das Problem sind die Annahmen dahinter:
A truly faulty algorithm would be like a computer program that does not compile or catches itself in an infinite loop. These algorithms are executing; they are doing what they were designed to do. The problem is that they are not designed to exclude misinformation or account for bias.
So lässt sich die potenzielle Wirkung algorithmischer Entscheidungen bestimmen
Wie groß ist der Einfluss von Algorithmen auf die Gesellschaft? Und wie groß soll deshalb im Umkehrschluss die gesellschaftliche Teilhabe sein? Bei „Algorithmenethik“, einer Webseite der Bertelsmann Stiftung, haben sich zwei Wissenschaftler an einem Index versucht. Das Prinzip: je höher der Einfluss der Akteure, je stärker die soziale Einbettung und je gewichtiger die Konsequenzen, desto höher ist das Teilhabewirkungspotenzial.