KI mit diverseren Daten verbessern

Think:Act Magazin "KI neu denken"
KI mit diverseren Daten verbessern

15. Mai 2024

Vorstoß für eine faire Repräsentation benachteiligter Bevölkerungsgruppen in KI-Datensätzen

Interview

von Grace Browne
Kunstwerk von Carsten Gueth

Die Datensätze, mit denen wir heute unsere KI-Systeme füttern, werden deren ideologische Ausrichtung für die nächsten Jahrzehnte bestimmen. Lange Zeit ging man davon aus, die Datenmengen seien so riesig, dass sie selbst für hinreichend Vielfalt in den Algorithmen sorgen. Heute weiß man es besser. Die Frage ist nun, wie eine von Vorurteilen geprägte Gesellschaft KI-Technologien größtmögliche Neutralität vermitteln kann.

Gut zu wissen
Vorurteile verfestigen sich:

Werden Vorurteile in Algorithmen nicht überprüft, können sie zu mehr strukturellem Rassismus und Sexismus beitragen.

Es beginnt an der Spitze:

Systemische Vorurteile stammen oft aus den oberen und wenig diversen Hierarchieebenen der Tech-Industrie.

Schaffen sie Problembewusstsein:

Tendenziöse KI-Systeme sind keine dystopische Zukunftsvision. Die Vorurteile stecken längst in den Systemen.

Timnit Gebru war 2018 eine der führenden Expertinnen für ethische Fragen im Bereich der Künstlichen Intelligenz (KI). Mit ihrer richtungsweisenden Arbeit im damals noch jungen Forschungsgebiet Ethische KI zeigte die Informatikerin, dass es sich bei KI-Systemen nicht einfach nur um einen objektiven Algorithmus in der Cloud handelt, sondern dass wir es mit voreingenommenen Systemen zu tun haben, die unbeabsichtigte Konsequenzen nach sich ziehen können. Die in Äthiopien geborene Forscherin fand heraus, dass Technologien zur Gesichtserkennung bei Frauen mit dunkler Hautfarbe wegen nicht repräsentativer Trainingsdaten eine höhere Fehlerquote aufwiesen als bei hellhäutigen.

Noch im selben Jahr wurde Gebru von Google angeworben. Doch ihre Zeit als Co-Leiterin der Abteilung für Ethik in der KI verlief nicht reibungslos. Im Dezember 2020 wurde Gebru entlassen. Google beharrt darauf, sie habe gekündigt. Zuvor war von ihr verlangt worden, ein Positionspapier zurückzuziehen, in dem sie Tech-Unternehmen aufforderte, mehr zu tun, damit KI-Systeme Vorurteile nicht verstärken. Gebru hatte außerdem eine Rundmail verschickt, in der sie Praktiken des Konzerns beim Anheuern von Minderheiten kritisierte. Mehr als 1.500 Google-Mitarbeiter unterzeichneten einen offenen Solidaritätsaufruf.

29%: Zuwachs an Afroamerikanern in den USA, die mehr Pflegeleistungen bekämen, wenn algorithmische Fehlsteuerungen bei der Verteilung medizinischer Leistungen beseitigt würden.

Quelle: Science

Die Markteinführung von ChatGPT Ende 2022 läutete eine neue Ära generativer KI-Systeme ein, die Inhalte wie Texte, Bilder und Videos erstellen können. "Dieser Wandel markiert den bedeutsamsten technologischen Durchbruch seit den sozialen Medien", schrieb das US-Magazin Time. Gebrus Geschichte ist dabei zu einem Symbol für die Weigerung von Tech-Konzernen geworden, sich mit den Risiken auseinanderzusetzen, die in ihren Algorithmen lauern.

Algorithmen steuern heute unser Leben weitaus stärker, als vielen bewusst ist. KI-Systeme verbreiten sich in öffentlichen und sozialen Bereichen, etwa bei der Verwaltung von Sozialleistungen oder bei der Polizei. Früher glaubte man noch, dass die Datensätze, mit denen KIs trainiert werden, so riesig sind, dass sich alle Verzerrungen von selbst ausgleichen. Diese Annahme hat sich inzwischen als falsch herausgestellt. Dass Algorithmen die Vorurteile ihrer menschlichen Trainer übernehmen, konnte sich in den 2010er-Jahren keiner vorstellen. Forscher wie Gebru haben dafür gesorgt, dass das mittlerweile allgemein anerkannt wird. Algorithmen, die nicht richtig kontrolliert werden, können zum Beispiel Sexismus oder Rassismus verfestigen.

Rashida Richardson

Rashida Richardson ist Expertin für Technologiepolitik und erforscht die sozialen und bürgerrechtlichen Auswirkungen von KI-Systemen.

Die US-Anwältin Rashida Richardson beschäftigt sich mit Bürgerrechtsfragen wie der Reform des Strafjustizsystems. Sie stellte fest, dass Routinearbeiten im Justizsystem zunehmend von Algorithmen erledigt werden. Tech-Firmen boten der öffentlichen Verwaltung Software an, mit der diese ihre Personalengpässe lindern konnte. Richardson war sofort skeptisch. Sie beschloss, einige der Unternehmen und ihre vollmundigen Versprechungen unter die Lupe zu nehmen. Die Juristin konzentrierte sich dabei auf eine der wichtigsten Anwendungen von maschinellem Lernen – auf sogenannte "Predictive Policing" Systeme, die auf der Basis historischer Kriminalitätsdaten vorhersagen, wo künftig Straftaten zu erwarten sind oder wer daran beteiligt sein könnte.

Richardson untersuchte mit Kollegen 13 US-Gerichtsbezirke, die Vorhersagende Polizeiarbeit praktizieren. Ihr Ergebnis: Neun von ihnen trainierten Algorithmen auf der Grundlage von Daten, die aus illegalen Polizeipraktiken oder "schmutzigen Datensammlungen" stammen.

Dazu zählen etwa gefälschte Daten, die einen Rückgang der Kriminalitätsrate vortäuschen, oder Fälle, bei denen Unschuldigen Drogen untergeschoben wurden. Das Risiko liegt auf der Hand: Insbesondere Minderheiten geraten in Gefahr, von Polizeibehörden verstärkt ins Visier genommen zu werden.

"Niemand will zugeben, wie anspruchsvoll es ist, einige dieser offenen Fragen zu beantworten. Obwohl die Dringlichkeit zunimmt."
Portrait of Rashida Richardson

Rashida Richardson

Expertin für Technologiepolitik

Predictive Policing ist indes nur ein Bereich, in dem Algorithmen ihre Vorurteile offenbaren und Schaden anrichten. Ein weiteres Beispiel ist das Gesundheitswesen. KI soll medizinische Behandlungen schneller, besser und kostengünstiger machen. Aber auch hier haben Forschungsarbeiten gezeigt: Eine KI, die nicht sorgfältig entwickelt wurde, kann rassistische Vorurteile verstärken.

Ein Beitrag in der Fachzeitschrift Science deckte 2019 auf, dass ein in US-Krankenhäusern weitverbreiteter Algorithmus schwarze Menschen klar diskriminierte. Die Software entschied mit darüber, wer in Behandlungsprogramme für Hochrisikopatienten aufgenommen werden sollte und wer nicht. Der Algorithmus bevorzugte systematisch gesündere weiße Patienten gegenüber schwarzen Menschen mit größeren Gesundheitsproblemen. Und dabei ging es keineswegs um Einzelfälle: Der Algorithmus übte seinen diskriminierenden Einfluss Jahr für Jahr auf die medizinische Behandlung von rund 200 Millionen Menschen aus.

Eine andere Arbeit aus dem Jahr 2022 befasst sich mit Bilderkennungstechnologien zur Diagnose von Hautkrebs. Als die Forscher die Datensätze untersuchten, mit denen die KI trainiert wurde, stellten sie fest, dass es kaum Bilder von Menschen mit dunkler Hautfarbe gab. Die meisten Datensätze enthielten ausschließlich Bilder aus Europa, Nordamerika und Ozeanien. "Diese Ergebnisse verdeutlichen die Gefahren, die mit dem Einsatz von Algorithmen in großen Bevölkerungsgruppen einhergehen, wenn die Datensätze nicht transparent sind", bilanzierten die Autoren.

Abstraktes Design in Neonfarben von Carsten Gueth

Mark Yatskar, der an der University of Pennsylvania zum Thema Fairness beim maschinellen Lernen forscht, ist skeptisch, dass es echte Fortschritte in der Tech-Industrie geben wird. Für ihn liegt ein Teil des Problems darin begründet, dass Wissenschaftler, die maschinelles Lernen erforschen, kaum an die Nutzer denken. Von ihnen faire, ethisch unbedenkliche Systeme zu fordern, sei keine Lösung, weil sie ihre Systeme selbst nicht nutzten. Es sei zwar einfach, nach mehr Regulierung zu rufen, sagt Yatskar. Doch auch das hält er nicht für die passende Lösung. Wissenschaftler, so sein Argument, könnten sich kaum auf eine einheitliche Vorstellung oder auch nur Definition von Fairness verständigen. Ein Programmcode, der für den einen Forscher ein fairer Algorithmus sein mag, kann aus der Sicht eines anderen eine ganze Reihe von Problemen enthalten.

Timnit Gebru

Timnit Gebru ist eine politische Aktivistin und Informatikerin, die sich auf algorithmische Verzerrungen spezialisiert hat. Sie setzt sich mit dem Institut DAIR für mehr Vielfalt in KI-Systemen ein.

Vollständige Transparenz sollte besser funktionieren, meint Mark Yatskar. In einem Audit könnten Forscher Dateneingaben, Ergebnisse und den Programmcode eines Algorithmus analysieren. Verzerrungen, die nicht auszumerzen seien, könnten von den Wissenschaftlern in einer Erklärung veröffentlicht werden. Ein weiteres großes Problem ist die Datenbasis. Algorithmen werden meist von Unternehmen trainiert, die ihre Datenquellen geheim halten. Das Überprüfen der Algorithmen wird für die Forscher dadurch erheblich erschwert.

Schließlich kommt man auch nicht an dem Befund vorbei, dass zumindest ein Teil der Vorurteile, die in die KI-Systeme einfließen, aus den oberen Etagen der Tech-Konzerne stammen. Die Beschäftigten in der KI-Industrie sind mehrheitlich weiß und männlich.

Ein Bericht aus dem Jahr 2019 zeigt auf, dass 80 % der KI-Professoren Männer sind. Bei Facebook sind nur 15 % der KI-Forscher Frauen. Bei Google sind es sogar nur 10 %. "Die Vielfalt an Erfahrungen ist eine Grundvoraussetzung für KI-Entwickler, um den Schaden, den sie verursachen, zu erkennen und zu verringern", schreiben die Autoren. Richardson, Technologieberaterin für das Weiße Haus und die Federal Trade Commission, betont, es gebe keine klare Lösung, diese Technologien zu regulieren. Den politischen Entscheidungsträgern fehle schlicht das technische Verständnis.

"Wir sollten auf die Ausbeutungspraxis mancher Konzerne achten. Sie häufen immer mehr Macht an und verstärken soziale Ungleichheiten."
Portrait of Timnit Gebru

Timnit Gebru

Gründerin
DAIR

Die Probleme sind in ihren Augen systembedingt und deshalb viel schwieriger zu lösen, als einen Algorithmus "einfach fair zu machen". Wie sollen wir einen unvoreingenommenen Algorithmus entwickeln, wenn die Menschen selbst Vorurteile haben? "Man kann diesen sozialen Aspekt nicht abkoppeln. Und wir wissen einfach nicht, wie wir mit diesen Problemen umgehen sollen", sagt Richardson. "Das sind komplexe Probleme, mit denen sich Politiker nur ungern befassen."

Je mehr wir uns eingestehen, dass diese Technologien nicht unvoreingenommen arbeiten, desto besser. Doch obwohl das Problembewusstsein in den vergangenen Jahren gewachsen ist, weiß niemand so recht, was zu tun ist. "Niemand will zugeben, wie anspruchsvoll es ist, einige dieser offenen Fragen zu beantworten", sagt Richardson. "Obwohl die Dringlichkeit zunimmt."

Nach ihrem Weggang von Google gründete Timnit Gebru das Distributed AI Research Institute (DAIR), ein unabhängiges KI-Forschungsinstitut, das sich auf unterschiedliche Perspektiven der KI-Forschung konzentriert. Dabei wird sie nicht müde, weiterhin eindringlich auf mögliche schädliche Einflüsse von KI aufmerksam zu machen.

Tausende Menschen, darunter Elon Musk und Apple-Mitgründer Steve Wozniak, unterzeichneten im März 2023 einen offenen Brief, in dem sie eine KI-Entwicklungspause forderten. So sollen dystopische Bedrohungen wie der "Verlust der Kontrolle über unsere Zivilisation" eingedämmt werden. Gebru und andere KI-Ethiker widersprachen. Sie argumentierten, der Aufruf erwähne die tatsächlichen KI-Schäden überhaupt nicht. "Ja, es ist in der Tat an der Zeit zu handeln", schrieben sie. "Aber unsere Sorge sollte sich nicht auf imaginäre 'übermächtige digitale Hirne' konzentrieren. Stattdessen sollten wir auf die sehr realen Ausbeutungspraktiken der Unternehmen achten, die vorgeben, solche künstlichen Super-Intelligenzen zu entwickeln, während sie in Wahrheit immer mehr Macht anhäufen und soziale Ungleichheiten verstärken."

ÜBER DIE AUTORIN
Portrait of Grace Browne
Grace Browne
Grace Browne arbeitet als freiberufliche Journalistin in den Bereichen Wissenschaft und Gesundheit. Zuvor war sie Mitarbeiterin des Magazins WIRED. Ihre Artikel erschienen unter anderem in New Scientist, Undark, BBC Future und im Hakai Magazine. Für ihre Arbeit wurde sie bei den The Press Awards 2022 als Gesundheitsjournalistin des Jahres und bei den British Society of Magazine Editors Talent Awards 2023 als beste Fachjournalistin nominiert. Sie lebt in London.
Alle Online-Veröffentlichungen dieser Ausgabe
Mehr
Portrait of Think:Act Magazine

Think:Act Magazine

München Office, Zentraleuropa