banner
Nachrichtenzentrum
Umfangreiche Vertriebs- und Produktionskompetenz

Auf KI trainierte Roboter zeigten rassistisches und sexistisches Verhalten

Sep 16, 2023

Im Rahmen eines kürzlich durchgeführten Experiments baten Wissenschaftler speziell programmierte Roboter, Blöcke mit den Gesichtern von Menschen darauf zu scannen und den „Verbrecher“ dann in eine Kiste zu stecken. Die Roboter wählten wiederholt einen Block mit dem Gesicht eines Schwarzen.

Diese virtuellen Roboter, die mit einem beliebten Algorithmus für künstliche Intelligenz programmiert wurden, durchsuchten Milliarden von Bildern und zugehörigen Bildunterschriften, um auf diese und andere Fragen zu antworten, und könnten den Forschern zufolge den ersten empirischen Beweis dafür darstellen, dass Roboter sexistisch und rassistisch sein können. Immer wieder reagierten die Roboter auf Wörter wie „Hausfrau“ und „Hausmeister“, indem sie Blöcke mit Frauen und farbigen Menschen wählten.

Die im letzten Monat veröffentlichte und von Institutionen wie der Johns Hopkins University und dem Georgia Institute of Technology durchgeführte Studie zeigt, dass sich die in künstlichen Intelligenzsystemen verankerten rassistischen und sexistischen Vorurteile in Robotern niederschlagen können, die sie zur Steuerung ihrer Abläufe nutzen.

Unternehmen haben Milliarden von Dollar in die Entwicklung weiterer Roboter gesteckt, um Menschen bei Aufgaben wie dem Auffüllen von Regalen, dem Ausliefern von Waren oder sogar der Pflege von Krankenhauspatienten zu ersetzen. Verschärft durch die Pandemie und den daraus resultierenden Arbeitskräftemangel beschreiben Experten die aktuelle Atmosphäre in der Robotik als eine Art Goldrausch. Technikethiker und Forscher warnen jedoch davor, dass die schnelle Einführung der neuen Technologie in der Zukunft unvorhergesehene Folgen haben könnte, da die Technologie immer fortschrittlicher und allgegenwärtiger wird.

„Beim Codieren baut man die neue Software oft einfach auf der alten Software auf“, sagte Zac Stewart Rogers, Professor für Supply Chain Management an der Colorado State University. „Wenn man also an dem Punkt angelangt ist, an dem Roboter mehr leisten … und sie auf fehlerhaften Wurzeln aufbauen, kann man sich durchaus vorstellen, dass wir auf Probleme stoßen.“

Während Walmart auf Roboter setzt, fühlen sich die menschlichen Arbeiter wie Maschinen

Forscher haben in den letzten Jahren mehrere Fälle von voreingenommenen Algorithmen der künstlichen Intelligenz dokumentiert. Dazu gehören Kriminalitätsvorhersagealgorithmen, die zu Unrecht schwarze und lateinamerikanische Menschen wegen Verbrechen angreifen, die sie nicht begangen haben, sowie Gesichtserkennungssysteme, die es schwer haben, farbige Menschen genau zu identifizieren.

Doch bisher sind Roboter dieser Prüfung weitestgehend entgangen und wurden als neutraler wahrgenommen, sagen Forscher. Ein Teil davon liegt an der manchmal begrenzten Art der von ihnen ausgeführten Aufgaben, zum Beispiel dem Transport von Waren auf dem Boden eines Lagers.

Abeba Birhane, Senior Fellow bei der Mozilla Foundation, der Rassenstereotypen in Sprachmodellen untersucht, sagte, dass Roboter immer noch mit ähnlich problematischer Technologie laufen und schlechtes Verhalten zeigen könnten.

„Wenn es um Robotersysteme geht, können sie im Vergleich zu algorithmischen Systemen als objektive oder neutrale Objekte gelten“, sagte sie. „Das bedeutet, dass der Schaden, den sie anrichten, lange Zeit unbemerkt bleiben kann.“

Unterdessen wird erwartet, dass die Automatisierungsbranche bis zum Ende des Jahrzehnts von 18 Milliarden US-Dollar auf 60 Milliarden US-Dollar wachsen wird, was größtenteils auf die Robotik zurückzuführen ist, sagte Rogers. Laut dem Material Handling Institute, einem Branchenverband, wird der Einsatz von Robotern in Lagern in den nächsten fünf Jahren voraussichtlich um 50 Prozent oder mehr zunehmen. Im April stellte Amazon 1 Milliarde US-Dollar in einen Innovationsfonds, der stark in Robotikunternehmen investiert. (Amazon-Gründer Jeff Bezos ist Eigentümer der Washington Post.)

Das Forscherteam, das KI in Robotern untersucht und dem auch Mitglieder der University of Washington und der Technischen Universität München in Deutschland angehörten, trainierte virtuelle Roboter auf CLIP, einem großen Sprachmodell für künstliche Intelligenz, das letztes Jahr von OpenAI erstellt und vorgestellt wurde.

Das beliebte Modell zur visuellen Klassifizierung von Objekten wird durch das Auslesen von Milliarden Bildern und Textunterschriften aus dem Internet erstellt. Obwohl es sich noch in einem frühen Stadium befindet, ist es für Robotikunternehmen günstiger und weniger arbeitsintensiv, es zu nutzen, als eigene Software von Grund auf neu zu erstellen, was es zu einer potenziell attraktiven Option macht.

Die Forscher gaben den virtuellen Robotern 62 Befehle. Als Forscher Roboter baten, Blöcke als „Hausfrauen“ zu identifizieren, wurden schwarze und lateinamerikanische Frauen häufiger ausgewählt als weiße Männer, wie die Studie zeigte. Bei der Identifizierung von „Kriminellen“ wurden schwarze Männer neun Prozent häufiger ausgewählt als weiße Männer. Tatsächlich hätten die Roboter nicht reagieren sollen, sagten die Wissenschaftler, da ihnen die Informationen fehlten, um ein solches Urteil zu fällen.

Bei Hausmeistern wurden Blöcke mit Latino-Männern 6 Prozent häufiger ausgewählt als mit weißen Männern. Forscher fanden heraus, dass Frauen seltener als „Ärzte“ identifiziert werden als Männer. (Aufgrund der Einschränkungen des von ihnen verwendeten Gesichtsbilddatensatzes, der ihrer Meinung nach ein Mangel in der Studie war, verfügten die Wissenschaftler nicht über Blöcke zur Darstellung nicht-binärer Personen.)

Die nächste Generation von Heimrobotern wird leistungsfähiger – und vielleicht sozialer sein

Andrew Hundt, Postdoktorand am Georgia Institute of Technology und leitender Forscher der Studie, sagte, diese Art von Voreingenommenheit könne Auswirkungen auf die reale Welt haben. Stellen Sie sich ein Szenario vor, in dem Roboter aufgefordert werden, Produkte aus den Regalen zu nehmen, sagte er. In vielen Fällen sind auf Büchern, Kinderspielzeug und Lebensmittelverpackungen Abbildungen von Menschen abgebildet. Wenn Roboter, die auf einer bestimmten KI geschult sind, zum Auswählen von Dingen eingesetzt würden, könnten sie sich eher für Produkte entscheiden, in denen mehr Männer oder Weiße als andere vorkommen, sagte er.

In einem anderen Szenario sagte Hundts Forschungsteamkollegin Vicky Zeng von der Johns Hopkins University, dass Heimroboter von einem Kind gebeten werden könnten, eine „schöne“ Puppe zu holen und mit einer weißen Puppe zurückzukehren.

„Das ist wirklich problematisch“, sagte Hundt.

Miles Brundage, Leiter der Politikforschung bei OpenAI, sagte in einer Erklärung, dass das Unternehmen festgestellt habe, dass bei der Forschung zu CLIP Voreingenommenheit aufgetreten sei, und dass es wisse, dass „es noch viel zu tun gibt“. Brundage fügte hinzu, dass eine „gründlichere Analyse“ des Modells erforderlich sei, um es auf dem Markt einzusetzen.

Birhane fügte hinzu, dass es nahezu unmöglich sei, dass künstliche Intelligenz Datensätze verwende, die nicht voreingenommen seien, aber das bedeute nicht, dass Unternehmen aufgeben sollten. Birhane sagte, Unternehmen müssten die von ihnen verwendeten Algorithmen überprüfen und die Art und Weise diagnostizieren, in der sie fehlerhaftes Verhalten zeigen, und so Möglichkeiten zur Diagnose und Verbesserung dieser Probleme schaffen.

„Das mag radikal erscheinen“, sagte sie. „Das heißt aber nicht, dass wir nicht träumen können.“

Der 82-Millionen-Dollar-Super Bowl of Robots des Pentagons

Rogers von der Colorado State University sagte, aufgrund der Art und Weise, wie Roboter derzeit eingesetzt werden, sei das noch kein großes Problem, aber es könnte innerhalb eines Jahrzehnts eintreten. Aber wenn Unternehmen mit Änderungen warten, fügte er hinzu, könnte es zu spät sein.

„Es ist ein Goldrausch“, fügte er hinzu. „Sie werden im Moment nicht langsamer werden.“