Selbstfahrende Autos übersehen dunkelhäutige Fußgänger leichter
Dass künstliche Intelligenz schwächelt, wenn der programmierte Algorithmus auf schlechtem Datenmaterial bzw. vorurteilsbehafteten Annahmen durch Entwickler basiert, ist längst bekannt. So wurden anfangs etwa dunkelhäutige Personen über Googles automatische Bilderkennung als Gorillas klassifiziert. Was in dem damaligen Fall als beleidigend und rassistisch empfunden wurde, könnte bei selbstfahrenden Autos lebensbedrohliche Konsequenzen haben.
Sensoren versagen leichter
So laufen Fußgänger mit dunkler Hautfarbe eher als Personen mit weißer Hautfarbe Gefahr, von den Sensoren des Fahrzeugs nicht erkannt und dadurch vom Auto verletzt zu werden. Die Forscher des Georgia Institute of Technology ließen große Fotodatenbanken durch etablierte Bilderkennungssoftware laufen. Das Ergebnis war ernüchternd.
Im Schnitt funktionierte der Algorithmus um fünf Prozent schlechter als bei Personen mit heller Haut, egal welche Parameter - etwa Tageslicht oder unverdeckte Sicht auf die Personen - verändert wurden. Die Wissenschaftler wollen ihre Ergebnisse als Warnung verstanden wissen, dass Algorithmen noch besser trainiert und das dafür verwendete Datenmaterial kontrolliert wird.
Autohersteller gewähren keinen Zugriff
Inwiefern die Autohersteller, die derartige Systeme bereits im Einsatz haben oder testen, diese bereits optimiert haben, ist allerdings unklar. Denn die Forscher hatten nur auf öffentlich verfügbare Bilddatenbanken und gängige Bilderkennungssoftware Zugriff. Es ist daher denkbar, dass die bereits verwendeten Sensoren durch die tägliche Verwendung dazulernen. Das Grundproblem der einseitigen Programmierung bleibt aber wohl dasselbe.