KI zeigt weiterhin die gleichen Vorurteile und Vorurteile wie Menschen, weil sie auf das trainiert sind, was wir erschaffen, aber es gibt Möglichkeiten, wie wir die Situation verbessern können.
Geschichten über künstliche Intelligenz, die rassistische und sexistische Vorurteile zeigen, sind weit verbreitet, darunter Gesichtserkennungsalgorithmen, die Schwierigkeiten haben, für Schwarze zu funktionieren, und Tools zur Beurteilung, ob ein verurteilter Krimineller erneut Anstoß nehmen wird, indem er Weiße nachsichtiger behandelt. Trotz jahrelanger Bemühungen, KI fair zu gestalten, scheinen diese Probleme nicht zu verschwinden, also was kann man dagegen tun?
Die aktuelle KI-Forschung konzentriert sich stark auf maschinelles Lernen, bei dem ein Modell …