Facebook eliminiert Tool, das Werbetreibende diskriminieren lässt – ProPublica


In einer Siedlung angekündigt Meta Platforms – früher bekannt als Facebook – hat am Dienstag vom Justizministerium zugestimmt, Funktionen in seinem Werbegeschäft zu eliminieren, die es Vermietern, Arbeitgebern und Kreditagenturen ermöglichen, Personengruppen zu diskriminieren, die durch Bundesbürgerrechtsgesetze geschützt sind.

Der Deal kommt fast sechs Jahre nach ProPublica zuerst Aufgedeckt dass Facebook Wohnungsvermarkter erlaubte, Afroamerikaner und andere davon auszuschließen, einige ihrer Anzeigen zu sehen. Bundesgesetze verbieten Wohnen, Beschäftigung und Kreditdiskriminierung aufgrund von Rasse, Religion, Geschlecht, Familienstand und Behinderung.

JahrelangProPublica und andere Forscher zeigten, dass es weiterhin Probleme bei der Bereitstellung von Anzeigen zu Wohnen, Beschäftigung und Krediten gab, selbst als Facebook zusagte, die von uns identifizierten Schlupflöcher zu schließen.

Der Vergleich dieser Woche war das Ergebnis einer Klage, die vor drei Jahren von der Trump-Administration angestrengt wurde, in der behauptet wurde, Metas Ad-Targeting-System verstoße gegen das Fair Housing Act. Das DOJ argumentierte auch, dass Facebook einen maschinellen Lernalgorithmus verwendet habe, um Werbepublikum einzuschränken und zu erstellen, was zur Folge habe, dass die Lieferung an oder gegen gesetzlich geschützte Gruppen verzerrt werde. Dies war das erste Mal, dass die Bundesregierung die algorithmische Voreingenommenheit im Rahmen des Fair Housing Act in Frage stellte.

Als Teil des Vergleichs hat Meta zugestimmt, neue Werbemethoden einzusetzen, die von einem externen Gutachter geprüft und vom Gericht überwacht werden.

Das Unternehmen sagte in a Aussage dass es eine „neuartige Verwendung von maschineller Lerntechnologie implementieren wird, die sicherstellen wird, dass Alter, Geschlecht und geschätzte Rasse oder ethnische Zugehörigkeit des Gesamtpublikums einer Wohnungsanzeige mit dem Alter, Geschlecht und der geschätzten Rassen- oder ethnischen Zugehörigkeitsmischung der berechtigten Bevölkerung übereinstimmen diese Anzeige.“

Die Erklärung von Roy L. Austin Jr., Vizepräsident für Bürgerrechte und stellvertretender Generalanwalt von Meta, stellte fest, dass der Vergleich Facebook zwar nur dazu verpflichtet, sein neues Tool für Anzeigen im Zusammenhang mit Wohnungen zu verwenden, aber auch für Posts über Beschäftigung und Beschäftigung gelten wird Anerkennung. (Facebook lehnte eine Anfrage nach einem zusätzlichen Kommentar ab.)

Der Bürgerrechtsanwalt Peter Romer-Friedman, der mehrere Klagen gegen das Unternehmen eingereicht hat, sagte, dass frühere Verhandlungen versucht und es versäumt hätten, Facebook wegen algorithmischer Voreingenommenheit zur Rechenschaft zu ziehen. „Letztendlich zeigt dies, dass es nie eine Frage der Machbarkeit war, algorithmische Voreingenommenheit zu beseitigen“, sagte er gegenüber ProPublica. „Es ist eine Frage des Willens.“

Nachdem wir gemeldet zum Potenzial für Werbediskriminierung im Jahr 2016, Facebook schnell versprochen ein System einzurichten, um illegal diskriminierende Anzeigen zu erkennen und zu überprüfen. Ein Jahr später stellte ProPublic fest, dass dies der Fall war immer noch möglich Gruppen wie Afroamerikaner, Mütter von Highschool-Kindern, Menschen, die sich für Rollstuhlrampen interessieren, und Muslime von der Anzeige von Werbung auszuschließen. Es wurde auch möglich, Anzeigen zu zielen für Menschen mit Interesse an Antisemitismus, einschließlich Optionen wie „Wie man Juden verbrennt“ und „Hitler hat nichts falsch gemacht“.

Später stellten wir fest, dass Unternehmen solche Stellenanzeigen veröffentlichten Frauen und ältere Arbeitnehmer könnte nicht sehen. März 2019 Facebook einen Rechtsstreit beigelegt von Bürgerrechtsgruppen durch die Einrichtung eines „Sonderanzeigenportals“ speziell für Stellen-, Wohnungs- und Kreditanzeigen eingebracht. Das Unternehmen sagte, das Portal würde die Targeting-Optionen der Werbetreibenden einschränken und auch seinen Algorithmus daran hindern, Geschlecht und Rasse zu berücksichtigen, wenn er entscheidet, wer Anzeigen sehen soll.

Aber wenn ProPublica mit Forschern zusammengearbeitet hat an der Northeastern University und Upturn um das neue System von Facebook zu testen, wir fanden Weitere Beispiele für voreingenommene Anzeigenschaltung. Obwohl der modifizierte Algorithmus von Facebook Werbetreibende vor expliziter Diskriminierung schützte, konnte die Lieferung immer noch auf „spezielle Werbung“ oder „Lookalike“-Proxy-Merkmalen beruhen, die mit Rasse oder Geschlecht korrelierten.

Die Studie ergab auch, dass Facebook das Publikum abhängig vom Inhalt der Anzeige selbst verzerrte. Wie viele Frauen zum Beispiel eine Stellenanzeige für eine offene Hausmeisterstelle sehen würden, hing nicht nur davon ab, was der Werbetreibende Facebook sagte, sondern auch davon, wie Facebook das Bild und den Text der Anzeige interpretierte.

ProPublica fand auch weiterhin Stellenausschreibungen, die Männer bevorzugten oder ältere mögliche Bewerber ausschlossen, was potenziell gegen das Gesetz verstieß bürgerliches Recht. Einige Werbetreibende, die wir befragten, waren überrascht, als sie erfuhren, dass sie kein vielfältiges Publikum erreichen konnten, selbst wenn sie es versuchten.

In einem Pressemitteilung, sagte das DOJ, dass der Vergleich vom Dienstag verlangt, dass Meta die Verwendung des „Special Ad Audience“-Tools bis Ende des Jahres einstellt. Es erfordert auch, dass Meta seinen Algorithmus ändert, „um Unterschiede in Bezug auf Rasse, ethnische Zugehörigkeit und Geschlecht zwischen den Zielgruppen der Werbetreibenden und der Gruppe von Facebook-Nutzern zu beseitigen, an die die Personalisierungsalgorithmen von Facebook tatsächlich die Anzeigen liefern“. Das Unternehmen muss Details mit dem DOJ und einem unabhängigen Gutachter teilen, bevor es Änderungen vornimmt.

Als Teil des Vergleichs erklärte sich Meta außerdem bereit, eine Gebühr von 115.054 US-Dollar zu zahlen, den gesetzlich zulässigen Höchstbetrag.

„Aufgrund dieser bahnbrechenden Klage wird Meta – zum ersten Mal – sein Anzeigenlieferungssystem ändern, um algorithmische Diskriminierung anzugehen“, sagte der US-Anwalt Damian Williams für den südlichen Bezirk von New York in einer Erklärung. „Aber wenn Meta nicht nachweisen kann, dass es sein Liefersystem ausreichend geändert hat, um algorithmische Voreingenommenheit zu vermeiden, wird dieses Büro mit dem Rechtsstreit fortfahren.“

Leave a Comment

Your email address will not be published.