AI Weekly: Facebook, Google, and the tension between profits and fairness

Nehmen Sie an Transform 2021 teil, um die wichtigsten Themen in Enterprise AI & Data zu erfahren. Mehr erfahren.

Diese Woche haben wir viel mehr über das Innenleben von KI-Fairness und Ethik bei Facebook und Google erfahren und darüber, wie etwas schief gelaufen ist. Am Montag schrieb eine Google-Mitarbeitergruppe einen Brief, in dem sie den Kongress und die Gesetzgeber des Bundesstaates aufforderte, Gesetze zum Schutz von Whistleblowern der KI-Ethik zu verabschieden. In diesem Brief wird VentureBeat zitiert, der über die potenziellen politischen Ergebnisse der Entlassung von Timnit Gebru, Co-Leiter des ehemaligen Ethical AI-Teams durch Google, berichtet. Es zitiert auch Forschungen von Sonia Katyal, Rechtsprofessorin an der UC Berkeley, die gegenüber VentureBeat sagte: „Was uns Sorgen machen sollte, ist eine Welt, in der alle talentiertesten Forscher mögen [Gebru] an diesen Orten angestellt werden und dann effektiv vom Sprechen mundtot gemacht werden. Und wenn das passiert, wird der Schutz von Whistleblowern unerlässlich. “ Der AI Index-Bericht 2021 stellte fest, dass AI-Ethik-Geschichten – einschließlich der Entlassung von Gebru durch Google – zu den beliebtesten AI-bezogenen Nachrichtenartikeln des Jahres 2020 gehörten, was auf ein wachsendes öffentliches Interesse hinweist. In dem am Montag veröffentlichten Brief sprachen Google-Mitarbeiter von Belästigung und Einschüchterung, und eine Person mit Richtlinien- und Ethikfragen bei Google beschrieb ein „tiefes Gefühl der Angst“ seit der Entlassung der Ethikführer Gebru und der ehemaligen Co-Leiterin Margaret Mitchell.

Am Donnerstag veröffentlichte Karen Hao von MIT Tech Review eine Geschichte, in der viele bisher unbekannte Informationen über Verbindungen zwischen KI-Ethik-Operationen bei Facebook und dem Versäumnis des Unternehmens, auf Fehlinformationen zu reagieren, die über seine Social-Media-Plattformen verbreitet und direkt mit einer Reihe von realen Informationen verknüpft wurden, entpackt wurden Gräueltaten. Eine wichtige Erkenntnis aus diesem langen Artikel ist, dass sich das verantwortliche KI-Team von Facebook darauf konzentrierte, algorithmische Verzerrungen anstelle von Themen wie Desinformation und politischer Polarisierung anzugehen, nachdem 2018 konservative Politiker Beschwerden eingereicht hatten, obwohl eine kürzlich durchgeführte Studie ihre Behauptungen widerlegt. Die in Haos Bericht beschriebenen Ereignisse scheinen politische Winde zu dokumentieren, die die Definition von Fairness bei Facebook und die Extreme, in die ein Unternehmen gehen wird, um sich der Regulierung zu entziehen, verändern.

Die öffentliche Verteidigung von Präsident Trump durch Facebook-CEO Mark Zuckerberg im vergangenen Sommer und die jahrelange umfassende Berichterstattung von Journalisten haben bereits die Bereitschaft des Unternehmens unterstrichen, von Hass und Fehlinformationen zu profitieren. In einem Artikel des Wall Street Journal aus dem letzten Jahr wurde beispielsweise festgestellt, dass die Mehrheit der als extremistisch eingestuften Facebook-Gruppen aufgrund einer Empfehlung eines Facebook-Algorithmus beigetreten ist.

In der MIT Tech Review-Story dieser Woche entscheidet ein Technologieriese, wie Fairness definiert werden soll, um die zugrunde liegenden Geschäftsziele voranzutreiben. Genau wie beim Zusammenbruch des Ethical AI-Teams von Google beschreibt Haos Geschichte Kräfte innerhalb von Facebook, die nach nur ein oder zwei Betriebsjahren versucht haben, Ethikoperationen zu kooptieren oder zu unterdrücken. Ein ehemaliger Facebook-Forscher, den Hao im Hintergrund zitierte, beschrieb seine Arbeit als Hilfe für das Unternehmen, den Status Quo auf eine Weise aufrechtzuerhalten, die häufig Zuckerbergs öffentlicher Position zu Fairness und Gerechtigkeit widersprach. Ein anderer Forscher, der über den Hintergrund sprach, beschrieb, dass er angewiesen wurde, einen Algorithmus zur Erkennung medizinischer Fehlinformationen zu blockieren, der die Reichweite von Anti-Impfstoff-Kampagnen spürbar verringert hatte.

In dem, was ein Facebook-Sprecher als offizielle Antwort des Unternehmens bezeichnete, bezeichnete Facebook-CTO Mike Schroepfer die Kernerzählung von Haos Artikel als falsch, bemühte sich jedoch nicht, die in der Geschichte gemeldeten Tatsachen zu bestreiten.

Der Chef-KI-Wissenschaftler von Facebook, Yann LeCun, der im Sommer mit Gebru öffentlich über KI-Vorurteile gespuckt wurde, die zu Anschuldigungen wegen Gaslichts und Rassismus führten, behauptete, die Geschichte habe sachliche Fehler. Hao und ihr Herausgeber überprüften die Behauptungen der Ungenauigkeit und stellten keinen sachlichen Fehler fest.

Die Geschäftspraktiken von Facebook haben eine Rolle beim digitalen Redlining, beim Völkermord in Myanmar und beim Aufstand im US-Kapitol gespielt. Bei einem internen Treffen am Donnerstag fragte ein Mitarbeiter laut BuzzFeed-Reporter Ryan Mac, wie sich die Facebook-Finanzierung der KI-Forschung von der Geschichte von Big Tobacco zur Finanzierung von Gesundheitsstudien unterscheidet. Mac sagte, die Antwort sei, dass Facebook in diesem speziellen Fall keine eigene Forschung finanziere, aber KI-Forscher sprachen letztes Jahr ausführlich über dieses Problem.

Im vergangenen Sommer berichtete VentureBeat über Geschichten, an denen Schroepfer und LeCun beteiligt waren, nachdem die Ereignisse Fragen zu Vielfalt, Einstellungen und KI-Vorurteilen im Unternehmen aufgeworfen hatten. Wie diese Berichterstattung und Haos neunmonatige Untersuchung hervorheben: Facebook verfügt über kein System, um Algorithmen auf Verzerrungen zu prüfen und zu testen. Eine von Facebook in Auftrag gegebene und im letzten Sommer veröffentlichte Bürgerrechtsprüfung fordert die regelmäßige und obligatorische Prüfung von Algorithmen auf Voreingenommenheit und Diskriminierung.

Nach den Vorwürfen toxischer Arbeitsumgebungen gegen Schwarz wurden sowohl Facebook als auch Google in der vergangenen Woche beschuldigt, schwarze Bewerber auf getrennte und ungleiche Weise behandelt zu haben. Reuters berichtete letzte Woche, dass die Equal Employment Opportunity Commission (EEOC) bei Facebook „systemische“ rassistische Vorurteile bei Einstellungen und Beförderungen untersucht. Weitere Einzelheiten zu einer von einer schwarzen Frau eingereichten EEOC-Beschwerde wurden am Donnerstag bekannt. Bei Google teilten mehrere Quellen NBC News im vergangenen Jahr mit, dass die Diversity-Investitionen im Jahr 2018 zurückgefahren wurden, um Kritik von konservativen Politikern zu vermeiden.

Am Mittwoch unternahm Facebook außerdem den ersten Versuch, eine von der Federal Trade Commission (FTC) und Generalstaatsanwälten aus 46 US-Bundesstaaten gegen das Unternehmen erhobene Kartellklage abzuweisen.

All dies geschah in derselben Woche, in der US-Präsident Joe Biden Lina Khan für die FTC nominierte, was zu der Behauptung führte, dass die neue Regierung ein „Big Tech-Kartell-All-Star-Team“ aufbaut. Letzte Woche hat Biden Tim Wu in den Nationalen Wirtschaftsrat des Weißen Hauses berufen. Als Befürworter der Auflösung von Big Tech-Unternehmen schrieb Wu im vergangenen Herbst einen Kommentar, in dem er einen der zahlreichen Kartellfälle gegen Google als größer als jedes einzelne Unternehmen bezeichnete. Er bezeichnete es später als das Ende eines jahrzehntelangen kartellrechtlichen Winters. VentureBeat hat Wus Buch The Curse of Bigness über die Geschichte der Kartellreform in einer Liste der wichtigsten Bücher aufgeführt, die es zu lesen gilt. Weitere Signale für eine weitere Regulierung könnten die Ernennungen der FTC-Vorsitzenden Rebecca Slaughter und der stellvertretenden OSTP-Direktorin Alondra Nelson sein, die beide die Notwendigkeit zum Ausdruck gebracht haben, sich mit algorithmischen Vorurteilen zu befassen.

Die Google-Geschichte, in der Whistleblower-Schutz für Personen gefordert wird, die den ethischen Einsatz von KI erforschen, ist das zweite Mal in so vielen Wochen, dass der Kongress eine Empfehlung erhalten hat, Maßnahmen zum Schutz von Menschen vor KI zu ergreifen.

Die Nationale Sicherheitskommission für künstliche Intelligenz (NSCAI) wurde 2018 gegründet, um den Kongress und die Bundesregierung zu beraten. Die Gruppe wird von dem ehemaligen Google-CEO Eric Schmidt geleitet, und Andrew Moore, Chef der Google Cloud AI, gehört zu den 15 Kommissaren der Gruppe. Letzte Woche veröffentlichte das Gremium einen Bericht, in dem empfohlen wird, dass die Regierung in den kommenden Jahren 40 Milliarden US-Dollar für Forschung und Entwicklung sowie für die Demokratisierung der KI ausgibt. Der Bericht besagt auch, dass Personen in Regierungsbehörden, die für die nationale Sicherheit von wesentlicher Bedeutung sind, die Möglichkeit erhalten sollten, Bedenken hinsichtlich der „verantwortungslosen KI-Entwicklung“ zu melden. In dem Bericht heißt es: “Der Kongress und die Öffentlichkeit müssen sicherstellen, dass die Regierung in der Lage ist, kritische Systemfehler rechtzeitig zu erkennen und zu beheben, um versehentliche Katastrophen zu verhindern und Menschen zur Rechenschaft zu ziehen, auch wegen Missbrauchs.” Es fördert auch die fortlaufende Umsetzung von Audits und Berichtspflichten. Wie Audits in Unternehmen wie HireVue gezeigt haben, gibt es viele verschiedene Möglichkeiten, einen Algorithmus zu auditieren.

Der Konsens dieser Woche zwischen organisierten Google-Mitarbeitern und NSCAI-Beauftragten, die Führungskräfte von Unternehmen wie Google Cloud, Microsoft und Oracle vertreten, deutet auf eine gewisse Übereinstimmung zwischen einer Vielzahl von Personen hin, die mit der Bereitstellung von KI in großem Maßstab vertraut sind.

Bei der endgültigen Abstimmung zur Genehmigung des NSCAI-Berichts sagte Moore: „Wir sind die Menschheit. Wir sind Werkzeugnutzer. Es ist so etwas wie das, wofür wir bekannt sind. Und wir haben jetzt den Punkt erreicht, an dem unsere Werkzeuge in gewissem Sinne intelligenter sind als wir. Und es ist eine sehr aufregende Zukunft, die wir zum Wohle der Vereinigten Staaten und der Welt ernst nehmen müssen. “

Während tiefes Lernen und Formen der KI in der Lage sein können, Dinge zu tun, die von Menschen als übermenschlich beschrieben werden, haben wir diese Woche eine Erinnerung daran erhalten, wie unzuverlässig KI-Systeme sein können, als OpenAI demonstrierte, dass sein hochmodernes Modell zum Nachdenken getäuscht werden kann Ein Apfel mit dem Aufdruck „iPod“ ist in der Tat ein iPod, den jede Person mit einem Puls erkennen kann.

Hao beschrieb die Themen ihrer Facebook-Geschichte als gut gemeinte Menschen, die versuchen, Änderungen in einem faulen System vorzunehmen, das sich selbst schützt. Ethikforscher in einem Unternehmen dieser Größe sind effektiv damit beauftragt, die Gesellschaft als Aktionär zu betrachten, aber von allen anderen, mit denen sie zusammenarbeiten, wird erwartet, dass sie in erster Linie über das Endergebnis oder persönliche Prämien nachdenken. Hao sagte, dass die Berichterstattung über die Geschichte sie überzeugt hat, dass Selbstregulierung nicht funktionieren kann.

“Facebook hat sich bisher nur wegen oder in Erwartung einer externen Regulierung mit Themen befasst”, sagte sie in einem Tweet.

Nachdem Google Gebru entlassen hatte, sprach VentureBeat mit Ethik-, Rechts- und Politikexperten, die ebenfalls zu dem Schluss gekommen sind, dass „Selbstregulierung nicht vertrauenswürdig ist“.

Ob bei Facebook oder Google, jeder dieser Vorfälle – oft mit Hilfe von Quellen, die unter der Bedingung der Anonymität sprechen – beleuchtet die Notwendigkeit von Leitplanken und Vorschriften und, wie ein kürzlich veröffentlichtes Google-Forschungspapier feststellte, Journalisten, die schwierige Fragen stellen. In diesem Artikel mit dem Titel “Überarbeitung der algorithmischen Fairness in Indien und darüber hinaus” stellen Forscher fest, dass “Technologiejournalismus ein Grundpfeiler einer gerechten Automatisierung ist und für die KI gefördert werden muss”.

Unternehmen wie Facebook und Google stehen im Zentrum der Konsolidierung der KI-Branche, und die Auswirkungen ihres Handelns gehen über ihre große Reichweite hinaus und berühren praktisch jeden Aspekt des technischen Ökosystems. Eine Quelle, die mit ethischen und politischen Fragen bei Google vertraut ist und Whistleblower-Schutzgesetze unterstützt, sagte gegenüber VentureBeat, die Gleichung sei ziemlich einfach: „[If] Wenn Sie ein Unternehmen sein möchten, das Milliarden von Menschen berührt, sollten Sie dafür verantwortlich und verantwortlich sein, wie Sie diese Milliarden von Menschen berühren. “

Senden Sie für AI-Berichterstattung News-Tipps an Khari Johnson und Kyle Wiggers – und abonnieren Sie unbedingt den AI Weekly-Newsletter und setzen Sie ein Lesezeichen für The Machine.

Danke fürs Lesen,

Khari Johnson

Senior AI Staff Writer

VentureBeat

Die Mission von VentureBeat ist es, ein digitaler Stadtplatz für technische Entscheidungsträger zu sein, um Wissen über transformative Technologie und Transaktionen zu erlangen. Unsere Website bietet wichtige Informationen zu Datentechnologien und -strategien, die Sie bei der Führung Ihres Unternehmens unterstützen. Wir laden Sie ein, Mitglied unserer Community zu werden und auf Folgendes zuzugreifen:

  • aktuelle Informationen zu den für Sie interessanten Themen
  • unsere Newsletter
  • gated Vordenker-Inhalte und ermäßigter Zugang zu unseren wertvollen Veranstaltungen, wie z Transformiere 2021: Erfahren Sie mehr
  • Netzwerkfunktionen und mehr

Mitglied werden

Comments are closed.