Das „Ethic Washing“ der großen Tech-Unternehmen

 

von Katharina Ulbing

Wie ethisch kann künstliche Intelligenz sein? Die großen Tech-Unternehmen stehen heute vor der Herausforderung, diese Frage beantworten zu müssen. Doch vielen scheint der Enthusiasmus bislang zu fehlen.

Ethik-Beirat – das klingt erst einmal vielversprechend. Dennoch musste Google sein Advanced Technology Advisory Council (ATEAC) nach etwas über einer Woche schon wieder einstampfen. Die Aufnahme des Präsidenten der Heritage Foundation, Kay Cole James, in den Rat hatte einen Aufschrei über dessen politisch unkorrekte Weltansichten auslöst. Ein umweltfeindliches, rassistisches und sexistisches Ethik-Komitee war nicht gerade das, was Google gebrauchen konnte.

Die großen Tech-Unternehmen stehen heute vor der Herausforderung, Ethik-Fragen in Hinblick auf den Einsatz künstlicher Intelligenz beantworten zu müssen: Wie lässt sich sicherstellen, dass die entwickelten Produkte für die Gesellschaft ebenso gut sind wie für das Geschäft? Wie lassen sich Profit und ein soziales Bewusstsein vereinbaren?

Auf den ersten Blick wirkt das Interesse der Unternehmen an diesen Fragen groß: Microsoft hat nicht nur seinen eigenen KI-Ethikausschuss, sondern auch die dazugehörigen eigenen KI-Prinzipien. Amazon investiert in die Forschung zu Fairness in der KI und Facebook in die TU München, die mit den bereitgestellten Geldern KI-Ethiker ausbilden soll. Auch die Londoner Google-Tochter DeepMind hat einen Ethikrat gegründet.

Was so aufgelistet nach großem Engagement klingt, ist in Wahrheit allerdings oft eine ziemlich intransparente und chaotische Angelegenheit. Wenn jedes Unternehmen seine eigenen Maßstäbe ansetzt und diese nicht einmal der Öffentlichkeit zugänglich macht, bleibt die Frage, was das Ganze überhaupt soll. Kontrollmöglichkeiten und die Chance zum öffentlichen Diskurs gibt es kaum.

Ethikräte können zwar ambitionierte Vorschläge machen, aber konkrete Veränderungen sind immer noch Sache des Unternehmens – und bei Nichteinhaltung passiert: nichts. Business as usual unter dem Deckmantel sozialer Verantwortung: Dieser Zustand ist leider häufig anzutreffen, wenn es um ethische Unternehmensführung geht.

Im Zuge einer Recherche von The Verge (https://www.theverge.com/2019/4/3/18293410/ai-artificial-intelligence-ethics-boards-charters-problem-big-tech) wurde der Begriff „Ethic Washing“ geprägt, der die aktuelle Begeisterung von Tech-Unternehmen für Ethik-Themen beschreibt, die sich eignen, um staatliche Regulierungen zu vermeiden:

„Den meisten der entwickelten Ethikgrundsätze fehlt heute der institutionelle Rahmen. Sie sind nicht bindend. Das macht es Unternehmen sehr einfach, sich [ethische Fragen] anzusehen und zu sagen: ‘Das ist wichtig’, aber mit dem fortzufahren, was sie vorher getan haben. Wenn Forscher neue Wege finden, wie Technologie marginalisierten Gruppen schaden oder die bürgerlichen Freiheiten verletzen kann, können Technologieunternehmen auf ihre Boards und Chartas verweisen und sagen: ‘Schau, wir tun etwas’. Es lenkt die Kritik ab, und weil es den Vorständen an Macht mangelt, bedeutet das, dass sich die Unternehmen nicht ändern.“

Das alles heißt natürlich nicht, dass die bereits existierenden Beiräte grundsätzlich falsch sind. Sie genügen allerdings nicht als alleiniges Werkzeug, einen sozialen Wert in der Wirtschaft sicherzustellen. Einige Initiativen und Projekte versuchen bereits, Unternehmen das Implementieren von Ethik leichter zu machen, so zum Beispiel IEEE, deren Ansatz es ist, ethische Ansätze für technologische Innovationen zu operationalisieren (https://ethicsinaction.ieee.org).

Die Umsetzung sozial verantwortlicher und nutzbringender Ergebnisse erfordert eine Vielzahl von Instrumenten und Prozessen, wie etwa interne und branchenweite Standards, sinnvolle Richtlinien und eine Kultur der sozialen Verantwortung. Außerdem braucht es eine gemeinsame ethische Auffassung für das gesamte Ökosystem des Unternehmens, von Mitarbeitern und Führungskräften bis hin zu Investoren, Geschäftspartnern, Verbrauchern, betroffenen Gemeinden und Aufsichtsbehörden. Zuletzt ist eine fundierte Aus- und Weiterbildung unabdingbar, um sicherzustellen, dass Mitarbeiter und Führungskräfte auch langfristig über die richtigen Fähigkeiten verfügen, erfolgreiche und sozial verantwortliche Unternehmen aufzubauen.

Anfang April hat die EU Guidelines zum ethischen Umgang herausgebracht. Diese sind nicht rechtlich bindend, aber sie könnten die Vorläufer zukünftiger Gesetze sein – und das gibt jedem Unternehmen die Möglichkeit, einen aktiven Part in diesem Prozess zu spielen und ethische Richtlinien mitzugestalten. Hier ein Überblick über die wichtigsten Themen und Handlungsspielräume.

    • Menschliche Handlungsfähigkeit und Aufsicht: Menschliche Autonomie sollte weiterbestehen, die Maschine niemals entscheidungsmächtiger werden als der Mensch, der sie bedienen kann. Menschen sollten in der Lage sein, in jede Entscheidung, die die Software trifft, einzugreifen oder sie zu überwachen.
    • Technische Robustheit und Sicherheit: KI sollte sicher und genau, gegen externe Angriffe geschützt und zuverlässig sein.
    • Datenschutz und Datenverwaltung: Personenbezogene Daten, die von KI-Systemen erfasst werden, sollten sicher und privat sein, nicht für jedermann zugänglich sein und gegen Diebstahl geschützt.
    • Transparenz: Daten und Algorithmen, die zur Erstellung eines KI-Systems verwendet werden, sollten zugänglich sein, und die von der Software getroffenen Entscheidungen sollten vom Menschen verstanden und verfolgt werden können. Mit anderen Worten, die Betreiber sollten in der Lage sein, die Entscheidungen ihrer KI-Systeme zu erklären.
    • Vielfalt, Nichtdiskriminierung und Fairness: Die von der KI angebotenen Dienstleistungen sollten für alle zugänglich sein, unabhängig von Alter, Geschlecht, Rasse oder anderen Merkmalen. Ebenso sollten Systeme nicht in diese Richtung verzerrt werden.
    • Ökologisches und gesellschaftliches Wohlergehen: KI-Systeme sollten nachhaltig (also ökologisch verantwortlich) sein und positive soziale Veränderungen fördern.
    • Verantwortlichkeit: KI-Systeme sollten prüfbar sein und durch bestehende Schutzvorkehrungen für Informanten in Unternehmen abgedeckt werden. Negative Auswirkungen von Systemen sollten erkannt und im Voraus gemeldet werden.

Quellen:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.