Aufrufe
vor 2 Monaten

EF-IT_Ausgabe Frühjahr 2020

  • Text
  • Biometrie
  • Intelligenz
  • Telefon
  • Intelligenz
  • Technik

Künstliche Intelligenz

Künstliche Intelligenz verstehen Vertrauen ist gut, Kontrolle ist besser Systeme der Künstlichen Intelligenz (KI) entscheiden oft unethisch. Doch warum das so ist, lässt sich häufig kaum nachvollziehen. Diese „Black Box“ wollen Politik, Wissenschaft und Wirtschaft nun ausleuchten. Sachlich und unbestechlich, aber dennoch schnell und fundiert entscheiden – wer könnte etwas dagegen haben? Die Verfechter von Systemen der Künstlichen Intelligenz (KI) versprechen genau dies: schnelle und datenbasierte Entscheidungen, denen keine Emotionen und Vorurteile in die Quere kommen. Etwa bei der Ausschreibung eines Arbeitsplatzes: Wenn Menschen die Vor-(Auswahl) der Bewerber treffen, lassen sich persönliche Vorlieben und Abneigungen nie ganz vermeiden. Die Diskussionen darüber, ob zum Beispiel Frauen oder bestimmte Ausländergruppen bei der Bewerberauswahl strukturell diskriminiert werden, sind in den letzten Jahrzehnten ehr noch intensiver geworden. Ähnliches gilt bei vielen anderen wichtigen Entscheidungen – etwa bei der Bewilligung eines Kreditantrags. Warum also in solchen Fällen nicht einfach eine unbestechliche KI entscheiden lassen? Schnell ja – aber Was Unternehmen durch den KI-Einsatz auf jeden Fall gewinnen, ist Tempo und eine höhere Produktivität. KI als Treiber einer weiteren Automatisierung motiviert Unternehmen derzeit daher besonders. Die Hoffnungen sind groß: So wollen laut einer vom Softwarehaus IFS beauftragten Studie mittlerweile 90 Prozent der Unternehmen in KI investieren. Den größten Vorteil von KI sehen 60 Prozent der Befragten dabei in der gesteigerten Produktivität ihrer Mitarbeiter. Arbeitsplatzverluste fürchten hingegen nur wenige der befragten Unternehmen. Mehr als ein Drittel (35 Prozent) erwartet sogar einen Zuwachs an Arbeitsplätzen. Doch mit der unbestechlichen Sachlichkeit von KI-Entscheidungen ist es so eine Sache: Häufig folgen die Software-Intelligenzen ganz ähnlichen Vorurteilen wie ihre Kollegen aus Fleisch und Blut. Eines von vielen Beispielen ist Amazon: Laut Nachrichtenagentur Reuters nutzte der amerikanische Konzern bereits seit 2014 ein Programm, das Job-Bewerbungen bewertete, um die Auswahl der Kandidaten zu automatisieren und zu beschleunigen. Doch vier Jahre später schaffte Amazon das Software- System wieder ab, denn die Maschinenintelligenz diskriminierte Frauen. Der Schachklub als Karrierekiller Woran das lag, ließ sich auch nachvollziehen: Die Daten, mit denen Amazons Computermodelle für die Bewerberbewertung trainiert wurden, waren Muster aus Lebensläufen, die das Unternehmen über einen Zeitraum von zehn Jahren angesammelt hatte. Die allermeisten dieser Bewerbungen kamen von Männern, was schlicht die allgemeine männliche Dominanz in der Technologiebranche widerspiegelt. Letztlich hatte sich das Amazon-System auf dieser Datenbasis selbst beigebracht, dass männliche Kandidaten prinzipiell vorzuziehen sind. Alle Lebensläufe, die das Wort „Frauen“ aufwiesen, erhielten systematisch Minuspunkte – und sei es nur eine in der Bewerbung erwähnte Mitgliedschaft in einem Frauen-Schachklub. Bei Amazon war der Grund für das „un- ethische Verhalten“ der KI noch klar nachvollziehbar. In vielen Fällen ist dies heute jedoch nicht mehr möglich, zumindest vonseiten der Anwender. Denn in der Regel arbeiten KI-Algorithmen innerhalb einer sogenannten „Black Box“. Dies bedeutet, dass Anwender oder Kunden zwar von außen die Entscheidungen und Handlungen der Systeme sehen, aber nicht, worauf dieses Verhalten beruht und auf welchem Weg es zustande gekommen ist. So arbeiten zum Beispiel die meisten Modelle des KI-Lernverfahrens „Deep Learnings“ mit einer systeminternen Abbildung der realen Welt, die für den Menschen nicht mehr verständlich ist. Dies kann am Ende dazu führen, dass eine KI zwar eindeutige Entscheidungen, Empfehlungen und Handlungen produziert, deren Herleitung jedoch für den Anwender, aber auch für den Modellersteller unverständlich bleibt. „Ethische KI“ gefordert Für eine dauerhafte Akzeptanz von KI in Wirtschaft und Gesellschaft sind solche Ansätze deshalb langfristig ungeeignet. Zumal 4

1 ethische Probleme im Zusammenhang mit Künstlicher Intelligenz eher Regel als Ausnahme sind. Von solchen Problemen berichten 86 Prozent der deutschen Unternehmen, die bereits KI bereits einsetzen, einer Studie der IT-Analysten von Capgemini zufolge. Die Forscher befragten 1.600 Führungskräfte und 4.400 Verbraucher weltweit. Demnach sind insbesondere Transparenz und Fairness für Konsumenten von großer Bedeutung. Ein als ethisch empfundener KI-Einsatz steigert bei knapp 60 Prozent der Befragten zudem die Kaufbereitschaft und Loyalität gegenüber dem jeweiligen Unternehmen. Zugleich wünschen sich 75 Prozent der Befragten neue Regulierungen. Eine Haftpflicht für Kollege Roboter Auch in der wissenschaftlichen und technischen KI-Forschung stehen Fragen der Ethik und Transparenz mittlerweile ganz oben auf der Tagesordnung. Das Stichwort lautet „XAI“, kurz für „Explainable Artificial Intelligence“. Sie ergänzen die bisherigen Entwicklungsmodelle um eine Erklär-Komponente, die es Anwendern ermöglichen soll, die zum Teil alles andere als trivialen Erklärungen der Modelle verständlich zu machen. Zudem sollen die Entwickler und Betreiber von KI-Modellen stärker in die Verantwortung genommen werden. Dies ginge zum Beispiel durch die Einführung von „elektronischen Personen“, die ähnlich wie natürliche Personen rechtlich haftbar gemacht werden können. Denn nur wenn jene, die vom Einsatz Künstlicher Intelligenz profitieren, die sich daraus ergebenden individuellen und gesellschaftlichen Kosten mittragen oder übernehmen, werden sich die neuen Technologien dauerhaft durchsetzen können. g Die EU-Kommission legte bereits 2018 ihre KI-Ethik-Leitlinien vor. Zu ihnen gehören die Forderung, dass KI stets unter menschlicher Aufsicht läuft, dass sie die Privatsphäre schützt, transparent ist und nicht diskriminiert. Doch wie lässt sich dies umsetzen? Ein jüngst vorgelegtes Weißbuch der Europäischen Kommission konkretisiert nun, wie entsprechende Regulierungen aussehen könnten – zum Beispiel die Vorgabe bestimmter Parameter für das Design von KI-Systemen, Regeln für Daten, aus denen KI-Systeme lernen oder eine Informationspflicht beim Einsatz von KI. © 3154 1062 7 - stoc k.ad ka obe e. com 5

EFIT

EF.IT Winter 2019
EFIT Sommer 2019
EFIT Frühjahr 2019
EFIT Sommer 2018

©1984 –2019 comTeam Systemhausverbund GmbH | Mündelheimer Weg 40 | 40472 Düsseldorf | Tel: +49 (0)211 975 333 27