asd
- Advertisement -spot_img
HomeKünstliche IntelligenzKI auf dem Vormarsch: Wer trägt die Verantwortung für von KI getroffene...

KI auf dem Vormarsch: Wer trägt die Verantwortung für von KI getroffene Entscheidungen?

- Advertisement -spot_img

Autorin: Dr. Isabella Hermann

Künstliche Intelligenz und Maschinelles Lernen gewinnen in unserem privaten und beruflichen Alltag immer mehr an Bedeutung. Ihr Einsatz kann Schwächen der Menschen überbrücken, insbesondere bei der Auswertung von großen Datenmengen. Auf der Grundlage der Daten können wiederum Entscheidungen getroffen werden – auch direkt von den „intelligenten Systemen”. Aber wer trägt für diese Entscheidungen die Verantwortung?

Mit Fragen wie dieser beschäftigt sich die interdisziplinäre Arbeitsgruppe „Verantwortung: Maschinelles Lernen und Künstliche Intelligenz” der Berlin-Brandenburgischen Akademie der Wissenschaften. Dr. Isabella Hermann ist die wissenschaftliche Koordinatorin der Arbeitsgruppe. Das SQ-Magazin hat mit ihr über die Themen (künstliche) Intelligenz, Entscheidungen und Verantwortung gesprochen.

“Künstliche Intelligenz ist nichts mehr als die nächste Stufe der Datenverarbeitung, bei der Muster in großen Datenmengen erkannt werden.”

“Frau Dr. Hermann, wie würden Sie Intelligenz definieren? Hilft Intelligenz uns überhaupt bei Entscheidungen? So manche Studien deuten an, dass kluge Menschen nicht unbedingt besser entscheiden!

Die Definition von Intelligenz ist umstritten und der erste Stolperstein, wenn man Künstliche Intelligenz zu definieren versucht. Dabei sind zwei Dinge zu beachten: Zum einen, dass es bei Künstlicher Intelligenz nicht darum geht, die Fähigkeit „kluger” oder „weniger kluger” Menschen nachzuahmen, sondern die menschliche Fähigkeit an sich, komplexe Probleme zu lösen. Daran schließt sich 2020 auch der zweite Punkt an nämlich, dass der Begriff „Künstliche Intelligenz” nicht in langen interdisziplinären Diskussionen als der bestmögliche herauskam.

Vielmehr wurde er vor fast 65 Jahren geprägt, als die vier Technik-Pioniere John McCarthy, Marvin Minsky, Nathaniel Rochester und Claude Shannon zu einem Sommer-Workshop unter dem Titel „Dartmouth Summer Research Project on Artificial Intelligence“ einluden. Sie beschreiben „Artificial Intelligence” in dem Projektantrag als eine Maschine, die sich auf eine Weise verhält „that would be called intelligent if a human were so behaving”.

Das heißt also, dass sich eine Maschine so „verhält” als ob – es handelt sich schlichtweg um einen catchy Kunstbegriff. Künstliche Intelligenz ist nichts mehr als die nächste Stufe der Datenverarbeitung, bei der Muster in großen Datenmengen erkannt werden. Dass der Begriff gerade so einen Hype erfährt, liegt an der gesteigerten Rechenleistung der Computer, den Fortschritten in der Informatikforschung der letzten zehn Jahre und den durch die Digitalisierung vorliegenden großen digitalen Datenmengen, mit denen die Maschinen trainiert werden und darin Muster erkennen können.

Warum brauchen wir künstliche Intelligenz? Trauen wir unserer eigenen nicht mehr? Soll uns KI beim Denken helfen oder für uns denken?

Wie oben beschrieben, war Künstliche Intelligenz nicht auf einmal da. Der Wunsch, komplexe Probleme mit Computern zu lösen, ist so alt – wenn nicht sogar älter – wie der Computer selbst. Der Soziologe Armin Nassehi zeigt in seinem neuen Buch „Muster”, wie unsere Gesellschaft schon „digi­tal” wurde, bevor es digitale Technologien gab: Nämlich einfach dadurch, dass immer mehr Daten über die Bevölkerung und das soziale Leben erfasst wurden. KI-basierte Technik ermöglicht jetzt die Auswertung der Daten, also Muster in den Daten zu sehen, die dem Menschen bisher verborgen blieben.

Können wir es uns heute schon leisten, auf die Entscheidungen von Maschinen zu vertrauen? Wo sehen Sie hier die größten Chancen, wo die Gefahren?

Maschinen stehen nicht für sich alleine, sie werden konzipiert und programmiert und mit Daten gefüttert. Wir dürfen nicht vergessen, dass hinter jeder Technik Menschen stehen, die sie nach ihren Weltbildern entwerfen. Eine Chance ist sicherlich, komplexe Prozesse zu optimieren und bestimmte Risiken einzuschätzen. Eine Gefahr ist, dass wir KI-Systeme immer nur mit vergangenen Daten trainieren.

Wenn wir KI-basierte Technik also im sozialpolitischen Kontext anwenden, dann leben wir in der Empirie der Vergangenheit. Wenn wir die Zukunft gestalten wollen, können wir aber nicht nur vergangene Daten analysieren, denn dann wäre ja zum Beispiel die Unterdrückung der Frau eine historische Gegebenheit. Wir brauchen menschliche Konzepte und Ideen für die Zukunft, dann können uns KI-Systeme zum Beispiel sogar helfen, Ungerechtigkeiten zu erkennen – das klappt aber nur, wenn wir eine Idee der Zukunft haben, in der wir Ungerechtigkeiten vermeiden möchten.

Glauben Sie, dass uns KI helfen wird, die Welt sicherer zu machen? Wird KI relevant sein bei Entscheidungen, die uns alle betreffen?

KI ist hochrelevant bei Entscheidungen, die uns alle betreffen, weil „KI” nicht für sich alleine steht, sondern als „technology of everything”, in allen Bereichen angewendet werden kann. KI kann wie jede Technik für Gutes oder Schlechtes eingesetzt werden – wie ein Messer, mit dem ich Brot schneiden, oder jemanden verletzten kann.

Deswegen brauchen wir technische Standards und Regulierung. Über die Gefahren des Einsatzes von KI wird oft in der automatischen Kriegsführung gesprochen. Unabhängig von den großen ethischen Diskussionen, ob man „autonome tödliche Waffensysteme” einsetzen darf, beispielsweise weil es gegen die Würde des Menschen spricht, von einer Maschine getötet zu werden, ist eine große weitere Problematik die Geschwindigkeitssteigerung in der Kriegsführung – es wäre denkbar, dass durch zunehmende Automatisierung in Sekundenschnelle ganze Kriege entstehen, ohne dass Menschen die Lage beurteilt hätten. Ähnlich wie bei Flash Crashes an der Börse.

Wer trägt die Verantwortung für von KI getroffene Entscheidungen? Müssen wir unser Verständnis von Verantwortung vielleicht in diesem Zusammenhang überdenken?

Um diese Frage geht es genau in der interdisziplinären Arbeitsgruppe „Verantwortung: Maschinelles Lernen und Künstliche Intelligenz” der Berlin-Brandenburgischen Akademie der Wissenschaften, die ich koordiniere. Finden wir uns damit ab, dass wir die Vorhersagen von KI-Systemen, die auf tiefen neuronalen Netzen beruhen, nicht mehr verstehen können? Dürfen wir Systeme, deren Funktionsweise wir nicht mehr verstehen – man spricht hier von der sogenannten Black Box – überhaupt einsetzen?

Und hier geht es nicht darum, dass ich als Verbraucher nicht genau weiß, wie mein Automotor funktioniert, sondern dass nicht einmal die Programmierer selbst sagen können, warum Maschinen bestimmte Resultate ausgeben. Dahinter verstecken sich dann auch viele Unternehmen, indem sie schlichtweg behaupten, dass die Systeme einfach zu komplex seien, obwohl das wiederum gar nicht stimmt.

Als Verbraucher muss ich beispielsweise wissen, warum mir bei der Anfrage nach einem Kredit ein niedriger Score zugewiesen wird und ich deswegen keinen Kredit erhalte. Dagegen muss ich Einspruch erheben können – da gibt es am Verantwortungsbegriff nichts zu überdenken. An der Stelle wird gerade unter dem Begriff „Explainable AI” auch stark geforscht. Zum Glück tut sich hier auch auf europäischer Ebene gerade vieles – Ende Februar soll auch ein erster Regulierungsentwurf der EU-Kommission für KI herauskommen.

Vielen Dank, Frau Dr. Hermann.

[/content_control]

Artikel teilen
Redaktion
Redaktion
Die SQ-Magazin Redaktion ist Ihr Ansprechpartner für alle Fragen, Anregungen und Ideen rund um das SQ-Magazin. Kontaktieren Sie uns gern unter redaktion@sq-magazin.de Wir freuen uns auf Ihre Nachricht!
- Advertisement -Certified DevOps Portfolio
Neueste Artikel
Weitere interessante Artikel
- Advertisement -spot_img
[js-disqus]