Interview

Künstliche Intelligenz: Wer ist verantwortlich?

Wenn Autos autonom fahren, wer haftet, wenn ein Unfall passiert? Wenn Superrechner Ärzte bei Diagnostik und Therapie unterstützen, wer ist verantwortlich für eine falsche Diagnose? Oder was passiert, wenn Bewerber gegen Unternehmen klagen, weil ihre Bewerbung von einem Algorithmus abgelehnt wurde? Die sogenannte Künstliche Intelligenz ist eine noch vergleichsweise junge Technologie, die sich aufgrund der rapide zunehmenden Rechenleistung aber schnell in vielen Bereichen unseres Lebens verbreitet.

Bild: (v. l.) Julian Nida-Rümelin, Martina Koederitz, Klaus Schwab

Auf dem Innovationstag von Serviceplan diskutierten der renommierte Münchner Philosoph und Kulturstaatsminister a. D. Julian Nida-Rümelin und Martina Koederitz, Vorsitzende der Geschäftsführung IBM Deutschland, gemeinsam mit Klaus Schwab, Geschäftsführer der Plan.Net Gruppe, über neue ethische Standards. Wie sieht ein verantwortungsvoller Umgang mit künstlicher Intelligenz aus, der dazu beiträgt, eine humanere und gerechtere Zukunft in einer von der Digitalisierung geprägten Welt zu gestalten?

  • Frau Koederitz, Herr Prof. Nida-Rümelin, künstliche Intelligenz hat kaum den Anfang ihrer Einsatzmöglichkeiten erreicht, da scheinen bereits die Skeptiker zu dominieren. Müssen wir aktiv daran arbeiten, das Vertrauen der Menschen in Künstliche Intelligenz aufzubauen? Vielleicht auch, um zu verhindern, dass KI hinter ihren Möglichkeiten zurückbleibt?

    Martina Koederitz: Wie bei jeder neuen Technologie geht es darum, dass diejenigen, die damit zu tun haben, verantwortungsbewusst und zweckgebunden damit umgehen. Es muss nachvollziehbar sein, für wen und warum wir bestimmte Dinge mit KI tun. Schließlich sind wir bei dieser Revolution nicht nur Zuschauer. Jeder von uns ist auch Teilnehmer. In der Vergangenheit haben wir Vertrauen über Produkte, über Technologien, über Verlässlichkeit oder mit starken Unternehmenswerten erzeugt. Das gilt es jetzt in eine vernetzte, datengetriebene Wirtschaft zu übertragen Wir müssen in Deutschland klarmachen, dass wir mit der Digitalisierung verlässlich umgehen.

  • Haben wir denn in Deutschland schon das Verständnis für Künstliche Intelligenz? Aktuelle Studien zeigen, dass die Menschen dem Thema eher skeptisch und misstrauisch gegenüberstehen.

    Martina Koederitz: Ängste entstehen immer, wenn neue Dinge kommen. Wir müssen noch viel mehr in die Qualifizierung der Menschen investieren. Seit 30 Jahren gibt es das Internet, aber immer noch keinen einheitlichen Bildungsplan in Deutschland. Bildung und Qualifizierung sollte in unserem Land ein Riesenthema werden. Und jeder muss wissen, welchen Beitrag er in einer digitalen Gesellschaft leisten kann und will – und wie er mit seinen eigenen Daten verantwortlich umgeht.

    Julian Nida-Rümelin: Uns ist in den letzten Jahren ein Fehler unterlaufen. Bei der Industrialisierung haben wir mit den DIN-Normen sehr früh Standards gesetzt. Dieses Setzen von Leitplanken, innerhalb derer sich die Technologische Revolution entwickeln kann, haben wir bei der Digitalisierung versäumt. So stehen wir jetzt vor der merkwürdigen Situation, dass einige wenige Internet-Giganten die komplette digitale Infrastruktur bereitstellen. Dadurch entstehen die Ängste.
    Dabei sind das im Großen und Ganzen wohlwollende Unternehmen. Es ist bislang noch nichts wirklich Schlimmes passiert und man kann hoffen, dass das so bleibt. Aber die Big Data-Ökonomie führt zu einer Konzentration von potentiell missbrauchsanfälligen Kenntnissen, die durchaus besorgniserregend sind. Das ist einer der Gründe, warum so viel Vertrauen verloren gegangen ist. Die Menschen – nicht alle, aber selbst Jüngere – haben eine diffuse Angst. Da müssen wir nacharbeiten, damit sich dieses Gefühl nicht zu einem Innovations- und Investitionshemmnis entwickelt.

  • Je weiter sich die technologischen Möglichkeiten entwickeln, desto mehr wachsen unsere Ängste?

    Martina Koederitz: Die Sorge ist, dass wir im Moment Monopole schaffen, die gegen uns verwendet werden können. Aber seien wir ehrlich: Wenn uns als Verbraucher der Service angenehm ist, dann nutzen wir ihn. Wir entscheiden Tag für Tag mit, durch unser Verhalten. Je bequemer der Service, desto geringer die Priorität des Datenschutzes. Der kommt erst dann wieder auf den Tisch, wenn ein Problem entstehen kann. Wir müssen die Mündigkeit der Bürger fördern.

  • Wie machen wir das konkret? Wäre nicht die Industrie an dieser Stelle gefordert, etwas mehr in Technologiebildung zu investieren, Frau Koederitz?

    Martina Koederitz: Wir als IBM investieren wahnsinnig viel in die Qualifikation unserer Mitarbeiter und außerdem in die Wissenschaft rund um künstliche oder kognitive Intelligenz. Aber auch in Kindergärten, Grundschulen und allen Ausbildungsstätten sowie weiterführenden Schulen müssen wir mehr tun. Es gibt keinen Job in der Zukunft, der nicht irgendwie mit Daten, Digitalität oder Vernetzung zu tun hat. Und dieser Entwicklung tragen wir meines Erachtens noch nicht grundlegend genug Rechnung.

  • Künstliche Intelligenz verhält sich ja nicht immer automatisch so, wie wir uns das wünschen. Einem Chatbot von Microsoft haben Internet-Trolle eine sexistische und rassistische Sprache beigebracht, so dass er abgeschaltet werden musste. Der amerikanische Algorithmus Beauty AI hat nur weiße, hellhäutige Menschen zu Gewinnern bestimmt. Besteht eine Diskriminierungsgefahr durch Algorithmen? Kann man bei KI überhaupt von Moral oder Unmoral sprechen, Herr Nida-Rümelin?

    Julian Nida-Rümelin: Ich warne sehr davor neben Menschen, Organisationen, Unternehmen oder der Politik noch weitere Verantwortungsträger vorzusehen – wie etwa autonome Roboter. Es gibt einen ernsthaften Vorschlag, neben der Verantwortung des Menschen auch die Verantwortung des Roboters zu etablieren. Das halte ich aus zwei Gründen für hochgefährlich:

    1. Wir schaffen mit Künstlicher Intelligenz kein Gegenüber. Jede noch so intelligente Software hat keine personalen Eigenschaften. Sonst wären nämlich die Menschenrechte auch auf diese anwendbar. Wir dürften demnächst dann keine Computer mehr abschalten.
    2. Durch eine Verpersonalisierung der Computer würde eine Verantwortungsdiffusion entstehen, die nicht gut ist. Es gäbe keinen wirklichen Adressaten mehr.
  • Frau Koederitz, wie weit geht die ethische Verantwortung von Firmen, die KI anbieten?

    Martina Koederitz: Wir sind einer der ersten Anbieter von Cognitive Computing, der sehr klar gesagt hat, dass eine Zweckgebundenheit existiert: Also, welche Daten wir zu welchem Zweck benützen. Und welche Daten überhaupt relevant sind, um zu welchem Ergebnis zu kommen. Überall wo wir Daten gemeinsam mit Kunden und Partnern erheben, sind wir transparent, wem welche Daten und jedwedlicher Outcome aus der Datenanalyse gehören und mit welchen Algorithmen wir arbeiten, um Daten zu analysieren.

  • Wir haben bei Künstlicher Intelligenz im Prinzip drei Player: Serviceprovider wie IBM, Anwendungsentwickler wie Serviceplan als Agentur oder Anwender wie beispielsweise eine Marke. Wenn es hart auf hart kommt, wenn etwas schief läuft, wer trägt da die Verantwortung?

    Julian Nida-Rümelin: Da müsste man jetzt die Juristen bemühen, weil die Materie sehr komplex ist. Wir haben im Grunde mindestens zwei unterschiedliche Rechtsphilosophien, dies- und jenseits des Atlantiks. In den USA spielt unser Prinzip, vorher ausführlich die Risiken zu prüfen, eine eher geringe Rolle. Wenn dann tatsächlich Schäden eintreten, können die Kosten aber immens sein. Auch in unserem Kulturkreis können wir Risiken nie ausschließen, wir sollten uns aber immer risikoavers verhalten. Die Wahrscheinlichkeit eines Unheils sollte uns – trotz aller Innovationsfreude – wichtiger sein, als die Wahrscheinlichkeit eines großen Erfolges.

    Martina Koederitz: Eines ist mir ganz wichtig: Wir setzen Künstliche Intelligenz ein, um den Mensch in seiner Entscheidungsfindung zu stärken. Deswegen sprechen wir auch von Entscheidungs- und Assistenzsystemen. Die letzte Entscheidung soll dem Menschen überlassen bleiben. Ob das der Arzt ist, der aus drei Vorschlägen eine Behandlungsmethode auswählt oder im Finanzbereich das Zusammenspiel aus Anbieter und Kunde, das sich am Ende für ein Produkt entscheidet.
    Weil wir noch am Anfang einer neuen Technologie stehen, sind wir als IBM früh in die Artificial Intelligence Kommission in den USA eingetreten – gemeinsam z.B. mit Google, Sony, Zalando oder eBay. Dort stellen wir uns den Fragen, welche ethischen Regelungen, welche Leitlinien wir uns geben wollen: Welche Dinge müssen wir miteinander als Wirtschaft und als Unternehmen regeln? Wem gehören die Daten, was ist Ethik in diesem Zusammenhang und wie weit geht sie? Weil wir noch nicht auf alles eine Antwort haben, müssen wir die Antworten miteinander erarbeiten.

  • Glauben Sie denn, dass in dieser Entwicklung der Mensch das Kommando behalten wird? Oder anders gefragt: Wie lange wird der Mensch noch derjenige sein, der die Entscheidungen treffen wird?

    Julian Nida Rümelin: Prognosen sind da schwierig. Die Frage lautet für mich eher: Was sollte denn der Fall sein? Ich bin dagegen, sich auf den Standpunkt „Lass das mal laufen“ zurückzuziehen. Ich habe mich deswegen auch in die Debatte um autonomes Fahren eingeklinkt. Wir haben in unserem Verständnis von einer humanen und gerechten Gesellschaft, großteils auch im Grundgesetz so festgelegt, beispielsweise ein Abwägungsverbot. Sie können z.B. nicht sagen, wir opfern zwei ältere Herrschaften, damit wir ein Kind retten. Das kann man vielleicht als Individuum entscheiden, aber nicht in einen Algorithmus einschreiben. Wir können nicht nach Alter, Geschlecht oder was auch immer sortieren oder abwägen.
    Damit entsteht beim autonomen Fahren eine Herausforderung. Nämlich wie man mit Dilemmasituationen umgeht. Ein einzelner Fahrer kann so oder so entscheiden, eine öffentliche Regel aber muss ich ganz anders behandeln.

  • Und wie sähe Ihre Lösung aus?

    Julian Nida-Rümelin: Meines Erachtens sollten wir alles nutzen, was da ist. Das Stichwort lautet dann ,hochautomatisiertes Fahren‘. Aber bis auf Weiteres sollte eine Letztverantwortung, eine Interventionsmöglichkeit für den Menschen, aufrechterhalten werden.

  • Das klingt in der Theorie gut. In der Praxis reden wir aber viel über ,autonomes Fahren‘ und Experten gehen davon aus, dass wir in spätestens fünf Jahren nicht mehr ins Lenkrad greifen müssen. Wir müssten trotzdem weiter das Lenkrad in der Hand behalten?

    Julian Nida-Rümelin: In dem Augenblick, wo die Verkehrslage übersichtlich ist – z.B. beim Stop and Go auf der Autobahn – würde das Signal lauten: „Du kannst jetzt Zeitung lesen!“ In dem Moment, wo die Lage unübersichtlicher wird, wo möglicherweise Konfliktsituationen entstehen können, wird das System vom Fahrer verlangen, dass er wieder übernimmt. Das ist die Empfehlung der zuständigen Kommission, die ich auch unterstütze.

  • Brauchen wir generell ethische Standards für Künstliche Intelligenz? Und wenn ja, auf welcher Ebene?

    Julian Nida-Rümelin: Wir haben diese Standards. Es gibt das Grundgesetz und bestimmte kulturelle Grundhaltungen. Die große Herausforderung ist, dass diese auch implementiert werden, so dass sie wirksam werden. Was einem durchaus Sorge bereiten sollte, ist die Gefahr des Verlustes von Privatsphäre durch das Nutzen ganz normaler Kommunikations- und Interaktionstools. Da ist auch international eine Klärung und Regulierung dringend erforderlich. Und das muss nicht zwingend zu Lasten der Unternehmen gehen. Auch sie sind daran interessiert, dass Klarheit herrscht. Im Augenblick gibt es ja gerade Prozesse mit gigantischen Strafen – in diesen Tagen z.B. gegen Google. Klare Richtlinien sind auch im ökonomischen Interesse. Deswegen brauchen wir globale Institutionen, die nicht nur beim Klimawandel, sondern auch bei der Digitalisierung Verantwortung übernehmen.

  • Können Sie unseren Zuhörern Tipps mit auf den Heimweg geben, wie jeder von uns in seinem Unternehmen dafür sorgen kann, dass verantwortungsbewusst mit Künstlicher Intelligenz umgegangen wird?

    Martina Koederitz: Jeder einzelne im Unternehmen sollte sich zum Ersten fragen, wie er mit Daten umgeht. Zweitens sollte man sich mit Künstlicher Intelligenz aktiv auseinandersetzen. Und nicht warten, bis irgendetwas fertig ist, sondern eigene Erfahrungen machen. Drittens müssen sich die Unternehmen selbst sehr klar positionieren, zu welchem Zweck sie KI einsetzen: Was soll da rauskommen? Wer ist der Nutznießer bzw. hat welchen Wert davon? Ich glaube, man kann durch den Einsatz von KI sehr viel bewegen.

    Julian Nida-Rümelin: Ich sehe beispielsweise die Forderung nach Transparenz sehr ambivalent. Es muss nicht alles transparent sein. Die Transparenzideologie sollte ihre Grenzen an der individuellen und kollektiven Selbstbestimmung finden. Auf der anderen Seite sollten wir als Bürger mehr Transparenz einfordern können, was den Umgang mit unseren Daten in den Unternehmen angeht.
    Natürlich ist das für Unternehmen eine große Herausforderung, weil sie ihren Datenschatz hüten und ungern die algorithmische Steuerung öffentlich diskutieren wollen. Aber genau dieses Verhalten schafft Unsicherheit – wenn die Menschen nicht wissen, was mit ihren eigenen Daten genau passiert. Ich glaube, dass große Konzerne wie Facebook mittlerweile eine kulturelle Rolle spielen. Sie geben Empfehlungen des richtigen Verhaltens an eine ganze Generation, die mit ihnen aufwächst. Dieser Verantwortung werden sie nicht immer gerecht.

This page is available in English (Englisch)