KI-Mythen

»Künstliche Intelligenz« ist ein schillernder Begriff, um den sich viele Mythen ranken. Einige dieser Mythen wollen wir hier auflösen. Übrigens: die Antworten stammen aus dem Video »Künstliche Intelligenz – Wahr oder falsch? Was ist dran an den Mythen zur KI?« des Fraunhofer IUK-Verbunds Technologie und wurden mit einem Fraunhofer KI-System ganz automatisch in Text übersetzt.

Irrtum Nr. 1

»KI vernichtet Arbeitsplätze, weil kognitive Systeme viele Arbeiten genauer, schneller und fehlerfreier ausführen können

Antwort: »Es ist tatsächlich mittlerweile so, dass kognitive Systeme sehr gut in der Lage sind, Aufgaben zu übernehmen, für die ein Mensch studiert haben muss. Das führt dazu, dass kognitive Systeme immer mehr zum Einsatz kommen. Sie werden beispielsweise genutzt, um komplizierte Logistik-Ketten und Liefersysteme zu planen. Das sind schwierige Aufgaben, die für menschliche Experten immer noch eine große Herausforderung darstellen. Kognitive Systeme sind darin aber sehr gut und können das sehr robust, sehr genau und sehr präzise machen. Von daher ist wirklich damit zu rechnen, dass sich in naher Zukunft Umwälzungen auf dem Arbeitsmarkt ergeben werden. Viele Berufsbilder werden in naher Zukunft dann ergänzt und assistiert werden durch diese kognitiven Systeme und möglicherweise auch wegfallen. Gleichzeitig brauchen wir dann aber auch Leute auf dem Arbeitsmarkt, die in der Lage sind, kognitive Systeme zu bedienen, zu erstellen und für die Aufgaben zu optimieren, die sie lösen sollen.« Prof. Christian Bauckhage

Irrtum Nr. 4

»Entscheidungen von KI-Systemen sind neutraler und objektiver als die von Menschen

Antwort: »Das würde ich so nicht sagen. Zunächst haben KIs ja keine intrinsische Motivation, kein Eigeninteresse neutral oder objektiv zu sein. Es wird immer vom Trainingsmaterial und auch von der Intention des Trainers abhängen, »wie objektiv« man am Ende die Entscheidungen der Maschine bewertet. Letztlich ist die Maschine trainiert dafür eine Eingabe zu verarbeiten und eine Ausgabe zu liefern. Beispiel Medizin: Wenn ich die Maschine trainiere, bösartige Veränderungen der Leber in CT-Aufnahmen zu erkennen, wird sie nicht fähig sein, bösartige Veränderungen in der Milz, der Niere oder der Lunge zu finden. Vielmehr wird sie dabei komplett nicht-objektive Entscheidungen fällen. Letzten Endes ist die Maschine genauso objektiv, wie man die Trainingsdaten objektiv findet. Gerade in der Medizin – das ist dafür ein gutes Beispiel – will man in der Regel auch die nicht objektivierbaren Faktoren, wie zum Beispiel den Patientenwillen, mit]einbeziehen. Da endet dann auch schon der direkte Vergleich. Wir werden die Menschen brauchen, um die Maschinen-gestützten Entscheidungen zu verantworten.« Dr. Markus Wenzel

Irrtum Nr. 7

»Wenn wir nicht aufpassen, werden KI´s in absehbarer Zeit eigene Ziele, ein Bewusstsein und Träume haben.«

Antwort: »Dieser Mythos spricht philosophische Fragen und Erwartungen an, die kein Mensch erfüllen kann. KI-Systeme sind in einem belastbaren Sinne ja nicht wirklich »intelligent« – nicht auf die Art intelligent, wie ein Mensch sein kann. Ich halte diesen Mythos sogar für gefährlich, denn er weckt Erwartungen – bei Politikern, bei den Geldgebern – die Wissenschaftler nicht befriedigen können. Und wenn dann zwangsläufig die Enttäuschung eintritt, werden auch alle guten wissenschaftlichen Resultate in diesem Umfeld abgewertet. Wissenschaft war schon immer dafür da, Mythen zu bekämpfen – diesen Mythos sollte sie auf jeden Fall bekämpfen.« Dr. Wolfgang Koch

Irrtum Nr. 8

»KI schafft künstliche Gehirne.«

Antwort: »Naja, solange es den Begriff ›Künstliche Intelligenz‹ gibt, wird er schon diskutiert. Aber es ist nicht so, dass wir künstliche Gehirne oder künstliche Menschen bauen. Genauso wenig, wie ein Flugzeugbauer versucht, einen künstlichen Vogel zu bauen. Er möchte einfach etwas konstruieren, das fliegt. Und wir wollen Maschinen bauen, die elementare kognitive Aufgaben erledigen können, für die eigentlich Intelligenz benötigt wird. Wenn man verstanden hat, wie das genau technisch funktioniert, kommt einem das gar nicht mehr besonders intelligent vor. Trotzdem haben Maschinen oder Mechanismen, die elementare kognitive Aufgaben erfüllen, unseren Alltag bereits erreicht. Es gibt schon heute Geräte, die Autos steuern können. Unsere Handys können unsere Sprache verstehen oder sogar simultan übersetzen. Aber selbst, wenn man einer Maschine einzelne Fähigkeiten so gut beibringt, dass sie sogar besser wird als der Mensch – wie beispielsweise beim Lippenlesen – dann wird man am Ende trotzdem nicht von einem intelligenten Gerät sprechen.« Dr. Hans Meine

Irrtum Nr. 2

»KI entzieht sich der Kontrolle durch den Menschen und kann im schlimmsten Fall gegen den Willen ihrer Entwickler agieren.«

Antwort: »Diesen Mythos würde ich zum jetzigen Zeitpunkt als falsch betrachten. Es ist zwar so, dass KI-Systeme bei ihren Aufgaben zu Lösungen kommen können, die so nicht absehbar waren. Damit können sie ihre Entwickler durchaus überraschen, weil sie neue Antworten liefern, an die vorher niemand gedacht hat. Es ist aber nicht so, dass KI-Systeme eigene Kreativität aufweisen oder dass sie eigene Ziele hätten. Daher ist es wirklich nicht zu sehen, dass sich KI außerhalb unserer Kontrolle weiterentwickelt. Das ist Science Fiction – wenn überhaupt, wird das noch sehr, sehr lange dauern.« Prof. Christian Bauckhage

Irrtum Nr. 5

»Selbst den Schöpfern von KI-Algorithmen ist oft nicht mehr klar, weshalb genau die Maschine welchen Lösungsweg gewählt, welche Entscheidung getroffen hat.«

Antwort: »Bis vor einigen Jahren hätte ich dieser Aussage noch voll zugestimmt. Denn es war tatsächlich so, dass komplexe KI-Systeme, wie zum Beispiel neuronale Netze, nicht nachvollziehbar waren – man konnte diesen Systemen bei der Lösungsfindung nicht zuschauen. Sie wurden als Black Boxes eingesetzt und man hat darauf vertraut, dass sie schon das Richtige machen. Leider ist das nicht immer der Fall. In unserer Forschung mussten wir feststellen, dass ein KI-System – welches in diesem Fall zuverlässig Pferdebilder klassifiziert hat – gar nicht auf das Pferd im Bild geschaut hat, sondern auf einen Copyright-Tag, mit dem viele Pferdebilder versehen waren. In der Praxis will man so etwas natürlich nicht. In kritischen Anwendungen, wie beim autonomen Fahren oder in der Medizin, will man nicht nur sicherstellen, dass das Ergebnis korrekt ist, sondern auch, dass die Lösungsfindung Sinn ergibt und in dem Fall korrekt ist. Vor drei Jahren haben wir mit Kollegen von der TU Berlin eine generelle Technik entwickelt, die uns erlaubt zu sehen, auf welcher Grundlage das KI-System die Entscheidung getroffen hat. Und das ist ein erster Schritt zu so genannten »transparenten KIs« und entkräftet diesen Mythos auch ein Stück weits.« Dr. Wojciech Samek

Irrtum Nr. 9

»Autonom gesteuerte Fahrzeuge machen den Straßenverkehr sicherer, weil der ›Unsicherheitsfaktor Mensch‹ entfällt.«

Antwort: »Da ist schon was dran, man muss es aber ein bisschen differenzierter sehen. Alle Lebewesen verknüpfen ihre Sinneseindrücke mit dem, was sie schon einmal gelernt haben und dem, was andere ihnen mitteilen. Daraus formen sie ein mentales Modell ihrer Umgebung und können situationsadäquat handeln. Wenn man Autofahrer durch ein KI-basiertes System unterstützt, dann automatisiert dieses System das Sammeln und Verarbeiten von Informationen. Der Mensch wird dadurch ›klüger‹ und kann im Straßenverkehr situationsadäquater agieren. Natürlich kann von jeder Form der Automatisierung auch eine Gefahr ausgehen. Man muss die Gefahren des Automatisierungstools KI natürlich untersuchen und kennen.« Dr. Wolfgang Koch

Irrtum Nr. 3

»Mit Hilfe von Künstlicher Intelligenz werden Maschinen in absehbarer Zeit intelligenter sein als Menschen.«

Antwort: »Die Frage ob Maschinen intelligenter sein werden als Menschen, ist eigentlich gar nicht zu beantworten. Wir sollten hier eher über künstliche Kognition statt über Künstliche Intelligenz sprechen. Da sehen wir mittlerweile, dass Maschinen sehr gut in der Lage sind, Bilder und Sprachsignale zu analysieren, Texte zu lesen, aber auch Pläne zu machen. Zum Beispiel gibt es ein System, das den Weltmeister im Spiel Go geschlagen hat. In dieser Hinsicht sind Maschinen wirklich mittlerweile sehr gut. Bei solchen Spezialaufgaben ist es durchaus denkbar, dass sie in sehr naher Zukunft besser sein werden als menschliche Experten.« Prof. Christian Bauckhage

Irrtum Nr. 6

»KI-Algorithmen sind so komplex, dass man für deren Berechnungen ganze Rechenzentren braucht. Für den Otto-Normal-Verbraucher im Alltag sind sie also nicht nutzbar.«

Antwort: »Dieser Mythos ist so nicht korrekt. Denn auch wenn man natürlich starke Rechner braucht und insbesondere Grafikkarten, um diese Modelle zu trainieren, sind heute gerade Grafikkarten für wenig Geld zu haben, so dass sie auch für Privatanwender erschwinglich sind und somit jeder neuronale Netze trainieren kann. Noch wichtiger ist, dass es in den letzten Jahren verstärkt Forschung mit dem Ziel gibt, diese komplexen Modelle, die Millionen von Parametern haben und Gigabytes an Speicher benötigen, zu vereinfachen und zu komprimieren. So sind die Algorithmen nicht nur für den heimischen User verfügbar, sondern auch auf dem Smartphone ausführbar oder im gesamten IoT-Bereich. Diese Forschung hat sehr gute Ergebnisse gezeigt. Ich bin sehr hoffnungsvoll, dass diese Techniken in den nächsten Jahren noch mehr Verbreitung finden werden.« Dr. Wojciech Samek

Irrtum Nr. 10

»KI-Systeme sind beeinflussbar: Eine Künstliche Intelligenz wird ihre Entscheidungen immer im Sinne ihres Programmierers bzw. ihres Auftraggebers treffen.«

Antwort: »Das würde ich so nicht pauschalisieren. Der Hintergrund, warum man KI-Systeme verwendet ist, dass Daten existieren, die ein Problem beschreiben. Von der KI möchte man, dass sie dieses Problem in den Daten löst, also die Wahrheit in den Daten findet. Eine mögliche Manipulierbarkeit des Systems würde demnach primär über die Manipulation der Daten stattfinden. Als Beispiel dafür: 2016 hat Microsoft den Chatbot Tay auf Twitter losgelassen mit dem Ziel, das Kommunizieren zu lernen – mit Usern und von Usern. Nach einer gewissen Zeit haben jedoch einige User herausgefunden, dass der Algorithmus lernfähig ist und wie er lernt. Diese User haben dann den Bot mit rassistischen und antisemitischen Inhalten angeschrieben. Dieser hat das Kommunikationsverhalten aufgenommen und nach einiger Zeit angefangen, selbst rassistische oder antisemitische Inhalte zu posten. Nach 16 Stunden Betriebszeit hat Microsoft den Bot wieder vom Netz genommen, um weiteren Schaden zu vermeiden. Das ist ein Beispiel dafür, dass eine KI nicht immer im Sinne des Schöpfers handelt.« Sebastian Lapuschkin