/ News / Podcast

Lowell Backstage – Interview mit Prof. Gerd Gigerenzer

Kaum ein Unternehmen, das nicht Künstliche Intelligenz nutzt oder nutzen will. Aber ist KI tatsächlich das Allheilmittel? Und was bedeutet das für die Menschen, ihre Arbeitsplätze und unsere Demokratie? Diese Fragen diskutiert Niels Oelgart mit Prof. Dr. Gerd Gigerenzer.

Name: Prof. Dr. Gerd Gigerenzer

Beruf:   Psychologe und Direktor emeritus am Max-Planck-Institut für Bildungsforschung in Berlin sowie Direktor des Harding Zentrums für Risikokompetenz und Mitbegründer der Unternehmensberatung Simply Rational

 

Künstliche Intelligenz – abgekürzt KI – ist in aller Munde. Kaum ein Unternehmen, das sich nicht im Zuge fortschreitender Digitalisierung vorgenommen hat, KI zu nutzen. Aber ist KI tatsächlich das Allheilmittel für die Effizienzprobleme von Unternehmen? Müssen Menschen dadurch ihren Arbeitsplatz bedroht sehen? In seinem neuen Buch „Klick“ setzt sich der bekannte Psychologe und Risikoforscher Prof. Dr. Gerd Gigerenzer mit KI auseinander und stellt es vom Kopf auf die Füße. Ein wichtiges Thema auch für ein Inkassounternehmen wie Lowell, das eine Vielzahl sich wiederholender Aufgaben erledigen muss und dabei vermehrt auf künstliche Intelligenz als Ergänzung zu menschlichen Fähigkeiten setzt. Kommunikationschef Niels Oelgart hatte Prof. Gigerenzer in einer Sonderausgabe von Lowell Backstage zu Gast.

Wer kennt die Beispiele nicht? Schachprogramme, die selbst Großmeister vor fast unlösbare Aufgaben stellen. Und wenn das funktioniert, warum sollte KI dann nicht auch viele andere komplexe Entscheidungsprobleme lösen können? Vorsicht, sagt Prof. Dr. Gerd Gigerenzer im Gespräch mit Lowell Backstage. KI ist nicht KI und Entscheidungssituationen unterscheiden sich oft fundamental. Ob eine Aufgabe nach klaren Regeln oder unter Unsicherheit erledigt werden müsse, definiere, ob und wenn ja welche Art von Künstlicher Intelligenz das Mittel der Wahl sei. Viele Situationen heute seien eben mit Schach nicht zu vergleichen und hätten eben keine klar definierten Regeln, von denen nicht abgewichen würde. Sondern es passiere ständig, dass der König zum Beispiel die Regeln verletze und die Dame entnervt das Spielfeld verlasse. Um im Schach-Bild zu bleiben. In solchen Situationen seien es gerade nicht die Methoden des Machine Learning, die das bessere Ergebnis brächten, sondern die psychologische Künstliche Intelligenz. Als Beispiel führt er den Fall des gescheiterten Google Flu Trends an. Unter Unsicherheit brauche es nicht eine Vielzahl an statistischen Daten, sondern es reichten die jüngsten Daten. Und der Vorteil einer Partner-Plattform sei nicht, dass sie die valideren Ergebnisse liefere. Das tue in der Regel die Nachbarin. Aber die Plattform erleichtere den Zugang.

Mit eingängigen Beispielen beschreibt Gigerenzer, warum Transparenz über Algorithmen zu Verhaltensänderungen führen könnten. Wenn zum Beispiel Schufa-Algorithmen ähnlich transparent wären wie die Daten, die Versicherungen über ihre Telematik-Apps erheben, könnte jeder einzelne seinen Schufa-Score aktiv beeinflussen. Gleichzeitig warnte er vor den Steuerungs- und Kontrollmöglichkeiten, die damit einhergingen und die gerade in den Händen autokratischer Staaten zu Problemen führen könnten. Eins machte Gigerenzer aber unmissverständlich klar: Die erfahrene Lowell-Mitarbeiterin, die in einem Telefonat nach 30 Sekunden weiß, ob der angerufene Konsument zahlen wird oder nicht, die werde auch in Zukunft nicht durch KI zu ersetzen sein. „Sie brauchen beides – Kopf und Bauch“, ist sich der Experte sicher. Ein spannender Einblick in den aktuellen Erkenntnisstand zu Künstlicher Intelligenz.