Vertrauen in KI
Zentrale Fragen rund um das Thema Vertrauen in KI.
Herr Prof. Riedl, Ihr Buch „Vertrauen in Künstliche Intelligenz: Eine gute Entscheidung?“ behandelt alle zentralen Fragen rund um das Vertrauen in KI. Was hat Sie dazu bewogen, ein so umfassendes Themenspektrum abzudecken?
Prof. Riedl: Künstliche Intelligenz ist längst keine Zukunftsmusik mehr, sondern Teil unseres Alltags. Gerade deshalb habe ich einen weiten Themenbogen gespannt: von den Grundlagen, was Vertrauen überhaupt bedeutet, über Faktoren, die Vertrauen in KI fördern oder zerstören können, bis hin zu den Chancen und Gefahren für Individuen, Unternehmen und die Gesellschaft. Mit vielen Beispielen aus Medizin, Wirtschaft, Politik und Alltag möchte ich zeigen, dass es dabei nicht primär um Technik geht, sondern um zutiefst menschliche Fragen.
Was ist die Quintessenz Ihrer Auseinandersetzung?
Prof. Riedl: Vertrauen in KI ist kein einfaches „Ja“ oder „Nein“. Es braucht eine differenzierte Betrachtung, weil Vertrauen sowohl Chancen eröffnet als auch Gefahren birgt. Meine zentrale Botschaft lautet: Wir sollten KI dann vertrauen, wenn sie nachweislich dabei hilft, individuelle, betriebswirtschaftliche oder gesellschaftliche Ziele zu erreichen. Wenn sie diese Ziele gefährdet, ist Misstrauen angebracht. Vertrauen muss also immer rational begründet und überprüfbar sein – auch wenn Menschen oftmals Bauchentscheidungen treffen.
Vielleicht zu Beginn noch ein kurzes Wort zu Ihrem Tätigkeitsbereich …
Prof. Riedl: Ich beschäftige mich seit über 20 Jahren wissenschaftlich mit der Digitalisierung und ihren Auswirkungen. Als Hochschulprofessor leite ich seit vielen Jahren Forschungsgruppen, die das Zusammenspiel von Mensch, Technologie und Organisationen untersuchen. Darüber hinaus bin ich in interdisziplinären Projekten mit Kolleginnen und Kollegen aus verschiedensten Disziplinen aktiv. Dieses breite Umfeld sowie mein fachlicher Hintergrund in der Wirtschaftsinformatik und Psychologie haben es mir ermöglicht, Vertrauen in KI nicht nur technisch, sondern auch psychologisch, ökonomisch, gesellschaftlich und ethisch zu betrachten.

Sie sprechen von Chancen und Gefahren – was war Ihnen dabei besonders wichtig?
Prof. Riedl: Die Potenziale der KI sind enorm: Sie kann Krankheiten früher erkennen, den monotonen Arbeitsalltag erleichtern, Bildung individuell gestalten und neue kreative Möglichkeiten eröffnen. Gleichzeitig sehe ich auch Risiken wie algorithmische Diskriminierung, Desinformation, Abhängigkeit, Kompetenzverlust oder Umweltbelastungen durch hohen Ressourcenverbrauch. Mein Ziel war es, nicht schwarz-weiß zu argumentieren, sondern sachlich aufzuzeigen, wo Chancen realistisch sind – und wo wir entschieden gegensteuern müssen.
Sie geben in Ihrem Buch auch konkrete Anregungen. Was steckt dahinter?
Prof. Riedl: Ich wollte nicht nur Probleme benennen, sondern auch Lösungen aufzeigen: von erklärbarer KI über angemessene Regulierung bis hin zu einer neuen Kultur der Eigenverantwortung. Wir brauchen Aufklärung und Bildung, damit Menschen KI kritisch, aber konstruktiv nutzen können. Blindes Vertrauen ist genauso gefährlich wie pauschales Misstrauen. Es geht darum, die richtige Balance zu finden.
Ein von Ihnen genanntes Schlagwort lautet: „Vertrauen messen wir daran, ob KI zur Zielerreichung beiträgt.“ Bitte erläutern Sie uns diesen Zusammenhang etwas genauer.
Prof. Riedl: Genau. Vertrauen in KI ist nicht primär eine emotionale Frage, sondern eine funktionale. Wenn ein System dazu beiträgt, Ziele wie Gesundheit, Sicherheit, Effizienz oder Nachhaltigkeit zu erreichen, verdient es Vertrauen. Wenn nicht, ist Skepsis angebracht. Das klingt einfach, ist aber eine große Herausforderung – denn oft werden mehrere Ziele gleichzeitig verfolgt, die sich teilweise widersprechen. Deshalb plädiere ich in meinem Buch für eine nüchterne und evidenzbasierte Diskussion.


Wie sicher sind unsere demokratischen Prozesse angesichts von KI?
Prof. Riedl: Demokratie und Meinungsbildung stehen unter Druck, weil Künstliche Intelligenz Desinformation und Manipulation in einem bisher unbekannten Ausmaß ermöglicht. Deepfakes oder personalisierte Empfehlungssysteme sind nur zwei Beispiele dafür. Wenn wir hier keine klaren Regeln schaffen, droht ein Vertrauensverlust in Politik und Medien. Deshalb ist eine Regulierung wie der europäische AI Act wichtig – allerdings darf sie die wirtschaftliche Innovation nicht behindern. Es ist entscheidend, dass die Regulierung nicht überbordend wird und den Fortschritt hemmt.
Und wie steht es mit dem Arbeitsmarkt?
Prof. Riedl: Auch hier ist die Entwicklung ambivalent. Einerseits wird KI viele Arbeitsplätze verändern und manche Tätigkeiten ersetzen. Andererseits entstehen neue Beschäftigungsfelder. Entscheidend ist, dass wir Bildung, Umschulung und Anpassungsfähigkeit stärken. Wer KI klug nutzt, wird profitieren. Wer sie ignoriert, läuft Gefahr, abgehängt zu werden.
Sie betonen, dass Vertrauen immer auch eine gesellschaftliche Dimension hat. Wie lässt sich das einfach erklären?
Prof. Riedl: Vertrauen in KI ist nicht nur eine Frage zwischen Nutzer und Technologie, sondern auch eine Frage institutioneller Rahmenbedingungen. Menschen vertrauen Systemen nur, wenn sie das Gefühl haben, dass Unternehmen, Politik und Wissenschaft verantwortungsvoll handeln. Deshalb braucht es Transparenz, Aufklärung, ethische Standards und eine breite gesellschaftliche Debatte.
Ihr Blick in die Zukunft?
Prof. Riedl: KI wird menschenähnlicher werden – in Sprache, Verhalten und Aussehen. Das macht die Vertrauensfrage noch dringlicher. Wir müssen lernen, bewusst mit dieser Technologie umzugehen. Vertrauen darf nicht naiv sein, sondern sollte das Ergebnis von Abwägung, Prüfung und Verantwortung sein. Wenn mein Buch dazu beiträgt, diese Reflexion anzustoßen, hat es seinen Zweck erfüllt.