Aktuelles E-Paper
Die generative Künstliche Intelligenz (KI) ist in aller Munde. Ein Beispiel: Chat-GPT, das Texte – scheinbar kinderleicht – produzieren kann. Die KI ist überraschend leistungsfähig, schnell und lernfähig. Aber: „Bei Chat-GPT sehe ich vor mir eine wiederkäuende Kuh, weil es Sprache und Gedanken, die schon einmal da waren, wiederkäut und ausspuckt“, zeigt der gebürtige Wiener Theologe und Philosoph Peter G. Kirchschläger auf. „Wir überschätzen Chat-GPT in der denkerischen Leistungsfähigkeit und unterschätzen es in den Auswirkungen auf Arbeit und Alltag. Beides ist gefährlich“, warnt der Schweizer Medienwissenschaftler Matthias Zehnder.
Er plädiert dafür, Chancen und Risiken penibel zu identifizieren, damit wir sie nützen beziehungsweise vermeiden können. Zehnder vergleicht die KI mit einer Blackbox: „Anders als bei herkömmlichen Maschinen und Robotern weiß man bei der KI nicht genau, was rauskommt. Künstliche Systeme lernen von sich aus. Sie lernen rasch Muster und vergleichen diese. Das kann gut und kreativ, aber auch gefährlich sein.“
Was der KI fehlt: menschliche Intelligenz. „Sie kann nur Sprachzeichen generieren, hat aber keinen Zugriff auf die Bedeutungsebene der Sprache“, beschreibt Matthias Zehnder. Das bedeutet, dass die KI keine Ahnung von Liebe, Seele und Gefühlen hat, sondern nur gut ist, Sprache zu schaffen, die Gefühle simuliert. Die Emotion, die beispielsweise Predigten brauchen, um zu berühren oder zu motivieren, gelingt der KI nicht.
„Weil wir darauf trainiert sind, Gefühle aus Sprache zu lesen, fallen wir darauf rein und lassen uns täuschen, obwohl überhaupt keine Emotion dahintersteckt“, zeigt der Medienwissenschaftler auf. Dazu kommt, dass die Künstliche Intelligenz Urheberrechte und Menschenrechte von Privatsphäre und Datenschutz vernachlässigt.
Auch Armin Grunwald, Professor für Technikphilosophie und Mitglied des Deutschen Ethikrats hat Bedenken: „Gerade der persönliche Zuspruch, also wo es um Vergebung, um Trost und um aufbauende Gespräche seelsorgerischer Art geht, ist wichtig. Das an eine Maschine zu delegieren, erscheint mir grotesk.“ Denn: Wenn man den Stecker rauszieht, ist alles vorbei.
Papst Franziskus warnt vor gezielter Falschinformation und der Anfälligkeit von Algorithmen für Vorurteile und Diskriminierung. Er fordert: „Künstliche Intelligenz muss anhand ethischer Maßstäbe reguliert werden.“ Nur die zwischenmenschliche Kommunikation könne „eine gewisse Wärme erzeugen“. Sein Fazit: „Maschinen haben kein Einfühlungsvermögen, sie können nur ,vermeintliche‘ Gefühle zeigen, Begegnungen simulieren.“
Daniela Pfennig/kap/kath.ch
Aktuelles E-Paper