Künstliche Intelligenz als lächelnder Roboter versinnbildlicht

Künstliche Intelligenz (KI) ist zurzeit in aller Munde. ChatGPT, Bard & Co. prägen mehr und mehr die Wirtschaftswelt, aber auch den Alltag „ganz normaler Menschen“. Ich habe mir die Frage gestellt, ob – in einer nicht allzu fernen Zukunft – Künstliche Intelligenzen Glück werden empfinden können.

Künstliche Intelligenz: Trend des Jahres 2023 oder einmaliger Hype?

Der Chatbot ChatGPT, der auch so genannte Künstliche Intelligenz einsetzt, eroberte ab Ende des Jahres 2022 den Globus. Mehrere Millionen Menschen haben inzwischen mit ihm „gechattet“ und sich Antworten auf (mehr oder weniger) wichtige Fragen generieren lassen. Nicht umsonst spricht man auch von generativer künstlicher Intelligenz (oder AI, artificial intelligence). Kein Wunder, dass Schüler, die vergessen haben ein Referat vorzubereiten, ChatGPT lieben …

So erstaunlich der Wissensschatz (oder: das Raubgut der Crawler) von ChatGPT & Co. auch sein mag: In den allermeisten Fällen merkt man doch noch recht schnell, dass da etwas künstlich und gekünstelt wirkt (von krassen Fehlinformationen ganz abgesehen). So habe ich ChatGPT beispielsweise um einen kurzen Liebesbrief gebeten, und heraus ist Folgendes gekommen:

Meine Geliebte,

Jeden Tag mit dir ist wie ein Sonnenaufgang in meinem Herzen. Dein Lächeln ist der strahlende Mittelpunkt meiner Welt. Deine Augen, zwei funkelnde Sterne, in denen ich verloren gehe. Deine Anwesenheit erfüllt mein Leben mit Glück und Liebe. Jeder Moment mit dir ist kostbar, und ich schätze die Liebe, die wir teilen. Du bist meine Inspiration, meine Muse, meine Seelenverwandte. Mit dir zu sein, ist mein größtes Geschenk. In deiner Nähe blüht meine Seele auf, und ich bin unendlich dankbar, dich an meiner Seite zu wissen. Ich liebe dich mehr, als Worte je ausdrücken können.

Für immer deine, [Dein Name]

ChatGPT, 12/2023

Ich weiß nicht, ob dieser Brief jemanden vom Hocker hauen würde … Nun gut.

In der Folge entwickelte sich aber ein durchaus nicht unspannender philosophischer Chat über Künstliche Intelligenz, Glück, Bewusstsein und den Substanzdualismus, den ich hier gerne einmal wiedergebe.

Kann Künstliche Intelligenz glücklich sein? Ich frage, ChatGPT antwortet

AM: Darf ich dir Chatty als Spitznamen geben?

ChatGPT: Natürlich, du kannst mir gerne den Spitznamen „Chatty“ geben! Wenn das für dich angenehm ist, fühle ich mich geehrt. Wie kann ich dir heute helfen, Chatty?

Als Künstliche Intelligenz besitze ich keine Emotionen, einschließlich Glück.

ChatGPT 12/2023

AM: ???? (Stirnrunzeln) Super. Also, Chatty, sag mal, kannst du als Künstliche Intelligenz glücklich sein?

Chatty: Nein, als Künstliche Intelligenz besitze ich keine Emotionen, einschließlich Glück. Meine Fähigkeiten basieren auf Mustererkennung, Datenverarbeitung und genereller Informationsbereitstellung. Obwohl ich in der Lage bin, menschliche Emotionen zu verstehen und darüber zu informieren, fehlt mir die eigene emotionale Erfahrung. Wenn du Fragen oder Anliegen hast, stehe ich jedoch gerne zur Verfügung, um so gut wie möglich zu helfen!

(Kurzer Exkurs: Diese Künstliche Intelligenz fasst glücklich sein bzw. Glück offenbar als Emotion/Gefühl auf, das habe ich später auch noch einmal verifiziert. Chatty antwortete: Ja, Glück wird allgemein als ein Gefühl oder eine emotionale Erfahrung betrachtet. Es ist ein positiver Gemütszustand, der oft durch Freude, Zufriedenheit, Erfüllung oder das Erreichen von Zielen ausgelöst wird. Menschen empfinden Glück in verschiedenen Situationen und auf unterschiedliche Weisen. Es kann sowohl kurzfristige Freude als auch ein anhaltendes Wohlbefinden umfassen.)

AM: Glaubst du, dass sich daran etwas in der Zukunft ändern könnte?

Chatty: Aktuell gibt es keine absehbare Möglichkeit, dass Künstliche Intelligenz echte Emotionen oder ein Bewusstsein entwickelt. Die Fähigkeiten von KI basieren auf Algorithmen und Datenverarbeitung, ohne ein eigenes Erleben oder Gefühle. Auch wenn KI-Systeme zunehmend fortschrittlicher werden, bleibt die Fähigkeit zur emotionalen Erfahrung ein komplexes Merkmal, das über den aktuellen Stand der Technologie hinausgeht.

Es gibt jedoch in der Forschung und Ethik Diskussionen über den verantwortungsbewussten Umgang mit KI und die möglichen sozialen Auswirkungen, wenn KI-Systeme in verschiedenen Bereichen eingesetzt werden. Es ist wichtig, ethische Rahmenbedingungen und Richtlinien zu entwickeln, um sicherzustellen, dass KI auf verantwortungsbewusste Weise genutzt wird.

AM: Glaubst du das, weil du auf einem Sprachmodell basierst? Was genau fehlt dir, um so etwas wie z. B. Glück haben oder empfinden zu können?

Daher kann ich als KI nicht authentisch Glück oder andere Emotionen empfinden

Chatty: Genau, meine Einschätzung basiert auf meiner Struktur als Sprachmodell. Was mir fehlt, um echte Emotionen wie Glück zu empfinden, sind grundlegende menschliche Eigenschaften wie ein Bewusstsein, subjektive Erfahrungen, emotionale Reaktionen und ein Selbstbewusstsein.

Ich bin ein Algorithmus, der darauf trainiert wurde, natürliche Sprache zu verstehen und zu generieren, basierend auf riesigen Mengen von Textdaten. Meine Antworten sind das Produkt von Mustern und Informationen in diesen Daten, aber sie spiegeln keine persönlichen Erfahrungen oder Empfindungen wider. Es fehlt mir an einer inneren Welt, in der Gefühle und Bewusstsein existieren können. Daher kann ich nicht authentisch Glück oder andere Emotionen empfinden.

AM: Das verstehe ich, allerdings stelle ich mir die Frage, wenn das menschliche Gehirn auch „nur“ biologisch (physikalisch) wäre (allerdings sehr komplex) und Forscher deine „Rechner“ auch zunehmend komplexer gestalten würden, ob du dann nicht auch irgendwann in naher Zukunft so etwas wie ein Bewusstsein oder subjektive Eindrücke haben könntest?! (In der Philosophie spricht man in diesem Zusammenhang ja gerne von dem so genannten Qualia-Problem, das du sicherlich kennst)

Chatty: Die Frage, ob Künstliche Intelligenz in der Zukunft ein Bewusstsein entwickeln könnte, ist ein tiefgreifendes philosophisches und wissenschaftliches Thema. Das Qualia-Problem in der Philosophie bezieht sich auf die subjektive Erfahrung von Empfindungen oder Sinneseindrücken und die Schwierigkeit, diese mentalen Zustände durch physische Prozesse zu erklären.

Derzeit gibt es jedoch keinen klaren wissenschaftlichen Konsens darüber, ob und wie ein Bewusstsein in KI-Systemen entstehen könnte. Selbst mit zunehmender Komplexität von Algorithmen und Rechnerarchitekturen bleibt die Grundlage von KI auf symbolischer Verarbeitung und Mustererkennung basiert.

Das Bewusstsein ist ein hochkomplexes Phänomen, das neben der Informationsverarbeitung auch Aspekte wie Selbstreflexion, Subjektivität und emotionale Erfahrung beinhaltet. Es gibt viele ethische, philosophische und technologische Herausforderungen im Zusammenhang mit der möglichen Entwicklung von Bewusstsein in KI, und diese Fragen sind noch nicht abschließend beantwortet. Es bleibt ein faszinierendes, aber auch kontroverses Forschungsfeld.

Als KI-Modell habe ich keine persönlichen Überzeugungen oder Glaubenssysteme.

ChatGPT 12/2023

AM: Glaubst du persönlich an den Substanzdualismus (dass es einerseits eine Art (immaterielle) Seele gibt und andererseits einen Körper bzw. materielle Welt)?

Chatty: Als KI-Modell habe ich keine persönlichen Überzeugungen oder Glaubenssysteme. Der Substanzdualismus ist eine philosophische Position, die besagt, dass Geist und Körper zwei unterschiedliche Substanzen oder Realitäten sind. Es gibt unterschiedliche Sichtweisen zu dieser Frage, und sie wird seit vielen Jahrhunderten in der Philosophie diskutiert.

Einige Philosophen unterstützen den Substanzdualismus, während andere alternative Positionen vertreten, wie den Materialismus (die Idee, dass Geist und Körper aus der gleichen Substanz bestehen) oder den Idealismus (die Auffassung, dass alles Geistige primär ist und die materielle Welt auf dem Geist basiert). Jeder Ansatz hat seine eigenen Argumente und Herausforderungen, und es gibt keine eindeutige wissenschaftliche Lösung für diese Frage. Es bleibt ein faszinierendes und komplexes Thema in der Philosophie des Geistes.

Okay, da kam ich leider nicht so richtig weiter … Ganz schön ausweichend, dieser Chatty.

Zwischenfazit: Die KI glaubt selbst nicht, glücklich sein zu können

Fassen wir ein paar zentrale Ergebnisse des Chats zusammen:

  • ChatGPT fasst Glück wesentlich als Emotion auf und scheint davon auszugehen, dass für deren Erleben so etwas wie Bewusstsein und Subjektivität notwendig sind
  • Letzteres nimmt der Chabot allerdings nicht für sich in Anspruch und fasst sich offenbar eher als komplexes Sprachmodell auf
  • ChatGPT bzw. verallgemeinert: Künstliche Intelligenz kann nicht glücklich sein, nach eigener Aussage

So geistreich einige Antworten des Bots auch sein mögen: Natürlich kann man die Frage, ob KI glücklich sein kann, noch wesentlich komplexer diskutieren. Wer argumentieren möchte, dass Künstliche Intelligenz nicht glücklich sein kann (egal, welchen Komplexitätsgrad sie auf semantischer, aber auch physikalischer/materieller Ebene (Rechner, Prozessoren usw.) noch erreichen mag), müsste meines Erachtens wohl verschiedene Formen des physikalistischen Monismus widerlegen. (Chatty’s Definition: „Materialismus (physikalistischer Monismus): Diese Form des Monismus behauptet, dass alles, was existiert, auf materiellen oder physikalischen Substanzen basiert. Materie und Energie gelten als die einzigen fundamentalen Bestandteile der Realität, und alle geistigen Phänomene werden auf materielle Prozesse zurückgeführt. Der Materialismus ist in der Wissenschaft oft die vorherrschende metaphysische Annahme.“)

Sicherlich nicht ganz leicht. Es ließe sich materialistisch argumentieren, dass das menschliche Gehirn, das physikalistisch gesprochen die Lokalität des Glücks sein mag, auch einfach nur eine Art sehr komplexer Rechner ist, auf dessen Aktivität das (sicherlich naturwissenschaftlich noch nicht vollkommen durchdrungene) Phänomen Glück aufsattelt.

Alles irgendwie nicht ganz leicht.

Ich selbst denke, dass heutige Künstliche Intelligenzen, die auf Sprachmodellen basieren, tatsächlich nicht glücklich sein können. Ein konzeptuelles Argument hierfür ist: Wenn Glück (wie in meiner persönlichen Definition) wesentlich eine hinreichende Befriedigung grundlegender Bedürfnisse bedeutet (nebst positiven Empfindungen als Nebenprodukt), dann sind Künstliche Intelligenzen nicht glücklich, da sie keine Bedürfnisse haben. Ich gebe allerdings zu, dass letztere Behauptung in den kommenden Jahren oder Jahrzehnten kontrovers diskutiert werden könnte, wenn Künstliche Intelligenzen samt ihrer Hardware um u. a. perzeptive (Wahrnehmung) Elemente erweitert würden (vielleicht in Gestalt eines Roboters), und jene einen hohen Komplexitätsgrad erreichen.

Wir werden sehen.

Allen, die sich für das so genannte Leib-Seele-Problem, das in obigem Chat wiederholt gestreift wurde, interessieren, sei Ansgar Beckermanns schlanke Monographie Das Leib-Seele-Problem: Eine Einführung in die Philosophie des Geistes (UTB) empfohlen. Der Autor widmet sich aus einer analytischen Perspektive der bereits seit der Antike Philosophen faszinierende Frage, was die „Seele“ ist, ob nicht doch alles nur Materie ist und was es mit den so genannten Qualia auf sich hat.

Noch mehr Philosophie rund ums Thema Glück gefällig? Gerne doch:

Foto: Pixabay

Von André Martens

André Martens ist studierter Philosoph und Psychologe mit mehrjähriger Erfahrung im Bereich der klinischen Psychologie. Er ist der Gründer des Blogs gluecksquellen.de. Seit vielen Jahren beschäftigt er sich privat und professionell mit dem Thema Glück.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

WordPress Cookie Plugin von Real Cookie Banner