Zurück zur Übersicht
Kunstliche Intelligenz
 
Stories 37, 19.09.2023
Knowhow

ChatGPT: Mensch vs. Maschine?

Ein unscheinbares Chat-Fenster und los geht’s. Die Maschine spuckt scheinbar alles aus, was wir brauchen. Seit Ende 2022 ist ChatGPT für uns Normalos zugänglich und wird als technologische Revolution gefeiert. Was bedeutet das für die Kreativbranche und wie gehen wir im Agenturalltag damit um?

Als Leading Swiss Agency mischt Bühler & Bühler ganz vorne mit – auch was künstliche Intelligenz (KI) angeht. Und da Dialogmarketing zu unseren Kerndisziplinen gehört, wollten wir natürlich wissen, was das textbasierte Dialogsystem so auf dem Kasten hat. Um ein Grundverständnis zu erlangen, hat unser Textteam in einem internen Workshop fleissig ausprobiert und kritisch hinterfragt. Im Zentrum die Frage: Wird KI uns Texterinnen und Texter ersetzen? Seitdem hat sich die Technologie bereits wieder enorm schnell weiterentwickelt. Und wir halten mit dem Tempo Schritt.

Die Maschine

ChatGPT ist definitiv ein beeindruckendes Tool. Gerade für kreative Spielereien eignet es sich formidabel. Richtig gefüttert, leistet die Maschine effiziente Vorarbeiten und hilft bei der Ideenfindung sowie auf der Suche nach Inspiration. Trotzdem mangelt es dem Ergebnis oft an Qualität. Obwohl ChatGPT interessante Ansätze liefern kann, basieren diese meistens auf bereits existierenden Mustern und Informationen. Für Auftraggebende ist das ziemlich unattraktiv. Zudem hat KI (noch) Mühe, die besondere Sprachwelt eines Unternehmens beim Formulieren zu berücksichtigen und passend zu ergänzen. 

Die Menschen

Wie macht unser Textteam den Unterschied? Wir arbeiten mit unserer Kundschaft und kennen sie gut. Wir haben das nötige Gespür und wissen, was sie wollen, was sie benötigen und was nicht. Unsere kreativen Köpfe sprühen vor Ideen und brennen für Kommunikation – für einzelne Wörter, Satzzeichen, Redewendungen und Stilmittel. Wir denken neu, spielen mit der Sprache und wollen damit begeistern. Gegen diese Persönlichkeit kommt ChatGPT nicht an. Dem Roboter fehlt die Fähigkeit, Emotionen und Empfindungen zu verstehen.

Was ChatGPT (noch) nicht kann

Mit der auf GPT 4.0 basierenden aktuellen Version hat ChatGPT zweifellos einen grossen Sprung gemacht. Texterfahrene Fachpersonen (neudeutsch Prompt Engineers) nutzen das Potenzial von KI zur Erledigung von Fleissarbeiten oder ersten Entwürfen auf Basis präziser Anweisungen. In unserer täglichen Arbeit zeigt sich: ChatGPT hat Defizite in der Interaktion mit unserer menschlichen Art zu denken und zu kommunizieren. Um die Ecke denken, zwischen den Zeilen lesen (und schreiben!) sowie weitere Gewürze menschlicher Sprache sind ihm fremd. Stellvertretend für dieses Manko drei Beispiele:

#1 Stein, Schere, Kapier.

Durch unsere Erfahrung – beispielsweise mit kulturellen Phänomenen – können wir mit wenigen Worten Szenarien im Kopf von denjenigen erzeugen, mit denen wir kommunizieren. Umgekehrt verstehen wir diese Anspielungen und übersetzen sie in unsere Realität. ChatGPT hat Mühe damit, wie der folgende Prompt zeigt: 

Aufgabe: «Ergänze: 1. Schlüssel plus Mutter ist fest. 2. Zange plus Nagel ist ?»

ChatGPT: Die fehlende Antwort könnte sein: «festhalten». Die Begriffe in den vorherigen Reihen bilden jeweils eine Verbindung zu einem Verb oder einer Aktion, die mit den genannten Objekten in Verbindung steht. «Zange plus Nagel» könnte auf die Aktion des «Festhaltens» oder «Greifens» eines Nagels mit einer Zange hinweisen.

ChatGPT kennt zwar einige Funktionen der Zange, aber nicht die für die Idee der Analogie entscheidende: Die erste Gleichung umschreibt das Festmachen, die zweite das Gegenteil, nämlich das Lösen oder Lockern.

#2 Luke, ich bin dein Bruder. 

ChatGPT kann einen Begriff wie «Schwiegermutter» definieren (wir haben das überprüft), aber die Bedeutung dahinter nicht logisch verwenden. Stellen wir ChatGPT mal die Frage: 

Aufgabe: «Die Mutter von Hans ist die Schwiegermutter deiner Mutter! Was ist also Hans für dich?» 

Die richtige Antwort lautet: Hans ist mein Vater oder mein Onkel. Denn die Schwiegermutter meiner Mutter ist die Mutter meines Vaters und seiner männlichen Geschwister, was aus dem Namen «Hans» hervorgeht. Den tragen in der Regel männliche Wesen.

ChatGPT behauptet: «Hans ist mein Bruder.» Die ebenfalls mitgelieferte Begründung zeigt das fehlende Verständnis für menschliche Konventionen wie Verwandtschaft: «Wenn die Mutter von Hans die Schwiegermutter meiner Mutter ist, bedeutet das, dass die Mutter von Hans auch meine Mutter ist. Da wir dieselbe Mutter haben, bin ich mit Hans Geschwister, also ist er mein Bruder.»

#3 Die sieben Zwergmusikanten.

Ob Märchenfiguren, epische Gestalten oder Zitate aus Filmen: Begriffe wie «Odyssee», «Dornröschenschlaf» oder «Ein Angebot, das man nicht ablehnen kann» machen mit wenigen Worten in Sekundenbruchteilen einen ganzen Sachverhalt für uns emotional greifbar. ChatGPT hat Schwierigkeiten damit. Auch mit der im Folgenden gesuchten Märchenfigur: «Weiss wie Schnee, rot wie Blut, schwarz wie Ebenholz» – so wird Schneewittchen beschrieben.

Aufgabe: Ergänze die märchenhafte Reihe: «Schnee», «Blut»,

ChatGPT: Die märchenhafte Reihe könnte sein: «Glas», «Dornen», «Apfel». Die Begriffe sind Elemente aus dem Märchen "Dornröschen", in dem Schnee, Blut, ein gläserner Sarg, Dornen und ein vergifteter Apfel vorkommen.

ChatGPT erkennt zwar dank unseres Hinweises die ungefähre Herkunft der ersten beiden Begriffe. Wegen der Verwechslung des Märchens werden sie allerdings nicht schlüssig ergänzt – ChatGPT hat sozusagen die Pointe nicht verstanden.

 

Und was heisst das jetzt?

ChatGPT ist definitiv in unserer Toolbox vorhanden. Nur schon aus dem Grund: Neue Entwicklungen können und wollen wir nicht einfach ignorieren. Dann wären wir in der falschen Branche zuhause. Wir sehen ChatGPT als hilfreichen Roboter-Freund. Die Basis sind aber unsere kreativen Köpfe, die unverwechselbar menschliche Konzepte und Texte erschaffen – mit echter Kreativität und Mehrwert für unsere Kundschaft. Und trotz aller Freude im Umgang mit ChatGPT werden wir nie aufhören, künstliche Intelligenz zu challengen und zu hinterfragen.

Welche Erfahrungen habt ihr mit ChatGPT gemacht?