ChatGPT als Tool für Falschinformation?

v.l.: Bundesschulsprecherin Flora Schmudermayr, IFWK-Gründer Rudolf J. Melzer, Clemens Pig, geschäftsführende Vorstand der APA – Austria Presse Agentur, Wirtschaftsanwältin Alexandra Ciarnau, Roland Fleischhacker, CEO von deepsearch, Isabella Mader, Lehrende und Vorstand von Excellence Research, Marcus Hudec, CEO von Data Technology und Verena Krawarik, Leiterin der Stabsstelle Innovationsmanagement und des medialab der APA – Austria Presse Agentur, ©IFWK/Peroutka

Im Rahmen einer Podiumsdiskussion des IFWK wurden unter der Moderation von Wirtschftaftjournalistin Michaele Ernst die Grenzen und Chancen des gehypten Chatbots ChatGPT im Kontext von Bildung, der rechtlichen Herausforderungen und die Auswirkungen auf die Wirtschaft analysiert. Außerdem wurde näher erläutert, warum es gerade jetzt notwendig ist, ist digitalen Kompetenzen in der Bevölkerung zu fördern.

Unter dem Titel „ChatGPT oder wenn Kühe Eier legen“ veranstaltete das Internationale Forum für Wirtschaftskommunikation (IFWK) eine Podiumsdiskussion rund um den Hype von ChatGPT. Die Inspiration für den Titel entspringt einer Antwort von ChatGPT auf die Frage nach dem Unterschied zwischen Hühner- und Kuheiern. Der Chatbot lieferte eine ausführliche Aufzählung der Merkmaldifferenzen dieser Eier. Ein Nachweis, der das Ausmaß der Falschinformationen verdeutlicht, die von ChatGPT bereitgestellt werden.

Ein Drittel der Informationen von ChatGPT ist falsch

Roland Fleischhacker, CEO von deepsearch, betonte: „Es ist wichtig, zu wissen, dass momentan ein Drittel der Informationen, die ChatGPT ausspuckt, falsch ist. Wenn man die Software aber mit konkretem Wissen füttert, zum Beispiel mit Informationen zu einem Unternehmen, kann es gute Texte und präzise Antworten liefern. Und das ist schon ein Quantensprung für viele Unternehmensprozesse, nämlich das Wissen aus langen Texten mit konkreten Fragen und Antworten zusammenzuführen.“ Derzeit liege die Gefahr bei ChatGPT im unverarbeiteten Content, auf den ChatGPT zurückgreift, also Chatforen oder Plattformen, die nicht redaktionell bearbeitet werden.

ChatGPT ist kein Recherchewerkzeug

„ChatGPT ist kein Recherchewerkzeug“, verdeutlichte Verena Krawarik, Leiterin der Stabstelle Innovationsmanagement und des medialab der APA – Austria Presse Agentur: „Wir haben die Open AI im redaktionellen Umfeld schon mit vielen Fallbeispielen gefüttert und getestet. Experimentieren ist gut und ChatGPT kann gut zur Vereinfachung und Zusammenfassung von Texten genutzt werden, aber es birgt auch großes Fakenews-Potential in sich, wenn die Information ungeprüft bleibt. Und gerade, wenn es um Copyright geht, stehen wir noch ganz am Anfang der Debatte.“ Um gewissenhaft und sinnvoll mit der Software umgehen zu können, brauche es neue Kompetenzen, so Krawarik und hier sei vor allem das Bildungssystem gefordert, neue Technologien wie ChatGPT aktiv in den Unterricht einzubauen.

Neue Kompetenzen im Bildungssystem gefragt

Der Umgang mit Falschinformationen gewinnt im Bildungssystem auch immer mehr an Bedeutung. „Gut ist, dass im neuen Fach ‚Digitale Grundausbildung‘ nicht mehr nur das Zehn-Finger-System gelehrt wird, sondern eben auch das Erkennen von Fake News und wie Quellen richtig verwendet werden. Es ist unumgänglich, ChatGPT im Unterricht einzubauen und vor allem, sich als Lehrkraft bewusst zu werden, wie ich Angaben schreiben muss, dass eine Aufgabe eben nicht mit ChatGPT gelöst werden kann. Es braucht also Kompetenzen von Schülern UND Lehrern.“, erläutert Bundesschulsprecherin Flora Schmudermayr.  Das Programm hat erst kürzlich die Zentralmatura bestanden. „Da stell ich schon die Frage, ob unsere Matura noch die richtigen Kompetenzen abfragt.“

Methoden anstatt Fakten lernen

„Im Idealfall unterrichtet man an Schulen und Hochschulen Methoden und nicht reines Faktenwissen und Auswendiglernen“, ergänzte Isabella Mader, Vorstand von Excellence Research, Informationswissenschaftlerin und Lehrende für IT-Strategie an der FH Hagenberg. „Denn diese Methoden sind die Basis für Berufe von morgen, die es momentan noch gar nicht gibt. Wir dürfen nicht den Fehler machen, zu glauben, dass uns künstliche Intelligenz oder Technologie Jobs wegnimmt oder, dass uns ChatGPT jetzt alles erklärt. Gerade bei Quellenangaben arbeitet das Programm noch nicht ausreichend gut: Der beste Faktencheck sitzt immer noch zwischen unseren Ohren. Die beste Software zum Faktencheck wird immer noch von realen Personen betrieben und das wird auch noch lange Zeit so bleiben.“

Kluger Einsatz von Künstlichen Intelligenzen kann Menschen entlasten

Grundsätzlich müsse man bei der Diskussion zwischen dem Produkt ChatGPT und der zugrundeliegenden Technologie, den Large Language Models, unterscheiden, erklärte Marcus Hudec, CEO von Data Technology: „Die Large Language Models haben einen großen Wert für die Wissenschaft, sie haben aber kein Wissen. Wenn es gelingt, Systeme der Wissensverwaltung und 
-speicherung mit Large Language Models näher zusammenzubringen, dann erleben wir den nächsten Quantensprung. Derzeit sind die Systeme wirklich dumm und führen eher zu Halbwissen.“ Die Technologie sei aber sehr relevant für die Wissenschaft und es sei klar, dass wir uns intensiv damit auseinandersetzen müssen, um die Technologie intelligent zu nutzen: „Künstliche Intelligenz wird Menschen nicht entmachten, aber klug genutzt kann sie uns künftig entlasten.“

KI kann nicht Urheber sein

Ein wesentlicher Aspekt zum Thema ChatGPT ist außerdem die rechtliche Perspektive. „Laut Gesetz ist der Urheber eine natürliche Person. Dem folgend kann eine KI nicht Urheber sein“, erklärte Alexandra Ciarnau, Wirtschaftsanwältin bei DORDA. „Wenn die KI nur meine Befehle ausübt, dann gehören die Resultate mir. Das ist eine spannende Abgrenzungsfrage. Denn wie viel Anweisungen muss ich der KI geben, damit es mein Werk ist?“

Mehr Investition in Online-Security notwendig

Interessanter Aspekt ist außerdem die Haftbarkeit, die bei der Verwendung von ChatGPT einhergeht. Ciarnau: „Künstliche Intelligenz ist noch lange keine juristische Person, sie ist ein Werkzeug. Wer ist also für Schäden verantwortlich, die durch KI entstehen? Zum Beispiel ist Diskriminierung, die durch einen Chatbot entstanden ist, schwer nachweisbar. Künftig wird man hier sehr viel in Security investieren müssen.“

Gesellschaft muss lernen mit neuen Technologien umzugehen

Isabella Mader betonte außerdem: „Wir leben in einer Zeit, in der alle klagen, keine Zeit mehr zu haben und überarbeitet zusein. Wir werden uns helfen lassen müssen. Die Frage ist, wofür wir die Systeme einsetzen. Sinnvoll ist es, wenn das System bei der Textierung hilft und so der Belegschaft Zeit spart. Entscheidend ist die Befähigung der Gesellschaft, mit der Technologie umzugehen. Verbote bringen gar nichts und werfen uns nur um Jahrzehnte zurück. Und diese Zeit werden Cyberkriminelle nutzen.“

(pi)

Upcoming events