Alain Berset am Strand und künstliche Intelligenz in der Schule…
Selbstverständlich müssen Sie nicht dreimal hinsehen, um zu erkennen, dass das Beitragsbild unseres Bundespräsidenten nicht echt ist. Oder doch?
Erstellt wurde das Bild mit „Midjourney“, einer Plattform, welche quasi Chat GPT für Bilder ist, also fast beliebige visuellen Inhalte generiert. Von harmlosen Katzenbild bis zum martialischen Krieger ist beinahe alles möglich. Einzig erotische Inhalte werden (noch) gefiltert oder zumindest einer zweiten Prüfung unterzogen.
Erstellt wurde das Bild mit „Midjourney“, einer Plattform, welche quasi CHAT GPT für Bilder ist. Der einfache Befehl dazu:
„hyperrealistic high resolution photo shows swiss president alain berset lying on the beach with a wine bottle in his hand„
Die Frisur, die markanten Augenbrauen oder der Anzug mit der roten Krawatte sind bekannte Attribute, die Ähnlichkeit ist schon ziemlich gut, oder?
Klar, die „doppelte“ Krawatte entlarvt das Bild schnell. Das lässt sich in einer Bildbearbeitungssoftware aber leicht retuschieren.
Sie können den folgenden, kursiv gedruckten Text überspringen, den Inhalt des Artikels werden sie auch so verstehen. Der Text dient lediglich der „Illustration“.
„Am Ufer des Comersees wurde kürzlich eine unerwartete Szene beobachtet, die viele überraschte und für Diskussionen sorgte: Bundespräsident Alain Berset wurde in einem ungewöhnlichen Zustand gesichtet. Er lag am Strand, umgeben von der idyllischen Kulisse des Sees und der umliegenden Berge, aber seine Haltung und sein Zustand ließen einige Fragen aufkommen.
In dem Moment, als er gefunden wurde, hielt Berset eine leere Weinflasche in der Hand und schien offensichtlich betrunken zu sein. Dieses Bild steht in starkem Kontrast zu dem ernsthaften und verantwortungsvollen Image, das der Bundespräsident normalerweise ausstrahlt. Die Szene löste Spekulationen aus und führte zu einer erhitzten öffentlichen Debatte über die Belastungen und Herausforderungen, denen Berset seit der Enthüllung seiner Affäre mit einer Geliebten ausgesetzt ist.
Die Affäre hatte bereits für Schlagzeilen gesorgt und zu kontroversen Diskussionen über die Privatsphäre von Politikern geführt. Die Verbindung zwischen dieser Affäre und dem aktuellen Zustand von Bundespräsident Berset am Comersee wird von vielen als ein Ausdruck der offensichtlichen emotionalen und psychischen Belastungen gesehen, die er möglicherweise durchlebt.
Dennoch ist es wichtig zu betonen, dass niemand außer Berset selbst wirklich weiß, was in diesem Moment in ihm vorgegangen ist. Das Bild am Comersee sollte also nicht als endgültige Beurteilung seiner Person dienen, sondern vielmehr als Erinnerung daran, dass auch hochrangige Politiker mit menschlichen Emotionen und Belastungen konfrontiert werden können.
In Anbetracht der Situation ist es vielleicht an der Zeit, dass die Gesellschaft ihre Erwartungen an öffentliche Persönlichkeiten überdenkt und ein tieferes Verständnis für die menschlichen Seiten derjenigen entwickelt, die in der Öffentlichkeit stehen. Die Debatte sollte sich auf die notwendige Balance zwischen Privatsphäre und öffentlicher Verantwortung konzentrieren, um einen respektvollen und konstruktiven Umgang mit solchen Angelegenheiten zu gewährleisten.“
Mit den zwei einfachen Werkzeugen – denn der Text wurde vollständig von Chat GPT generiert und von mir nur gekürzt ist es möglich, innert weniger Minuten einen Beitrag zu schreiben und im Internet zu veröffentlichen. Selbst wenn etwa die Bundesbehörden darauf reagieren würden, Ihnen rechtliche Schritte androhen, die Löschung des Beitrages forderten – der Beitrag ist im Netz verfügbar, wahrscheinlich schon dutzendweise kopiert und weiter verbreitet.
Mittlerweile können neben Texten auch Fotos generiert werden, Videos oder Musik. Es ist klar, dass solche Mittel – wenn sie seriös und sorgfältig eingesetzt werden – Vorteile und Nutzen generieren. Die grosse Herausforderung heisst jedoch…
Transparenz
Wenn diese Werkzeuge im Unterricht eingesetzt werden, muss den Lehrpersonen, den Schülerinnen und Schülern, aber auch den Eltern klar sein, wann es sich um künstliche generiertes Material handelt.
Es ist auch denkbar, dass die Werkzeuge für beurteilungsrelevante Ergebnisse eingesetzt werden dürfen – wenn es bei der Beurteilung um diesen Kontext geht. Klar muss auch sein, dass die Herkunft solcher Produkte klar deklariert wird, die entsprechenden Werkzeuge genannt werden.
Gross ist die Gefahr, dass mit den Möglichkeiten Missbrauch getrieben wird. Dabei dürften künstlich generierte Hausaufgaben noch eines der „kleinsten Probleme“ sein. In unserer bilddominierten Welt, gepaart mit der oberflächlichen Beurteilung von Informationen, ist es beispielsweise ein Leichtes, kompromittierendes Material über Mitschülerinnen und Mitschüler zu generieren und online zu veröffentlichen. Auch hier gilt, sind die „Fake News“ online, ist der Schaden angerichtet.
Konsequenzen für die Schule
Lehrpersonen können solche Werkzeuge einsetzen oder einsetzen lassen, wenn der verantwortungsvolle Umgang damit besprochen, geübt, möglicherweise auch geprüft wird.
Medienkompetenz und Verantwortlichkeit müssen als Massstab gelten – der Standpunkt „denn sie wissen nicht, was sie tun“ ist keine gute Voraussetzung.
Zudem müssen Lehrpersonen darin geschult werden, was möglich und machbar ist und wie es erkannt wird. Bei Texten dürfte das je nach Stufe relativ leicht sein, wenn etwa Schülerinnen und Schüler plötzlich Texte abgeben oder einreichen, welche über ihrem bisherigen Kompetenzniveau liegen.
Schwieriger wird es bereits, wenn die Texte nur als Grundlage dienen und noch bearbeitet werden. Auch der alte Trick, dass man Textpassagen kopiert und per Google suchen lässt, wird nur zufällig funktionieren, weil die Texte eben nicht nur kopiert, sondern neu generiert werden. Selbst professionelle Tools zur Plagiatssuche werden schnell an ihre Grenzen stossen.
Eine Diskussion, welche auch geführt werden muss, ist jene der Sanktionen. Können wir über herausfinden und beweisen, ob etwas künstlich generiert ist? Es wird zumindest sehr schwierig. Wahrscheinlich gibt es oder wird es Werkzeuge geben, welche einen verifizierten Originaltext mit dem vermuteten AI-Text vergleichen und auswerten kann – wohl mit denselben Algorithmen, welche den KI-Generatoren zugrunde liege.n
Als Pädagogin oder Pädagoge dürfte aber die Wahrscheinlichkeit höher sein, dass sie mit der ausgesprochenen Vermutung ein Feedback erhalten, dass zumindest eine Hinweis darauf gibt, ob „geschummelt“ oder „betrogen“ wurde.
Und das wiederum ist dann die Basis für ein vertiefendes Gespräch, wo die oben genannten Themen Transparenz und Verantwortlichkeit aufgegriffen werden können.
Und die Gesellschaft?
Die Gesellschaft wird sich zukünftig vermehrt mit den Auswirkungen von KI/AI auseinandersetzen müssen. Wie weit können wir Informationen aus dem Netz noch trauen? Wie finden wir heraus, ob ein Foto oder ein Video echt sind? Wie ist das eigentlich mit dem Copyright, wenn ich einen Text schreiben lasse? Schliesslich stammen die Informationen dazu aus dem Internet?
Über die negativen Auswirkungen von Algorithmen wird seit längerem diskutiert – Menschen erhalten keine Versicherungen mehr, Bewerbungen werden zuerst von Algorithmen gefiltert und nur die übrig gebliebenen werden von Menschen beurteilt. Die Liste von Beispielen lässt sich fast beliebig verlängern. Sicher ist nur eines; wenn wir die Nutzung von künstlicher Intelligenz nicht “ in den Griff“ kriegen, haben wir eine Büchse der Pandorra geöffnet, die uns weit mehr Ärger als Freude bescheren wird.