LIVE JOURNALISMUS: Fake News und Desinformation in Wahlkämpfen
7. bis 11. September 2024, Potsdam
Desinformation wird zur Beeinflussung von Wahlergebnissen eingesetzt und ist ein aktiver Angriff auf unsere Demokratie. JournalistInnen müssen für die Themen „Fake News“ und „Desinformation“ sensibilisiert sein und können so einen Beitrag leisten, unsere Demokratie zu schützen. Gerade im Superwahljahr 2024, in dem über 80 Wahlen stattfinden, nicht zuletzt die US-Wahl am 5. November, ist dies eine besonders wichtige Aufgabe. Auch in Deutschland ist das Superwahljahr aufgrund der Wahlen in drei ostdeutschen Bundesländern (Thüringen, Sachsen und Brandenburg) von besonderer Bedeutung.
2024 fand der M100 Young European Journalists Workshop (M100YEJ) zum 20. Mal statt. 19 NachwuchsjournalistInnen kamen für fünf Tage zum Thema „Live Journalism: Fake News and Disinformation in Election Campaigns“ in der
Potsdamer Truman-Villa, dem Sitz der Friedrich-Naumann-Stiftung, zusammen. Am Mittwoch wurden sie vom Medieninnovationszentrum Babelsberg (MIZ) beherbergt.
Im Jubiläumsjahr erhielten die TeilnehmerInnen nicht nur Workshops, um ihr journalistisches Wissen in praktischen und theoretischen Übungen zu vertiefen, sondern hatten auch die Möglichkeit, einen journalistischen Artikel in Form eines Reporter-Slams auf die Bühne zu bringen. Gerade in Zeiten, in denen das Vertrauen in den Journalismus schwindet, sind Formate, die durch die persönliche Begegnung von JournalistInnen und NutzerInnen wieder Vertrauen aufbauen, besonders wichtig. Am Abend des 11. September performten die TeilnehmerInnen live in Potsdam zum Thema „Desinformation in Wahlkämpfen“ und erzählten spannende Geschichten aus ihrem Reporteralltag.
Die NachwuchsjournalistInnen aus 17 europäischen Ländern diskutierten miteinander, berichteten von ihren Erfahrungen und nutzten die Zeit, um sich auszutauschen und zu vernetzen. Sie lernten die unterschiedlichen Bedingungen und Herausforderungen für den Journalismus kennen, die sich aus den verschiedenen politischen und gesellschaftlichen Systemen ihrer Heimatländer ergeben. Die TeilnehmerInnen kamen aus Armenien, Belarus (Polen), Bulgarien, Tschechische Republik, Dänemark, Frankreich, Georgien, Griechenland, Italien, Lettland, Malta, Moldau, Rumänien, Serbien, Schweden, Türkei und der Ukraine.
SAMSTAG, 7. SEPTEMBER
Belma Bagdat, Programmkoordinatorin der Friedrich-Naumann-Stiftung, begrüßte die TeilnehmerInnen zu Beginn des Workshops in der Truman-Villa am Griebnitzsee. Sabine Sasse, Head of Programme von M100, motivierte die TeilnehmerInnen des Workshops, die Chance zu nutzen, sich mit jungen JournalistInnen aus ganz Europa auszutauschen und die erlernten Skills in Bezug auf „Live Journalism“ und das Wissen über „Fake News“ und „Desinformation“ in ihren Heimatländern einzubringen.
Im ersten Workshop stellte Caroline Lindekamp, Projektleiterin „noFAKE“ von CORRECTIV, die Arbeit der gemeinnützigen und unabhängigen Redaktion CORRECTIV vor. Hierbei teilte sie Einblicke in Recherchen und Ansätze des Mediums zum Thema „Faktencheck“. Sie machte die TeilnehmerInnen darauf aufmerksam, dass Desinformation mit dem Narrativ, dass Wahlen gestohlen wurden oder es Wahlbetrug gab, in nahezu allen Ländern zu finden ist.
Aus den Reihen der TeilnehmerInnen kamen Beispiele, wie rechtsextreme Parteien dieses Narrativ auch in ihren eigenen Ländern nutzen, z.B. in Rumänien. Anschließend präsentierte Lindekamp verschiedene Beispiele von Fake News und diskutierte mit den TeilnehmerInnen, ob ein Faktencheck durchgeführt werden kann oder sollte. Sie sieht eine besondere Verantwortung von JournalistInnen für Faktenchecks, wenn es um Themen geht, die die Demokratie direkt betreffen. Bei persönlichen Details über KandidatInnen sind Faktenchecks aus ihrer Sicht gerade vor Wahlen von besonderer Bedeutung.
„Fake News“ können die unterschiedlichsten Formen annehmen: Falsche Aussagen, gefälschte Bilder oder auch komplett gefälschte Artikel mit falschen Quellenangaben. Letzteres sind sogenannte „Duplicate Operations“. Dabei werden nahezu identisch aussehende Webseiten erstellt, die den Eindruck erwecken, es handele sich um Artikel von Qualitätsmedien. Der Unterschied ist nur an der URL zu erkennen. Lindekamp vermittelte Werkzeuge und Herangehensweisen, um verschiedene Arten von „Fake News“ aufzudecken:
1) Bilder können aus dem Zusammenhang gerissen sein und nicht zu einem angegebenen Ereignis gehören oder einen anderen Ort als den angegebenen zeigen. Eine erste Möglichkeit zu prüfen, ob ein Bild bereits veröffentlicht wurde, ist eine „Reverse Image Search“. Hierfür können beispielsweise Google oder TinEye verwendet werden. Google Maps kann hilfreich sein, um zu überprüfen, ob es sich tatsächlich um den angegebenen Ort handelt, da zu jedem Ort Bilder hinterlegt sind.
2) Mit Wolfram Alpha kann zusätzlich das Wetter eines Tages überprüft werden, um einen weiteren Anhaltspunkt zu erhalten, ob ein Bild zu einem Ereignis passt.
3) Mit Map Checking kann eine Annäherung erfolgen, ob angegebene Zahlen zu Demonstrationen korrekt sein können.
4) Ein Indikator, ob es sich um ein KI-generiertes Bild handelt, sind die Details. Es wird empfohlen, sich die Bilder genau anzusehen und zu überlegen, ob etwas merkwürdig aussieht.
Anschließend stellte Lindekamp die Kategorisierung “Information Disorder“ von Claire Wardle vor. Folgende Typen können unterschieden werden:
• Fehlinformation: unbeabsichtigte Verbreitung falscher Informationen
• Desinformation: bewusste Produktion und Verbreitung falscher Informationen mit dem Ziel der Täuschung
• Malinformationen: Informationen, die zwar auf der Realität beruhen, aber mit der Absicht verbreitet werden, Schaden anzurichten.
Es ist wichtig, diesen theoretischen Hintergrund zu verstehen, um mit den richtigen Mitteln gegen Fehlinformation, Desinformation oder Malinformation vorgehen zu können. Darauf aufbauend gab Lindekamp weitere Einblicke in die Arbeit von CORRECTIV. Das Medium betreibt sowohl „Prebunking“ als auch „Debunking“. Beim „Prebunking“ geht es darum, Menschen für die Existenz von „Fake News“ zu sensibilisieren und Strategien aufzuzeigen, wie man damit umgehen kann. Beim „debunking“ geht es darum, bereits veröffentlichte Falschmeldungen zu finden und richtig zu stellen.
CORRECTIV differenziert detailliert zwischen verschiedenen Arten von „Fake News“, denn „Fake News“ sind nicht gleich „Fake News“. Dabei verwendet das Medium verschiedene „Labels“ wie „wahr“, „frei erfunden“ oder „falsche Überschrift“, um zu differenzieren, was genau verändert wurde. Gerade wenn ein Artikel auch Wahrheiten enthält und auf seriöse Quellen verwiesen wird, ist es eine besondere Herausforderung, die falschen Informationen zu identifizieren.
Der M100YEJ ist unter anderem deshalb so besonders und bereichernd für die TeilnehmerInnen, weil sie Einblicke in den Journalismus aus verschiedenen Ländern in ganz Europa bekommen. Am Nachmittag stellten die TeilnehmerInnen in Elevator
Pitches Initiativen gegen Desinformation aus ihren Heimatländern vor.Eine Liste der Initiativen mit hinterlegtem Link findet sich hier:
• CRTA – Truth O’Meter – Database of Statements made by political figures, Serbien
• Journalism Trust Initiative, Frankreich
• Fake Off, Frankreich
• Psychological Defence Agency, Schweden
• Prismag Magazine, Italien
• Open The Box, Italien
• The Media Education Programme, Rumänien
• VoxCheck project, Ukraine
• Czech Elves, Tschechische Republik
• factchecking chatbot, Georgien
• Explainer, Bulgarien
• WATCHDOG.MD, Moldawien
• Safeguarding Children’s democratic agency, Dänemark
• Belarusian Hajun Project, Belarus
• Fact Investigation Platform, Armenien
• “European elections: what and why we will be doing”, Lettland
• Fact check, Malta
• Ecology and Climate Journalism School, Türkei
• VouliWatch, Griechenland
Im Anschluss debattierten die jungen JournalistInnen in einer „Oxford-Style-Debate“ über zwei verschiedene Themen: „Wie lösen wir das Informationsdefizit? Prebunking statt Debunking?“ und „KI – Gefahr oder Allheilmittel für den öffentlichen Diskurs?“. In den Diskussionen wurden die verschiedenen Argumente und Ideen, die im Laufe des Tages präsentiert wurden, noch einmal reflektiert und ausgetauscht. Ergebnis beider Diskussionen war die Erkenntnis, dass es keine universelle Lösung zur Bekämpfung von Desinformation gibt. Verschiedene Ansätze müssen kombiniert werden, um Desinformation zu bekämpfen und damit unsere Demokratie zu schützen.
SONNTAG, 8. SEPTEMBER
Wie beeinflusst künstliche Intelligenz Wahlen? Mit dieser Frage begann der Workshop von Dr. Katja Muñoz, Research Fellow am Zentrum für Geopolitik, Geoökonomie und Technologie der DGAP. „Cheap Fakes“, „Deep Fakes“ und „Robocalls“ – es gibt verschiedene Möglichkeiten, künstliche Intelligenz einzusetzen, um Wahlen zu beeinflussen. Die Strategien sind unterschiedlich. Neben dem Ziel, Menschen zu täuschen und Unwahrheiten zu verbreiten, kann es auch darum gehen, bestehende Überzeugungen zu verstärken. Beispiele dafür finden sich im US-Wahlkampf 2024, etwa die Darstellung von Kamala Harris als Kommunistin.
Muñoz zeigte den TeilnehmerInnen Beispiele, wie KI in unterschiedlichsten Ländern im politischen Kontext, bei Wahlkampagnen oder zur Selbstinszenierung von PolitikerInnen verwendet wurde. Einige Beispiele: Die Darstellung des argentinischen Präsidenten Javier Milei als Löwe in Memes; die Darstellung des ehemaligen indonesischen Generals Prabowo Subianto als liebenswerter Großvater durch einen Avatar; die Erstellung eines Videos des inhaftierten ehemaligen pakistanischen Präsidenten Imran Khan, in dem es so aussieht, als würde er in einem Präsidentenbüro sprechen.
In mehreren Fällen wurden auch „Deep Fakes“ oder „Robocalls“ (Telefonanrufe, bei denen ein computergesteuerter Anrufbeantworter eine voraufgezeichnete Nachricht abspielt) kurz vor Wahlen strategisch eingesetzt, um das Ergebnis zu beeinflussen. Wie groß der Einfluss war, lässt sich nur schwer feststellen, aber allein der Versuch ist ein Angriff auf die Demokratie. Ein Beispiel dafür ist eine gefälschte Audiodatei, die 2023 nur 48 Stunden vor den slowakischen Wahlen auftauchte. Darin wurde der Eindruck erweckt, dass Michal Šimečka, Vorsitzender der liberalen Partei „Progressive Slowakei“, und Monika Tódová von der Tageszeitung „Denník N.“ darüber diskutierten, wie die Wahlen manipuliert werden könnten, unter anderem durch den Kauf von Stimmen der marginalisierten Roma.
Die Ziele, die mit dem Einsatz von KI verfolgt werden, unterscheiden sich maßgeblich. KI wird bei Wahlen eingesetzt, um Menschen zu mobilisieren, bestehende Überzeugungen der Menschen zu verstärken und sie zum Wählen zu bewegen oder zu polarisieren.
KI erleichtert kognitive Kriegsführung, da Bilder, Videos oder Audiodateien in kurzer Zeit und unter wenig Ressourceneinsatz erstellt werden können. Dabei geht es nicht immer darum, z.B. die Echtheit eines Fotos vorzutäuschen. Es geht darum, bestehende Überzeugungen zu verstärken und Emotionen zu bedienen. Einige allgemeine Beobachtungen zum Einsatz von KI bei Wahlen wurden von Katja Muñoz vorgestellt:
1) KI-Beiträge werden nicht ausschließlich erstellt, um zu täuschen, sondern häufig, um bestehende Überzeugungen zu verstärken. Sie zielen darauf ab, starke emotionale Reaktionen wie Angst, Wut, Stolz, Spaß oder Hype auszulösen. Es ist wichtig, sich bewusst zu machen, dass auch lustige Dinge versuchen können, jemanden zu manipulieren.
2) KI-Inhalte sind oft nicht gekennzeichnet.
3) Es ist ein exponentieller Anstieg der Nutzung von Hyperpersonalisierung in der politischen Kommunikation zu beobachten.
4) Es gibt eine hohe Skalierbarkeit politischer Kommunikation zur Wählermobilisierung.
5) Die Fragmentierung und Personalisierung politischer Kommunikation in Bezug auf Sprachen oder Minderheiten wird ermöglicht.
6) „Robocalls“ werden eingesetzt, um Menschen davon zu überzeugen, nicht zur Wahl zu gehen.
Muñoz warf die Frage auf, warum die Beeinflussung von Menschen durch soziale Medien so gut funktioniere. Daraufhin stellte sie die „vier Reiter“ vor, die vier verschiedene Biases symbolisieren. Diesen Biases sind wir immer ausgesetzt, wenn wir in sozialen Medien online sind:
• Anchoring Bias: Der erste Eindruck zählt.
• Availability Bias: Informationen, die leicht verfügbar und eingängig, emotional aufgeladen oder visuell ansprechend sind, bleiben im Gedächtnis.
• Confirmation Bias: Wir selektieren Informationen, die unsere eigenen Überzeugungen bestätigen.
• Beharrungsbias (Belief Perseverance Bias): Wir lehnen erwiesene Fakten ab, die nicht mit unseren Überzeugungen (Verschwörungen) übereinstimmen.
Jeder Mensch hat diese Vorurteile. Es ist wichtig, sich dessen bewusst zu sein und zu reflektieren, was man selbst in den sozialen Medien konsumiert. Des Weiteren wurde besprochen, auf welchen Plattformen „Fake News“ verbreitet werden können. Dabei ist nicht nur an Instagram oder TikTok zu denken, sondern auch an Messenger-Dienste wie Telegram oder Whatsapp. Gerade auch in WhatsApp-Gruppen, z.B. Familiengruppen, können „Fake News“ ungefiltert und unkontrolliert verbreitet werden. Dieses Umfeld ist besonders gefährlich, da es sich um Gruppen oder Personen handelt, denen man besonders vertraut. Hier ist besondere Vorsicht geboten.
Im zweiten Teil ihres Workshops besprach Muñoz mit den TeilnehmerInnen, wie das Social-Media-Ökosystem funktioniert. In Bezug auf KI wurde festgestellt, dass verschiedene Plattformen in ihrem „Code of Conduct“ festgelegt haben, dass KI-generierte Bilder gekennzeichnet werden müssen, dies aber in der Realität nicht geschieht. Es ist fraglich, ob die Plattformen in Zukunft ihrer diesbezüglichen Verantwortung nachkommen werden.
In den sozialen Medien gibt es zwei Möglichkeiten, Reichweite zu generieren: organisches Wachstum oder bezahlte Inhalte.
Im Workshop wurde für Deutschland analysiert, wie viel Reichweite die Parteien vor der Europawahl hatten und wie viel Geld sie dafür investiert haben. Auffällig war, dass z.B. die Grünen oder die CDU ein Vielfaches der AfD investierten, die AfD aber trotzdem ein Vielfaches der Reichweite der Grünen und der CDU hatte. Geld ist hier nicht alles. Durch geschickte Datenanalyse und genaue Zielgruppenansprache konnte die Volt-Partei ein Vielfaches an Stimmen im Vergleich zur letzten Europawahl generieren. Allein der Blick auf das Geld, das in politische Werbung investiert wird, ergibt kein vollständiges Bild. Muñoz zeigte auf, wie beispielsweise die AfD mit multidirektionalen, plattformübergreifenden Strategien agiert. Diese Strategie besteht aus drei Phasen:
Phase 1: Taktische Planung / Ressourcenverteilung (Geld)
Phase 2: Stärkung der Ränder / Verbreitung antidemokratischer Narrative
Phase 3: Mobilisierung / Definition eines Handlungsaufrufs
Man kann bei dieser Strategie von einer Auftragskampagnenindustrie sprechen. Am Anfang steht ein „Influencer Broker“, der die gesamte Operation steuert und die Inhalte mit mehreren „Mega-Influencern“ abstimmt. Diese wiederum koordinieren die Inhalte mit einer Vielzahl von „Nano-Influencern“. Wie koordiniert Desinformationskampagnen oft ablaufen, zeigt auch die Größe des Netzwerks pro-russischer Websites, die Teil des russischen Informationskrieges in Europa sind. Einen Überblick über diese Websites finden Sie hier.
Es gibt verschiedene Wege, auf denen Menschen Desinformation ausgesetzt sind. Dies kann durch Influencer geschehen, sie können zufällig in ihrem Feed darauf stoßen, sie können durch Bots verbreitet werden und sie können mit Trollen interagieren.
Plattformen können auch genutzt werden, um politische Veränderungen anzustoßen. Zwei Beispiele hierfür sind die “Tampon-Steuer“ oder die “Stay on Board”-Bewegung. In beiden Fällen wurde durch Influencer und eine Social Media Kampagne schließlich eine Gesetzesänderung erreicht.
Zum Abschluss des Workshops sollten die TeilnehmerInnen in Kleingruppen überlegen, wie eine Regierung, Journalisten oder die Zivilgesellschaft gegen Falschinformationen vorgehen könnten. Konkrete Ideen wurden erarbeitet. Eine Sammlung der
eingebrachten Ideen findet sich im Folgenden:
• Cyber-Einheiten in Ministerien, die im Falle von Desinformationskampagnen auch mit Hilfe von Influencern „Prebunking“ betreiben.
• Einrichtung eines Zentrums für strategische Kommunikation, das alle Ministerien im Falle von Desinformation beraten kann. Damit soll auch ein proaktives Handeln ermöglicht werden.
• Eine Regierung soll auf Social Media präsenter sein und ihre Inhalte den BürgerInnen erklären und mit ihnen interagieren.
• Schaffung eines Tools, das die Echtheit von URL-Adressen verifizieren kann, um doppelte Webseiten schnell zu identifizieren.
• Versenden von Push-Nachrichten der Regierung, um vor Desinformation zu warnen.
• Telefonanrufe, E-Mails und Flugblätter zur Warnung vor Desinformation, um auch die ältere Bevölkerung zu erreichen
• Bereitstellung von Telegram-Kanälen mit Faktencheckern
• Entwicklung und Verbreitung von Gegennarrativen
• Bereitstellung von Geld durch die Regierung für NGOs, JournalistInnen und AktivistInnen, um „Prebunking“ zu betreiben.
• Bei Ereignissen, die anfangs schwer einzuschätzen sind, muss transparent kommuniziert werden, was man weiß und was man nicht weiß.
• Wenn nicht genügend Informationen vorhanden sind, ist es eine Möglichkeit, den Hintergrund oder die Vorgeschichte eines Ereignisses zu erklären.
• Es muss mit kurzen Videos gearbeitet werden, die auch viral gehen können.
• Die Inhalte werden idealerweise von einer Person vermittelt, da Menschen Menschen glauben und so Vertrauen aufgebaut werden kann.
• Journalisten können Social Media nutzen, um ihre Artikel zu verbreiten und eine Community aufzubauen, die ihnen vertraut.
• Journalist und „Content Creator“ müssen kein Widerspruch sein. Perspektivisch ist es wichtig, dass es auch „Content Creators“ gibt, die einen gewissen journalistischen Standard einhalten wollen.
• Traditionelle Medienhäuser sollten auch mit Influencern zusammenarbeiten, um Qualitätsjournalismus zu verbreiten.
• In den Schulen muss für das Thema „Desinformation“ sensibilisiert werden. Ein Schulfach „Digital Literacy“ sollte verpflichtend eingeführt werden.
• Der Graswurzeljournalismus muss gestärkt werden. Durch die Einbindung der Gesellschaft können andere Informationen gesammelt werden und die Menschen werden in den Prozess eingebunden, was auch wieder Vertrauen aufbauen kann.
Nach dem theoretischen Input über Desinformation, Fake News und KI bei Wahlen, fand am Sonntagnachmittag die erste Reporter Slam Session statt. In dieser ersten Session haben die TeilnehmerInnen über Story-Ideen für die Reporter Slams nachgedacht. Jeder präsentierte seine Ideen und erhielt Feedback von den Coaches Christine Liehr und Jochen Markett, beide Geschäftsführer von der Potsdamer Agentur Headliner.
MONTAG, 9. SEPTEMBER
Der Workshoptag startete mit theoretischem Input Rund um das Thema „Live-Journalismus“. Jochen Markett und Christine Liehr erarbeiteten mit den Teilnehmern, was die wichtigsten Elemente für guten „Live Journalismus“ sind:
1) Leidenschaft
2) Individualität und persönliche Erfahrung
3) Überraschung
4) Transparenz
5) Leistung auf der Bühne
Gemeinsam mit den Coaches analysierten die Teilnehmer verschiedene Reporter Slams aus dem Finale in 2023. So konnten sie sehen, wie die zuvor besprochenen Elemente umgesetzt wurden.
Auch für Live Journalismus sind die drei Prinzipien der Rhetorik von Aristoteles von Bedeutung: Ethos, Pathos und Logos.
Folgende Tipps können helfen, um Geschichten noch besser auf der Bühne zu präsentieren:
1) Stelle eine persönliche Verbindung her: Zeige auf, welche persönliche Erfahrung, Verbindung oder Interesse zu dem Thema besteht.
2) Zeige die Bedeutung der Geschichte auf: Warum denkst du, dass die Geschichte erzählt werden muss? Was wird der Vortrag über die Welt offenbaren?
3) Erzähle die Geschichte hinter der Geschichte: Was passiert hinter den Kulissen?
4) Versetze das Publikum an den Ort des Geschehens: Überlege welche Materialien / Originaltöne / Klänge / Visualisierungen usw., die Geschichte unterstützen könnten
5) Verwende dramatisches Storytelling: Denke über die Handlung und die Entwicklung der Figuren nach. Verwende detaillierte Beschreibungen. Erzähle die Geschichte mit persönlicher Erzählerstimme. Führe die Zuhörer durch die Geschichte mit Höhen und Tiefen.
6) Überarbeite die Geschichte: Schreibe die Geschichte mehrmals um.
7) Üben, üben, üben: Für einen guten Auftritt ist es wichtig, diesen mehrmals geprobt zu haben.
8) Auftrittszeit: Lasse dich auf das Publikum ein und gewinne es für dich.
Den Rest des Tages verbrachten die Teilnehmerinnen und Teilnehmer damit, ihren Text für den Reporter Slam auszuarbeiten.
DIENSTAG, 10. SEPTEMBER
Die Arbeitsphase der TeilnehmerInnen wurde fortgesetzt, und alle bekamen im Laufe des Tages nochmals ein individuelles Feedback von den Coaches. Aus Ideen wurden Geschichten und aus Geschichten wurden Reporter Slams. Die TeilnehmerInnen nutzten Videos, Bilder, Memes, Songs und Soundeffekte, um ihre Geschichten noch greifbarer zu machen. Am Nachmittag erhielten die TeilnehmerInnen noch ein Training zu „Reden auf der Bühne“ von Isabelle Feldwisch. In dem Workshop vermittelte Feldwisch den TeilnehmerInnen verschiedene Techniken, die sie vor einem Auftritt anwenden können, um sich zu fokussieren, zu lockern und zu entspannen. Sie arbeitete an der Bühnenpräsenz, dem Auftreten und der Körperhaltung. Anschließend performten die 20 TeilnehmerInnen in zwei Halbfinals ihre Reporter Slams. Die drei Besten aus den beiden Halbfinals zogen ins Finale ein, das am nächsten Tag vor großem Publikum im Potsdamer Kulturzentrum FreiLand stattfand.
MITTWOCH, 11. SEPTEMBER
Nach den Halbfinals am Vorabend wurde der Vormittag genutzt, um die Auftritte nochmals zu evaluieren. Die TeilnehmerInnen erhielten wertvolles Feedback, das ihnen auch außerhalb des Reporter Slams hilft, ihre Geschichten noch besser zu präsentieren. Die sechs Gewinner des Halbfinales nutzten den Rest des Tages, um ihre Auftritte weiter zu verbessern und sich auf das große Finale vorzubereiten. Der Rest der Gruppe arbeitete an der Präsentation für das M100 Sanssouci Colloquium, um mit den erfahrenen JournalistInnen zu teilen, was sie in der vergangenen Woche über Desinformation, KI, Wahlen und Live-Journalismus gelernt hatten.
Am Abend fand im Potsdamer Kulturzentrum „Freiland“ der öffentliche Reporter Slam mit den sechs FinalistInnenen statt. Moderiert von Jochen Markett und begleitet von der Live-Band „Bommi & Brummi“, performten Flora Alfiero (Italien), Tobias Bundolo (Dänemark), Tsisia Kirvalidze (Georgien), Pavela Kostova (Bulgarien), Christoph Schwaiger (Malta) und Liza Tkachenko (Ukraine) eigene journalistische Geschichten live auf der Bühne. Am Ende stimmte das Publikum ab, wer sie am meisten überzeugt hatte. Es gewann Christoph Schwaiger mit seiner spannenden und bewegenden Geschichte über die ermordete maltesische Investigativjournalistin Daphne Caruana Galizia.
DONNERSTAG, 12. SEPTEMBER
Die jungen JournalistInnen nahmen zum Abschluss des Seminars am M100 Sanssouci Colloquium mit dem Titel „Democracy under Attack. Disinformation Campaigns, AI and the Role of the Media in the 2024 Super Election Year“ teil. Inhaltlich eröffnet wurde die diesjährige M100 mit einer Rede von Anna Wieslander. Nach der ersten Diskussionsrunde im Plenum präsentierten die 19 jungen JournalistInnen ihre neuen Erkenntnisse über Desinformation, KI und „Live Journalismus“ vor dem Plenum, das sich aus rund 80 internationalen, führenden VertreterInnen von Medien, politischen Institutionen und der Wissenschaft zusammensetzte (hier geht es zur Präsentation).
Im Anschluss präsentierte der Gewinner des Reporter-Slams, Christoph Schwaiger aus Malta, seine Geschichte über die ermordete maltesische Journalistin Daphne Caruana Galizia vor den internationalen Teilnehmern des M100 Sanssouci Colloquiums.
(Zusammenfassung: Florentin Siegert)
Der M100 Young European Journalists Workshop ist eine Initiative von Potsdam Media Internationel e.V. und der Stadt Potsdam.
Die 20. Ausgabe wurde gefördert von der Friedrich Naumann Stiftung für die Freiheit, der Deutschen Postcode Lotterie und der ZEIT Stiftung Bucerius.