European Publishing Congress

European Publishing Congress

Der Kongress für Medienprofis

Transkript

Zurück zur Episode

speaker: Markus Knall

topic: Das 1.000-Artikel-Experiment und die Folge

Ja, ich darf über KI sprechen. Natürlich. Herzlichen Dank. Ja, Aber Kais am Ende nur Technologie, ja. KI ist nichts anders als Fucking Technology. Was für wichtiger ist. Und darüber geht es heute auch im Kern. Das ist die Metaebene dahinter. Es geht um die Zukunft von lokalen Journalismus. Wir wissen alle lokales trägt sich im Moment aus den Tageszeitungen heraus. Wenn die nicht mehr sind, gibt es im Moment keinen nachhaltiges Modell für digital nachhaltigen Lokal.

in Deutschland. Das ist ein Problem. Und damit setzen wir uns auseinander. Wir sind vielleicht die grösste digitale lokaljournalistische Plattform in Deutschland. Wir wollen eine Antwort aufgeben. Dafür wir es verpflichtet dazu. So, wir retten die Welt jetzt nicht mit diesem Projekt, der sich gleich zeigt. Aber ein Baustein.

kann natürlich sein. Wie spielt KI in eine nachhaltige Digitalstrategie äh hinein. Das ist nicht alles, ja, aber es kann ein wichtiger Baustein sein. Und das zeige ich heute. Kurz, was sich die Perspektive, damit Sie wissen, aus welcher Position herauss spreche ich, ja. Das ist das Netzwerk, wir haben mehr als 70 Webseiten, wir haben äh auch noch hohe Auflage. Wir haben nicht nur Titel, der die Verlegerfamilie Doktor Ippen gehören, sondern auch inzwischen an die 30.

sich Contentpartner fremden Medienhäuser, die mitwirken. Wir haben mehr als 2000 Texte, die jeden Tag rausgehen. Wir haben mit freien, mit allem, was drum rumhängt und so weiter und so weiter über ähm 2000 Journalisten, so ganz genau weiss das keiner. Ich schätze mal so ganz grob, aber einfach zu gross ist. Was will ich damit sagen? Es geht auch immer um Grösse. AI und das werden wir heute sehen, geht auch immer drum. Grosse Zahlen zu managen. Ja, Gross viel durchlaufen zu lassen, ja. Und das war die Herausforderung, mit dem

eines Bundestagswahlprojekt rangetreten sind. Also das im Hinterkopf. Es muss viel Menge durchgewuppt werden. Und damit sind wir gestartet. Was haben wir so gemacht? Was war das Projekt?

Bundestagswahl. Natürlich gibt es Wahlergebnisse. Ja, Wahlkreis ist klar, machen alle, was wir noch dazu machen, weil lokaler Schwerpunkt heisst, wir machen auch alle Gemeinden.

für die, die es nicht wissen. In Deutschland gibt es gut 10 000 Gemeinden, 10 000 125 Gemeinden ungefähr in Deutschland. Wir haben die Wahldaten, erheben die für jede der Gemeinden. Erststimme, Zweitstimme, alle Parteien live am Wahlabend so Das machen wir immer. Und das läuft doch super. Das ist ganz fantastisch. Ich sage dann

Jetzt haben wir so viele Daten. Gigabyte an Daten.

so viele geile Geschichten, die in dieser Datenbank checken. Ich bin zumI-Team gegangen und habe gesagt lieber Sie I-Team. Ich brauche doch nicht nur 10 000 Datensätze für 10 000 Gemeinden.

Ich brauche eigentlich 10 000 Texte.

das kann am Wahlabend keine Redaktion der Welt schreiben, nicht live, auch nicht mit Zeit versucht. Das ist nicht managebar. Also müssen uns die Jungs machen.

und das Ziel war, bei der Bundestagswahl kriege ich 10 000 Texte für jede Gemeinde in Deutschland mit ihren Wahlergebnissen.

so Jetzt bin ich der Chef und sag halt hier Leg mal die Latte hoch. AI Team sagen zu mir Halt mein Bier. Wir machen mal. Ja. Und ich war mir nicht sicher, ob das klappt. Hab gedacht Mensch, du. Ja, ist schon. Ist schon. Ist schon heftig, ja. Aber die haben losgelegt.

und haben dann gearbeitet. Und es war dann zum Beispiel so aus. Wochenlange Arbeit, denn der Qualitätsstandard war hoch.

Ich will natürlich bei einer Wahl keine Halluzinationen sehen. Ich will keine falschen Ergebnisse sehen. Also rein faktische Qualitätsmerkmale, aber auch publizistische Qualitätsmerkmale will ich, weil ich habe gesagt, ich möchte ja nicht in jedem dieser Texte haben, die afd hat gewonnen, was die prozentualen natürlich getan hat. Ja, Aber ich will ja nicht 10 000 Texte mit der afd Skam. Also, ich will eine journalistische Relevanz haben. Und die Diversifizierung der Themen so also es gibt faktische und es gibt publizistische Vorgaben. Das mussten die alles ein.

und am Ende haben sie es auch gemacht. Ja. Und wie das aussieht, sieht, sehen Sie hier in der Mitte. Das ist der Prompt.

der prompt um alle Qualitätsmerkmale zu matchen, ist sieben Diener vier Seiten lang. Hirse abgedruckt. Ich habe den so klein gemacht, dass den keiner abfotografieren kann und kopieren kann. Zwinker Zwinker. Aber sieben Seiten prompt, um dann einen Text pro Gemeinde zu zeugen, so kann man sich vorstellen, das machen die nicht an einem Nachmittag. Da sitzen die.

ein paar Tage dran.

ein paar Wochen.

Ja.

so für die desinteressiert das ganze Licht durch Cloud durch 3.7 und 3.5. Ja, wir haben sowohl Text als auch Bild generiert. Und dann lieft die.

Pipeline los, so Das Problem war dann die Jungs haben gesagt im AI- Team. Wir können das. Irgendwann haben die angerufen und gesagt Wir machen dir 10 000 Texte.

Ehrlich gesagt, ich habe da ein bisschen Bammel bekommen, weil ich habe vorher erzählt, wir machen ungefähr 2000 Texte laufend in das Netzwerk neu ein pro Tag 2000 Texte. Da sollten 10 000 dazu kommen.

in einer normalen Tageszeitung ungefähr. Ich sag mal so 100 120 150 Texte in einer Ausgabe einer Tageszeitung in 10 000 neu dazu kommen. Ich hatte ein wenig Schiss, weil die Jungs haben zu mir gesagt, wir können die Auswirkung nicht kalkulieren. Ja, Das ist so viel. Wir wissen nicht, was passiert. Wir wissen nicht, ob wir den Koer kaputt machen. Am Tag der Bundestagswahl. Und dadurch sagt OK, dann machen wir es so

nehmen wir alle Gemeinden, bei denen wir eine langfristige Nachhaltige Berichterstattung aufrechterhalten und bespielen wir erst mal die Gemeinden und geben wir da erst mal Texte raus und ähm lassen wir die restlichen Texte erstmal in der Pipeline rausgekommen sind dann.

diese Texte. Also das ist live kann man alles googeln suchen. Ja, es ist alles ist alles da und ist findbar. Und was ich hier noch kurz zeigen will, und das ist total spannend. Kietrich, ja, ich wusste vorher auch nicht, wo Kietrich ist, Hessen, ja, Rheingau irgendwo. Wer hätte für so eine Gemeinde jemals einen Text geschrieben.

Das ist doch im Kern Journalismus, was wir tun müssen. Nicht, dass es diese Ergebnisse nicht gibt.

kann ein Bürger sich besorgen. Aber es ist Aufgabe von Journalismus.

diese wichtigen Informationen leicht zugänglich und gefällig aufzubereiten.

und wir haben den Menschen Kitt. Ich weiss nicht, wie viele er wohnen. 3 4000 Menschen wahrscheinlich diese Informationen gegeben. Ja, Klar mag der Text ein bisschen hölzern sein. Natürlich ist es sehr technisch getrieben und liest erst mal viel Zahlen runter. Wir wollten auch nicht viel journalistische Einordnung. Ich will nicht. Ich will hohe Verlässlichkeit. Ich will nicht viel Temperatur drin haben, und mit der KI-Sprache zu bleiben. Aber wir haben diesen Menschen einen Text gegeben, genauso im Baunatal oder am Tegernsee, ja. Und diese Texte sind rausgegangen. Und ich finde das ist ein Kernjournalistischer Job. Das ist keine Technikfrage. Das ist der.

Job, den wir zu erledigen haben, ja. Und diese Texte gingen ja raus. Am Ende waren es nicht 10 000, weil ich mich nicht getraut. Ich bin da so offen. Am Ende waren es 1152 Texte, die wir ausgespielt haben. weitgehend am Wahlabend selber live.

1920 Uhr kommt ein Ergebnis rein. Drei Minuten 20. Ja. Und dann geht der Text raus.

Es war noch ein bisschen komplizierter, weil es war die erste Bundestagswahl nach dem neuen Wahlrecht. Das heisst, man wusste am Wahlabend gar nicht, welcher Kandidat geht denn wirklich in den Bundestag rein. Deswegen wurden mehr als 1000 Texte drei Tage später aktualisiert, vollautomatisiert, aktualisiert, um den Kandidaten, der dann tatsächlich in den Bundestag war reingeht. Das sind die 1000 Texte, die upgedatet wurden. Da habe ich gedacht, wow, das können die ja, Jungs. Wow, also.

mehr als ich gedacht hätte. Ja.

und richtig gefreut habe ich mich dann, als ich dann die ersten Zahlen gesehen habe und gesagt Mensch, eine halbe Million Nutzer in ungefähr der Woche hatten wir schon fast die halbe Million. Und dann hat es sich natürlich noch aufsummiert. Eine halbe Million Nutzer, das ist viel.

Ja. Und das ist vor allem, wenn man sich die Kosten dagegen rechnet, ist es für mich schonend durchschlagender Erfolg gewesen, ja.

und da kann man sagen Gut, im Durchschnitt sind dann 500 P pro Nutzer kann man sagen Ja, aber.

wenn man überlegt, wir haben Menschen adressiert, die vielleicht nie ihre Ergebnisse bekommen hätten.

dann sind 500 P super. Und das zeige ich Ihnen einmal meine über Thesen, warum das wertvoll ist. Ja, Sonst dealen wir oft mit Millionen von Ps auf Texte.

hier geht es um kleine Mengen. Und das ist eine der grossen Changes, die AI den Journalismus aufzwingt, ja. ähm und es ändert verändert auch die Logiken der algorithmischen Journalismuswelt, in der wir leben.

ähm kurz die Texte am funktioniert auf den klassischen Kanälen Google genauso gut wie Direktnutzer ganz viel Direktnutzer drauf Facebook-Kids hatten wir auch an einigen dezidierten Stellen. Und es war auch von der Verteilung ganz klassisch. Einige schiessen völlig durch die Decke an dem haben wirklich kleinen Unterzahlen, aber es sind diese kleinen Nutzerzahlen, die doch so spannend sind. Weil wer hätte denn sonst bei kleinen Mengen vielleicht 50 100 Klicks normalerweise einen Text produziert, kein Schwein.

kein Schwein.

Aber jetzt ist es gegangen. Auch 100 Menschen verdienen journalistisch angesprochen zu werden, auch wenn alle anderen sagen Ach, Mensch, da stecke ich die Kohle nicht rein in die Leute.

weil es gut funktioniert, habe ich gesagt Komm, wir müssen das mal machen. Denn eigentlich haben wir was noch Cooleres. Wir machen das mit den Daten ja nicht das erste Mal. Wir machen das seit inzwischen drei Bundestagswahn seit 2017. Wir haben also eine ganze Historie. Und wenn man sich diese Grafik anschaut, da stecken doch.

geile Geschichten drin. Und man kann diese eine Grossgeschichte schreiben, wie sich die Wallistode auf Gemeindeebene über Deutschland findet. Da haben wir eine grosse Datenanalytische Geschichte, die super ist.

Aber was noch viel wichtiger ist, ist was ganz anders. Hier steckt nicht die eine grosse Geschichte drin. Da stecken 1000 kleine Geschichten drin für Tausende von Gemeinden, die sich von blau nach Rot zu schwarz verändert haben oder die immer grün waren oder die immer rot waren, obwohl sich alles verändert hat. Da stecken Tausende Geschichten drin. Und das Problem ist doch wer schreibt denn die auf? Natürlich gibt es gute Redakteure, die sagen, ich nehme mir das vor, ich mache die Analyse. Ich habe einen tollen Text dazu mache hier mal jemand macht's damals.

jemand ist es super.

Aber wer sagt, ich mache das nicht hier und da mal gelegentlich, sondern ich mache es systematisch flächendeckend, immer für jeden Nutzer, weil es nicht nur Leser gibt, die hier und da mal eine gute Geschichte verdient haben, sondern weil jeder eine gute Geschichte verdient hat.

und natürlich, wenn der Redakteur sich das vorne machte, noch viel mehr rein. Und natürlich ist das der Technisch getrieben. Aber es hat jeder Leser eine Geschichte verdient.

Und dann haben wir dieses Folgeprojekt raus geballert. Und dann haben wir den Tag

das Lokaljournalismus zum Anlass genommen, weil wir gesagt haben, Lokalstourismus ist so wichtig für Gesellschaft und Demokratie. Das müssen wir zeigen. 15. Mai haben wir den Tag für uns zelebriert. Und dann haben wir dieses Projekt rausgeballert und haben gesagt, an dem Tag läuft die Langfristanalyse der historischen Daten einer Bundestagswahl für jede Gemeinde, die wir bespielt. Wieder 10052 Texte. Und ich finde, das ist eine relativ hohe Komplexität, die wir an der Stelle haben, denn ich muss ja jetzt nicht nur eine Wahl, sondern

ganze Datenreihe.

technologisch aufbereiten, damit Inhalt rauskommt, der für Menschen verwertbar ist.

das ist passiert. Am 15. Mai zur Feier des Tags des Lokaljournmus, weil das wichtig ist, was wir tun, weil wir dafür auch Technologiehilfe brauchen.

Ich habe gezeigt, was wir getan haben.

formuliere.

drei Hypothesen, was daraus folgt. Was können wir lernen aus diesem Bundestagswahlprojekt und seine Folgeprojekt?

Erstens KI wird von Lokaljournalismus absolut zentral sein. Da fährt der Zug drüber, ja.

erstens.

Wir haben gesehen. KI kreiert eine neue Art von Content.

Das ist Inhalt, den wir so vorher nie produziert hätten, nicht hätten können. Wir haben niemandem was weggenommen. Kein Redakteur hat an dem Tag gesagt Okay, ich habe keine Arbeit mehr. Wir haben neue Inhaltek kreiert. Niemand hätte vorher einen Text für Kitttrich geschrieben. Ja, oder eine Wahlanalyse für Baunatal. Das wäre nicht möglich gewesen. Es gibt einen neuen Wert, den wir mit KE generieren können.

was für mich super wichtig ist. Und das ist ein Kernauftrag von Journalismus. Wir können jetzt auch kleine Communities bespielen, ja. Wir kennen alle die Tendenzen im digitalen algorithmischen Journalismus einige wenige Themen auf die stürzen sich alle Medienhäuser und der Vorwurf vieler Leser ist doch auch völlig berechtigt. Ihr schreibt immer alle dasselbe. Da ist doch auch was dran. Da müssen wir uns in die Tasche lügen. Natürlich geht der algorithmische Welt auf einige wenige starke Themen. Und natürlich haben wir ganz viele kleine Themen ausgeblendet, weil sich es oft nicht rentiert hat, darüber zu schreiben.

jetzt irritiert es sich darüber zu schreiben, weil wir die Kosten runterkriegen, weil wir die Automatisierung reinkriegen. Und plötzlich kann man für Menschen schreiben, die sagen, Ihr hört mir nicht mehr zu. Nie schreibt über mich. Ich weiss, es interessiert nur 100 Leute. Es interessiert nur 500 Leute, aber nie schreibt ihr mehr über mich. Und ich sage jetzt schreiben wir über dich. Jetzt schreiben wir über Kitterich und das Baunatal und Salzwedel und Uelzen und eine Uelzen schon grosse schon zu Grossülzen. Oh Gott, ja. So und es geht plötzlich KI gibt uns die Möglichkeit, kleine Communities zu adressieren. Klammer.

Wir können lokales streichen. Dasselbe könnte für jede andere Art von Community sagen. Also es können auch die einbeinigen Schwangeren in Westschwabingen sein. Ja, kann man auch sagen. Kleine Community kann nicht adressieren. Das wird Khi unsermöglichen. Ich möchte es aber aufs Lokale runter.

Und vor allem haben wir auch gesehen.

dass wir den Redakteur nichts weggenommen haben im Tag. Die haben alle einen super Job gemacht im Netzwerk. Die haben alle gearbeitet wie bei jeder Wahl. Und das kam noch etwas dazu. Additional value. Wir haben extra Value kreiert, der für den Redakteur hilfreich war und für den Nutzer.

und es geht nicht nur um Effizienz. Das geht und es ist viel wichtiger. Es geht um etwas zusätzliches Sinnstiftendes extra draufzugeben. Und das wird KI machen in die Dimension müssen reinkommen, wenn wir denken. Zweite Hypothese.

AI. Und das ist vielleicht unterschreibt vielleicht nicht jeder Moment AI wird helfen, unsere Qualität zu steigern im Journalismus. Ja. Und solange man den Dimensionen effizient denkt, sagt man, das will er eigentlich ja mit Qualität. Ja, Eigentlich geht's um Effizienz. Ja, um Effizienz geht's auch. Aber mir geht's auch um Qualität.

Denn erstens, wie definieren wir das Passwort Qualität? Wie machen wir das mal konkret, damit sich so eine Blubberblase ist, ja. Qualität kann man verstehen, zum Beispiel, indem man sagt, ich kriege Arten von Inhalten, die relativ komplex sind, die ich vorher nicht hatte.

haben die Menschen heute bekommen. Ja, Die haben Inhalte bekommen bei der Bundestagswahl, die sie so vorher nicht hatten und die relativ kompliziert sind. Mehrere Jahre Wahlanalysen, ja. Qualitätssignal für viele Leser. Zweitens, die Texte, wir haben natürlich stichprobenartig geprüft, auch wenn die nicht menschlich abgenommen wurden. Wir haben die geprüft, ob die Inhalte stimmen. Die Wahlergebnisse waren immer korrekt.

und für jeden, der meine Wahlen mitgemacht hat und weiss, wie das früher war, mit abtippen, so von Faxen. Ja, wie viel wir mit der Hand einen Fehler reingebaut haben. Ja, vor zehn Jahren oder 12 Jahren, ja.

massenweise Fehler, die rausgegangen sind. Ja.

Wir hatten keinen einzigen. Wir hatten keinen einzigen. Wie soll ich sagen? Ergebnisfehler bei den Wahldaten. Null Fehler, also Abwesenheit und Fehler ist auch ein Qualitätssignal. Ja, Ditz Qualitätssignal ist auch einfach, es gibt dann eher indirekt, wenn der Akteur entlastet werden von der Arbeit, bestimmte Themen zu machen und sich fokussieren können auf Sachen, wo sie sagen Mensch, das habe ich eine gute Geschichte auf. Ja, weil davor habe ich jetzt mehr Zeit als vorher. Und das ist zwar ein indirektes Signal.

aber auch das wird Qualität im Journalismus steigern, mithilfe von AI.

Drittens.

Ich glaube zutiefst wir muss das anschauen.

Wir brauchen grosse Netzwerke und grosse Plattformen, um die Optionen, die uns KE gibt.

überhaupt hebeln zu können.

wenn da

vier Wochen Leute an den Bundestagswahlprojekt sitzen.

dann brauche ich nicht einen Text. Die grosse Wahlanalyse. Dann bei euch nicht fünf Texte zur Wahlanalyse. Und ich brauche nicht 50.

Ich brauche Tausende Texte.

Tausende.

sonst brauche ich nicht Leute, die eine Woche lang einen sieben Diener vier Seiten lang imprompt schreiben, testen, neu schreiben, neu testen, neu schreiben, neu testen.

und deswegen geht es auch immer um den Scale. Ja. Also, wir brauchen die Zusammenarbeit im Netzwerk. Und wir brauchen diese Grösse. Damit können wir die Kosten, die Technologieprobleme leveln. Und wir können mehr Traffic an den Nutzer ranbringen in die kleinen Communities in die wenigengläser in die kleinen Themen, die sonst gar nicht mehr bespielt werden in Zukunft.

Doch am Ende muss ich auch sagen. Und das ist der dritte Punkt auf der Folie.

Wir hatten hier ein Problem. Ja. Also, wir hatten 1000 Texte draussen. Wir hätten aber noch 9000 Texte in der Pipeline gehabt.

selbst unser Netzwerk bei der Grösse, die wir haben.

hat nicht ausgelangt, sämtliche Inhalte.

rauszuspielen.

auch wir hatten ein Distributionsproblem. Es war zu gross, um alles rauszuspielen.

Und jetzt mache ich ein verdecktes Angebot, weil ich bin ja nicht nur hier, um zu erzählen, wie toll wir alle Sachen machen. Ich mache ein verdecktes Angebot. Ja.

wenn ich so ein paar 1000 Texte habe aus.

Mecklenburg-Vorpommern.

aus Rheinland-pfalz.

die ich nicht rauss spüren kann.

da, glaube ich, braucht man nicht super viel Fantasie, um darüber nachzudenken. Was könnten Kooperationsmodelle sein in einem Netzwerk, das total offen ist, wo Verlage, wo Medienhäuser, Redaktionen zusammenarbeiten können.

denn die Zukunft für lokalen Journalismus geht nur über Kooperation.

und ich habe die Daten. Uns kostet das gar nichts.

Texte mehr zu produzieren. Die wurden eh gemacht. Die Basisarbeit haben wir getan. Die Grenzkosten sind gegen null für uns. Ich habe die Texte sowieso. Und ich freue mich über viel Fantasie und Diskussionen, wenn wir sagen, OK, wie können wir da zusammens spielen. Was kann da passieren? Alles, was überhaupt möglich. Ich muss selber auch beginnen, darüber nachzudenken, was alles an Optionen vor uns steht.

Und vielleicht machen wir nächstes Jahr einen Tag des Lokaljournalismus, zu dem ich alle herzlich einlade. Und dann sitzen wir mit einem KI-projekt da und es gehen 10 000 Texte raus in vielleicht ganz vielen Websiten in Deutschland zu irgendeinem total super Projekt. Und dann haben wir gezeigt KI wird helfen.

Lokaljournalismus eine nachhaltige digitale Zukunft zu geben. Wir brauchen KE dafür. Und vielleicht schaffen wir es nächstes Jahr nicht nur als Epenmedia, sondern ähm gemeinsam in der Verlagsbranche.

Vielen Dank.

Über diesen Podcast

Am 23. und 24. Juni 2025 präsentieren die besten Medienmacherinnen und -macher Europas beim European Publishing Congress ihre Strategien und sprechen über die Zukunft der Branche. In diesem Podcast bekommen sie ausgewählte Sessions und Zusammenfassungen der Keynotes als Podcast Episoden.

KI und die digitale Transformation bei Medien sind die zentralen Themen beim European Publishing Congress 2025. Erfahren Sie, wie die deutsche „Zeit“ im Lesermarkt weiter wachsen will, wie „Sabato“ in Belgien ein ultimatives Wochenendgefühl für ein anspruchsvolles Publikum gelingt, warum der Schwäbische Verlag in Deutschland seine Plus-Strategie überdenkt, warum Mediahuis in Holland die gut verbrachte Nutzungszeit seiner Leser in den Mittelpunkt stellt, wie die "Frankfurter Allgemeine Sonntagszeitung" eine Schlüsselrolle in der Online-Strategie der FAZ übernommen hat und wie "Zetland" in Dänemark mit Online-Journalismus ohne Clickbaiting erfolgreich ist.

https://www.publishing-congress.com/

von und mit Johann Oberauer GmbH

Abonnieren

Follow us