European Publishing Congress

European Publishing Congress

Der Kongress für Medienprofis

Transkript

Zurück zur Episode

speaker: Chris Guse

topic: Mit KI in Echtzeit von Text zu Audio

AI Agents.

Was können Sie?

Herzlich willkommen.

so einen schönen guten Morgen, einen schönen guten Tag. Schön, hier zu sein. Mit KI in Echtzeit von Text zur Audio.

Es geht darum, wie wir in Echtzeit uns Stück für Stück heranwagen können an Content, der vorliegt.

und den wir dann ins Audio bringen können. Mein Name ist Chris Kuse. Wir sind die Bose Park Productions aus Berlin. Und es gibt seit ungefähr zehn Jahren und seit zwei Jahren sind wir dabei, mit KI zusammen zu experimentieren und herauszufinden. Wie kann man möglichst schnell die Geschwindigkeit zwischen dem Content, den es gibt und dann dem Audioprodukt, das Menschen hören können. Wie kann man diese Zeit möglichst klein halten?

Ich werde von Audio berichten. Ich werde aber auch für alle, die jetzt nicht direkt mit Auto zu tun haben, versuchen zu berichten, was unsere Erfahrungen sind in den letzten zwei Jahren im Umgang mit KI und Content.

und weil es so schnell geht, geben. Helfen Sie mir kurz. Geben Sie mir einen kurzen Überblick, wie weit Ihr Kenntnisstand ist. Also, wer von ihnen arbeitet denn schon täglich oder einmal in der Woche zumindest mit Large Language Models mit KI Modellen und VP Kben Sie einfach mal die Hand.

Okay, ein bisschen mehr als die Hälfte. Und wer von ihnen hat denn schon auch mit Skripten gearbeitet? Also auf irgendeine Art und Weise programmiert. Python Javascript, irgendetwas bei Google.

12

34. Sehr gut. Schön. Freue ich mich, dass Sie auch da sind. Und mein Ziel ist es, das am Ende dann alle die Hand heben. Mal gucken.

darum geht es jetzt. Fangen wir an mit Audio. Es geht darum, wenn wir irgendwie Nachrichten haben, wenn wir Content haben und den als Text vorliegen haben, dann geht das sehr schnell, dass Menschen diesen Text konsumieren können.

wenn wir das Ganze als Audio machen und dass es nach wie vor immer noch ein Problem. Dann dauert es länger. Sie können sich diese x-Achse jetzt als Zeit denken oder als kosten. Das ist ja dann am Ende immer das Gleiche. Und diesen.

Gap. Und das ist ein Problem. Das ist ein Problem, das wir lösen müssen, denn.

Trägheit der Autoproduktion zu überwinden, hängt unmittelbar damit zusammen, wie viele Menschen das, was wir produzieren, hören, konsumieren und am Ende auch bezahlen können und wollen. Zum einen geht's darum, also die Kosten in den Griff zu kriegen, dann weniger Zeit für die Produktion bedeutet immer weniger Kosten. Und zum anderen geht es darum, natürlich auch mehr Menschen zu erreichen. Also natürlich gibt es so Sachen, wie dass man auf Online Seiten sich den Text vorlesen lassen kann.

Aber das ist jetzt aus Audioproduktionssicht nicht besonders sexy. Das ist irgendwie so, als würde man abends seine Eltern bitten, sich aus der Zeitung was vorlesen zu lassen. Und das ist nicht cool. Also, deswegen müssen wir versuchen, die Autoproduktion. Da geht es auch um redaktionelle Betreuung kürzer zu halten, denn es geht um Reichweite und es geht darum, dass es Menschen gibt, die gerne lesen. Es gibt Menschen, die gerne hören, und es soll auch Menschen geben, die beides gerne machen. Und eine Zahl mal oder zwei Zahlen vielleicht.

Das ist jetzt hier eine Mediennutzungsanalyse aus dem Jahr 2023 aus Deutschland, dass wir ungefähr etwas über 80 Minuten am Tag lesen und über 190 Minuten am Tag hören. Da ist jetzt natürlich bei Hörern auch dabei Radio nebenbei Medium. Aber das zeigt schon, was für eine grosse Reichweite im Audiobereich steckt, die wir oft immer abgeben und verlieren, weil wir zu lange brauchen, bis dann der Content veröffentlicht ist.

Wir haben es ganz viel zu tun. Und davon möchte ich Ihnen heute auch berichten, aus dieser Welttext Audiotext. Es ist im Prinzip immer das Gleiche, dass wir irgendwie Texte haben. Wir haben Content. Wir haben News und wollen das irgendwie ins Audio kriegen. Und dieses Wandeln ist eben das, was immer Zeit braucht.

Ich möchte einmal ganz kurz einen kleines Schritt zurückzoomen, was wir in den letzten zwei Jahren immer gelernt haben und was wir eigentlich alles gilt für die Arbeit mit KI. Ob es jetzt Audio oder Text ist Do not Software, was damit gemeint ist, ist Wir sind in einer Welt gross geworden, in der in den letzten zehn, 20 Jahren in der Software grosse monolithische Anwendung waren. Also wir wollen eher jetzt versuchen, Steps zu machen, was ich damit meine, ist, wenn ich mal die Frage stellen darf. Was ist eigentlich ein Programm? Dann war das in den letzten zehn bis 20 Jahren immer so, dass eine Programm für alle.

Also nehmen wir mal zum Beispiel Word war ein Programm. Ein Programm ist ein riesiges Programm geworden mit 5000 Funktionen, was dazu geführt hat, dass niemand von uns eigentlich wirklich.

weiss, wie Word wirklich funktioniert. Also ich weiss nicht, ob irgendjemand hier im Raum ist, der jemals es geschafft hat, zum Beispiel, dass man bei Word dynamischem Datum einfügen kann, so dass es automatisch das richtige Datum ist. Allein daran scheitern wir eigentlich schon. Der Grund ist, dass wir immer versucht haben, uns an dieses Res Programm, das für alle sein soll, wieder anzupassen als Menschen, um dann herauszufinden, wie es uns helfen kann. Und dann landen wir meistens bei Workarounds. Und das ist.

blöd. Und das ändert sich ja zum Glück mit KI. Also die alte Software war das Wort für alle. Und wenn wir jetzt mal.

wenn sie mal folgende Gedanken mit mir mitgehen, wenn wir Ki-modelle grosse Large Language Modelle als eine Art Betriebssystem begreifen, dann sind prompts eigentlich kleine Programme. Und das Schöne ist, dass wir dadurch diesen Gedanken step by step und nicht ein grosses für alle sehr gut mitgehen können. Ich möchte Ihnen zeigen, was das bedeutet für uns auch in der Audioproduktion. Wenn wir jetzt das Runterbrechen auf die Autoproduktion in verschiedene Steps einteilen, dann sehen wir hier. Also weiss ich. Wir beginnen Texte umzuschreiben für die Autoproduktion. Die müssen dann gekürzt oder zusammenge.

werden. Wir müssen Audio herstellen. Dazu benutzen wir Text to Speech Produktionssoftware. Wir müssen das Ganze produzieren. Es muss qualitativ besser gemacht werden. Und dann muss es veröffentlicht werden. Und das ist auch immer ein grosser Zeitfresser. Da braucht es einen Titel, eine Beschreibung. Jemand muss es hochladen. Und indem wir jetzt also anfangen, nicht einen Programm zu suchen, was das alles für uns macht, automatisiert, sondern es sind kleine Schritte einteilen, können wir eben sehr gut KI in dem Fall dann nutzen.

Es gibt für all diese Schritte, die wir in der Produktion haben, schon die KI-Tools. Das wissen Sie aus dem Alltag. Es gibt für jedes Ding jetzt mittlerweile eine Software, ein Programm. Das sind nur Beispiele hier und die grosse Gefahr ist allerdings.

dass wir da so ein bisschen im Chaos versinken.

Es gibt ja ein relativ neuen Ansatz, möchte ich mal sagen, bei Ki- Modellen ist das Stichwort multimodal. Damit ist gemeint, dass wir nicht mehr nur Text irgendwo hingeben, sondern direkt auch Audios hochladen können und Adios zurückbekommen, also dass die KI-Modelle in der Lage sind, mit verschiedenen Medien umzugehen. Aber Vorsicht, dann ist man wieder bei diesem Ding, dass man mit einem grossen Ding alles machen möchte und dass die Gefahr sehr gross, dass man nicht zu seinem Ziel kommt, und zwar nicht in der Geschwindigkeit, die man haben möchte, denn wir wollen ja eigentlich Zeit sparen.

Ich.

teile die Arbeit ist etwas, was wir kennen. Das kennen Sie aus Teams. Das kennen Sie aus den Redaktionen.

Das bedeutet ja, dass man die Arbeit herunterbrechen muss, damit Menschen eben.

damit Menschen mit der Arbeit umgehen können. Wir Menschen sind auch so, wenn wir uns Menschen Arbeit geben und sagen Mach mal einen schönen Podcast, dann sind die meisten Menschen so Oh Gott, wie soll ich das machen? Wie schreibe ich eine Intro? Wie soll ich den Text zusammenfassen? Was mache ich mit dem Audio?

Wenn wir aber und das gilt für die Textarbeit genauso, wenn wir diese Arbeit herunterbrechen auf Prozesse.

dann sind Menschen glücklich und das Interessante ist. Und das ist ein Indiz, dass wir mit KI-Modellen schon sehr nah dran sind, an dem, was wir Menschen auch machen, dann sind KI Modelle auch glücklich, weil wenn sie die Arbeit portionieren und einteilen und nicht alles mit einem Schritt oder einem Tool machen wollen, können Sie es sehr gut kontrollieren. Kommen Sie schneller zum Ergebnis, dass unsere Erfahrung.

Ich möchte Ihnen ein Beispiel geben, das, was wir gerade machen. Wir machen hier auf dem Kongress die Live-Übersetzung auch. Das ist zum einen so, dass sie auf den Kanälen vier bis sechs ist, glaube ich, verschiedene Sprachen finden. Und ich habe Ihnen hier mal jetzt gezeigt, wie wir das dann so runterbrechen in verschiedene Steps, was uns sehr gut hilft, schnell zu einem Ergebnis zu kommen, kontrollieren zu können. Das ist so, dass wir das Audio, was ich jetzt hier zum Beispiel reinspreche, dann eben transkribieren müssen. Wir müssen es danach übersetzen, wenn wir es übersetzt haben, dann wollen wir es hier wieder zurück ins Aus.

verwandeln. Dazu benutzen wir Text zu Speech TTS. Ein nächster Schritt und dann.

machen wir das Ganze noch zu einer Zusammenfassung. Sie können das Ganze auch als Podcast hören. Und dann da da, wo der kleine Mensch ist, dass der Floh, der sitzt da hinten und der kümmert sich dann darum, dass am Ende es natürlich noch mal Human in the loop jemanden gibt, der das checkt, der durchhört und der sich dann darum kümmert, dass das Final wirklich rausgeht. Das ist jetzt nur mal so ein Beispiel, dass Sie mal so ein Gefühl dafür kriegen, warum ich so viel von Steps erzähle, weil wir wirklich gemerkt haben, dass diese Steps.

einfach uns unglaublich helfen, Zeit zu sparen. TTS wollte ich nur einen kleinen Ausflug machen. Das ist Text to Speech, dass Sie da auch mal so ein paar Anbieter gesehen haben. Viele Einige werden das schon kennen. Eleven Labs oder Gemini wahnsinnig gute Qualität. Mittlerweile sie mittlerweile wirklich bei MS und Ö, also genauso wie ich mir ab und zu ein abstottere, können das auch schon TTS Modelle, was es natürlich sehr menschlich macht. Sie sind sehr schnell. Man muss so ein bisschen gucken, wie verlässlich sind die wirklich? Das ist immer noch so ein kleines Problem und gucken Sie auf den Preis. Natürlich. Das kennen Sie auch von den Textmodellen. Man kann.

sehr schnell die Übersicht verlieren, was so per Tokens pro 1000 und so Also, das ist schon auch ein Unterschied bei den Anbietern, also zum Beispiel Eleven Labs hier kostet ungefähr 30 mal so viel wie AWS. Nur mal so als Gefühl.

live. Ich wollte Ihnen kurz berichten, was wir hier machen auf diesem Kongress. Das eine ist das Life Translation.

Da geht es einfach grundsätzlich erst mal darum, dass sie auf holländisch-niederländisch, auf Tschechisch, auf Russisch das, was ich jetzt auch sage hören können neben den simultanen Übersetzerinnen und Setzern, die dort in den Kabinen sitzen. Ich möchte es an dieser Stelle auch mal ganz toll sagen, dass es nicht darum geht, Menschen zu ersetzen. Das ist immer eine Frage, die uns gestellt wird, sondern es geht mehr darum. Wir werden immer menschliche Übersetzer zum Beispiel brauchen. Worum es geht, es zusätzliche Sprachen anzubieten, die sich zum Beispiel monetär nicht lohnen würden. Das haben wir ganz oft bei Kongressen. Es sind drei Menschen oder vier Menschen aus.

Korea dabei oder aus Osteuropa aus Ländern aus Bulgarien. Und dann sind wir in der Lage, dadurch diese zusätzlichen Sprachen anzubieten. Das ist das, was ich Ihnen gerade gezeigt habe. Wir experimentieren gerade damit, das Ganze auch als Podcast zeitnah online zu stellen, also sowohl die Begrüssung als auch der Vortrag von Julia Becker sollte jetzt online sein im Podcast. Da ist dann auch eine Zusammenfassung vorne dran mit einer synthetisierten Stimme. Und diese Links, die ich Ihnen zeige, sind unter anderem draussen steht ein Monitor, dass man auch live die Zusammenfassung sehen kann der letzten zehn Minuten zum Beispiel.

oder wenn Sie die Adresse auf ihrem Handy aufrufen, dann können Sie auch das Englische zum Beispiel mitlesen oder die Zusammenfassung lesen. Das sind alles Beispiele. Nichts davon ist perfekt, aber ich möchte Ihnen diese Beispiele zeigen und sie ermuntern, das alles auszuprobieren, weil wir im Umgang mit KI gelernt haben, wenn wir es in kleine Steps runterbrechen und viel ausprobieren, lernen wir viel schneller und kommen viel schneller zum Ergebnis als dieses perfekte grosse Ganze zu suchen.

das einmal als Zusammenfassung zum Podcast. Das sind so die Steps, die immer nachrangig beim Podcast sind. Und wenn sie zum Beispiel auch in Redaktionen arbeiten, worum es darum geht, Podcasts zu veröffentlichen, ist das immer auch ein super Zeitfresser und wir haben sehr gute Erfahrung damit gemacht, diese Schritte dann eben herunterzubrechen, auf diese Schritte und zu automatisieren. Ich komme gleich dazu, was es bedeutet, zu automatisieren. Ich wollte sie hier nun mal auch Ihnen zeigen. Also, da geht es darum, einen Titel zu schreiben. Ein Teaser Satz zu schreiben, in Episodencover zu generieren. Für all das gibt's ja schon diese.

Tools. Und es geht eben darum, die möglichst gute hintereinander zu ketten, um schnell zu einer Veröffentlichung zu kommen.

Ich habe Ihnen ein paar Beispiele mitgebracht, die wir die Podcast Shows, die wir machen, wo wir eben diese Ketten anwenden. Serienkiller ein grosser, grosser deutscher True Crime Podcast. Da ist es so, dass wir vor KI- Zeiten für eine Produktion einer Folge tatsächlich vier bis fünf Tage gebraucht haben. Da geht es ums Übersetzen. Das ist eine amerikanische Show, die wir lizenziert haben. Und wir haben es jetzt geschafft, die Produktion auf sechs bis sieben Stunden runterzubrechen. Doppelsechs ist ein Fussballpodcast für die Lausitzer Rundschau. Da ist es so, dass die Hosts ihren Fussballpodcast aufnehmen und wir aber dann erst, wenn der Pot.

veröffentlicht wird, noch mal automatisiert. News von der Seite nehmen. Und sie synthetisieren mit den Stimmen der Haust, damit die Leute, die Menschen, die den Podcast hören, auch wirklich die aktuellen News hören, dann wenn der Podcast veröffentlicht wird. Sowas würde niemals händisch funktionieren. Es könnte keine Redaktion bezahlen. Es geht eher darum. Das haben wir sehr gute Erfahrungen gemacht, dass wir eben den Teil, den die Menschen aufnehmen müssen, mit dem Teil mit dem Contentteil, der synthetisiert ist, so dass die Leute, die den Podcast hören, immer die aktuellen gerade bei Fussball super wichtig, die aktuellen Nachrichten hören.

Grosskop ein schönes Beispiel, dass man mit strukturierten Daten sehr guten Content machen kann, automatisiert, weil natürlich die Konstellation der Planeten ist über Jahrzehnte, Jahrhunderte im Voraus vorberechenbar und Space News ist einfach ein kleines Lieblingsprojekt von uns voll automatisiert. Können Sie mal reinhören. Auch ein Experiment habe ich letztes Jahr, glaube ich schon erzählt. Läuft sehr gut. Sind einfach jeden Tag drei Space News komplett automatisiert als Podcast.

Das Wort wollte ich Ihnen mitbringen. Ich wollte am Ende auf jeden Fall Ihnen noch ein wenig allgemeine Learnings von uns mitgeben, die auch für die Textarbeit genauso gelten. Das ist ein Wort. Das ist unser Lieblingswort geworden. Es gilt für jegliche Contentproduktion, jegliche Automatisierung, nicht für die Beziehung, aber für alles andere. Die Klapping bedeutet, dass sie versuchen, so gut es geht. Die einzelnen Schritte, die einzelnen Steps, die sie definieren in der Contentproduktion, so isoliert wie möglich zu designen.

idealerweise weiss zum Beispiel der Teil, der sich um den Titel kümmert, überhaupt nicht, worum es in der grossen Produktion geht. Alles, was ihn interessiert ist. Ich bekomme einen Text. Das ist meine Anweisung mein Prompt. Und ich muss ihn dort hinschicken. Die Kabbling ist quasi das.

das, was sie.

gross rüberschreiben können, sobald sie anfangen zu automatisieren, weil es ihnen sehr helfen wird, die Fehler zu finden. Fehler werden immer passieren. Und sie finden sehr schnell Fehler. Sie kommen sehr schnell zu einem Ergebnis, wenn sie versuchen, die Sachen isoliert zu betrachten, denken Sie sozusagen konträr zu diesem grossen Wordprogramm versuchen Sie ganz kleine Programme zu machen, ganz kleine Einheiten, ganz kleine automatisierte Prompts. Das habe ich mal mitgebracht. Das ist sehr klein. Ich wollte nur einmal zeigen, wenn Sie diese kleinen Einheiten haben, dann haben Sie die Möglichkeit, sehr grosse und detaillierte Promps natürlich zu schreiben.

die sehr spezifisch sind. Sie wissen in der Arbeit mit Large-language- Modellen, dass die ihnen oft abhauen, dass man sagt halluzinieren oder die denken sich was aus, umso spitzer die Aufgabe ist, umso spezifischer können sie die Aufgabe geben. Das ist nur der Prom, den wir verwenden, um zum Beispiel bei TrueC Podcasten noch mal den Text zu checken und zu gucken. Ist alles mit dem Text in Ordnung sprachlich. Der ist sehr spezifisch auf die Hörerinnen und Hörer ausgerichtet. Wie ist der Ton? Wie ist die Sprache? Und Sie können so, wenn sie sehr kleine Einheiten haben, sehr grosse Promps schreiben und haben einen sehr.

gut spezifischen Output, der sehr gut kontrollierbar ist.

Der Vorteil ist, wenn sie diese kleinen Einheiten haben, dass die Large Language Modelle die Ki-modelle mittlerweile nicht mehr locked in sind. Vor einem Jahr waren die noch so wie Kaspar Hauser. Die wussten nur das, womit sie trainiert worden sind. Mittlerweile können sie mit verschiedenen Tools mit Anthropic geht es sehr gut. Können Sie andocken ans Internet. Sie haben jetzt mittlerweile eine Erinnerungsspeicher. Und das wollte ich Ihnen nur mal als Stichwort geben. Wahnsinnig stark hat Vorpig sich ausgedacht MCP.

Es gibt immer mehr Anbieter, die das anbieten. Nur als Stichwort. Nehmen Sie das vielleicht mal mit. Wahrscheinlich haben einige von ihnen auch davon schon gehört, wenn sie auch im Textbereich in den Redaktionen arbeiten, ist das eine sehr sichere und gute Art und Weise, um an verschiedene Contentanbieter anzudocken, mit ihnen den Sprachmodellen, mit den Ki-modellen in den kleinen Einheiten und sehr kontrolliert den Content zurückzubekommen. Reasoning haben Sie, glaube ich, alle schon gehört.

zum Abschluss noch die grosse Frage. Das ist jetzt wahrscheinlich immer sehr viel und viele fragen mich dann Ja. Okay, aber wie soll ich denn anfangen, oder wie sollen wir das machen? Oder wie sollen wir in unseren Redaktionen jetzt irgendwie da jetzt diesen Schritt machen hin zu diesen kleinen decoupled Dingen. Also das Erste ist Automation ist.

das ist der Key. Also, wenn sie diese kleinen Einheiten haben. Sie haben eine kleine Einheit, die sich um die Titel kümmert. Sie haben eine kleine Einheit. Die kmmert sich um den Teaser Satz. Sie haben eine kleine Einheit. Die kümmert sich um das Cover zum Beispiel eines Podcasts.

dann entsteht die grosse Kraft natürlich der grosse Zeitersparnis, die grosse Kostenersparnis, dann, wenn sie eine Automation haben, die das hintereinander kettet. Und da ist sie deswegen habe ich am Anfang gefragt, wer schon Skriptet. Da ist natürlich Skripten ist.

Das ist das, worum es geht. Und es ist sehr, sehr einfach. Also, ich weiss, dass wir alle immer denken, aus unserer Vergangenheit daraus Coden oder Skripten ist etwas, was nur die anderen machen, wo man in den Keller gehen muss, um 20 Jahre nicht rauskommt. Aber es ist nicht mehr so, wenn sie anfangen zu Skripten und zu Coden mit KI Modellen kommen sie sehr schnell zu sehr guten Ergebnissen. Ich möchte Sie sehr doll dazu ermuntern, das mal auszuprobieren. Und ich habe da hingeschrieben Please know No Code, damit es einfach nur gemeint. Es gibt aktuell sehr viele Plattformen, die versprechen, dass sie nur mit zusammenklicken, solche Automation.

herstellen können. Wir haben keine gute Erfahrung damit gemacht. Das kann sich ändern, aber es ist aktuell so, dass wirklich dieses sich einfach irgendwas zusammenklicken nicht gut funktioniert. Es funktioniert gut, wenn sie Skripten und diese Skripten ist sehr einfach geworden.

Wo verbindet man denn eigentlich diese ganzen kleinen Teile, die man dann so hergestellt hat oder macht? ABS zum Beispiel hat etwas Schönes wäre von Ihnen auch redaktionell mit ABS zusammenarbeitet. Und der Cloud nennt sich Stepfunction. Es ist sehr einfach, sehr schön, um solche Module aneinander zu ketten und auch Fehler zu finden. NAN ist ein grosser Liebling von uns. Es ist eine deutsche Firma. Interessanterweise, die eine aus der Automation auch kommt und die gerade im Contentbereich sehr gut zu benutzen ist, weil sie dort visuell sich etwas ein Workflow zusammenklicken.

und bei Bedarf aber per Code Dinge ändern können. Sie kommen also nicht zu diesem Punkt wie bei den grossen Softwaren, dass wieder drei Leute Kopfschmerzen haben, weil sie genau den Fall, den sie brauchen, diese Software nicht unterstützt, sondern sie können wie sowas mit Nn sehr gut das aneinander knüpfen. Und was wir ganz oft machen, lokal der gute alte Computer. Ich weiss, wir kommen aus einer Zeit. Alles ist in der Cloud. Alles ist weltweit verbunden im Internet. Aber ein lokaler Computer in ihrer Redaktion, der ein paar Python Skripte hat, ist das günstigste, beste Pflegele.

das, was sie machen können, um Schnella Automationen in der Redaktion voranzubringen. Keine Scheu davor, so was einfach auszuruhen. Es fühlt sich manchmal ein bisschen Oldscore an. Es sieht auch recht Oldschool aus. Deswegen habe ich da ein Foto genommen. Aber es ist tatsächlich oft bei uns der allerschnellste Weg gewesen, zu einem Ergebnis zu kommen. Und am Ende bekommen sie dann sowas.

da steht dann jetzt Agentic Workflow. Ich habe dieses Wort Agentic bis jetzt nicht benutzt, weil es. Es wird gerade sehr oft benutzt. Aber worum es geht es? Man sieht hier, wenn sie sich so die kleinen Steps zusammenschrauben, dass sie dann auch natürlich die Möglichkeit haben, KI-Modelle selbst entscheiden zu lassen. Und da wird es dann richtig interessant, auch gerade wenn es in Richtung Zeitersparnis gibt. Das ist tricky, aber ich wollte Ihnen das nur mal zeigen, dass das eigentlich ist, was wir alle hoffentlich in den nächsten 12 Monaten hinkriegen für unsere Redaktion, weil dann geht es darum, dass wir in diesem Workflow Ki-modelle Entscheidung treffen können.

wie zum Beispiel muss da noch mal ein Mensch drüber gucken. Muss ich kürzen. Lass ich den Text so oder zum Beispiel packe ich noch ein Intro ran oder sind wir schon so lange? Und dann ist man Stück für Stück wirklich bei so

kleinen neuen Mitarbeitern, die wir uns da bauen.

drei Learnings zum Ende. Also, wir bauen Workflows wie Homepages. Das ist etwas, was wir immer wieder gelernt haben. Und das gilt für Audio wie für Text. Sie kommen schneller. Und darum geht es ja immer. Es geht darum, schneller ein Ergebnis zu haben und schneller ein Ergebnis zu haben, meint, dass schneller Menschen, die unsere Produkte konsumieren, das Produkt lesen, hören und sehen können. Und sie kommen da schneller hin, wenn sie diese Abläufe selber bauen. Sie kennen das aus dem Homepage-bereich. Da haben wir das auch alle gelernt. Ob wir jetzt WordPress haben, ob jemand in der Firma gibt. Aber wir machen das nicht mehr so Wir kaufen uns keine fertige Homepage.

Wir bauen uns unsere Homepage so wie wir sie brauchen, so wie unsere Firma, unsere Redaktion funktioniert.

Und genauso können wir jetzt Softwareprogramme bauen, indem wir runterbrechen auf kleine Steps. Audio kann mit KI so schnell wie Text sein. Das ist halbes Wunschdenken für uns noch, aber auch halbe Realität. Also, wir schaffen es mittlerweile sehr schnell, dass Menschen, die jetzt gewohnt sind, von Text Push Nachrichten auch ungefähr im gleichen Tempo eben ihnen die Audionnachrichten zur Verfügung zu stellen und ran an die Werkbank. Ich wollte das mal so salopp formulieren, weil ich möchte das ganz toll unterstreichen, was Julia Becker hier heute schon auf der Bühne gesagt hat. Die Arbeit mit KI ist sehr.

wichtig, sehr mächtig und Ki-modelle können und sind sehr gefährlich und können sehr gefährlich werden. Das heisst also nur, wenn wir.

und selbst empowern und lernen, mit ihnen umzugehen. Sie verstehen, wenn wir in der Lage seien, sie auch zu beherrschen und guten Content zu machen. Wenn wir es denen überlassen und damit zum Beispiel auch die Silicon Gally Silicon Valley Guys aus Amerika ist nur good, wenn wir es denen überlassen und sagen, wir wissen auch nicht, was die genau machen. Wir nutzen nur die fertigen Tools. Dann werden wir es nicht schaffen. Also ran an die Werkbank bedeutet. Und dazu möchte ich sie alle ermuntern. Vor uns liegt ein fantastischer KI Sommer 25, weil wir alle jetzt erst mal gucken müssen, was die Jungs sich da und Mädels in Silicon Valley ausgedacht haben. Aber die nächsten Monate können wir Zeit damit ver.

zu lernen. Und unsere Erfahrung ist immer wieder die Arbeit mit Ki-Modellen kann man nur voranbringen verstehen, wenn man es wirklich macht. Man kann da nicht theoretisch drüber sprechen. Man kann nur, indem man diese kleinen Steps und Module macht, ausprobieren, verstehen, viele Fehler machen und lernen. Und dann kommt man schnell zu einem Ergebnis. Und die Ergebnisse sind sehr toll. Wenn Sie Lust haben auf mehr KI. Wir haben ein Podcast auch die Entdeckung des 21. Jahrhunderts, sage jetzt jede Woche um alles Neue rund um Journalismus KI, die technologische Entwicklung. Und wenn Sie Fragen haben. Ich bin den ganzen Tag auch hier. Es war.

sehr schnell. Entschuldigung, aber es gibt immer so viel zu erzählen. Vielen Dank für Ihre Aufmerksamkeit und einen schönen Tag noch. Danke schön.

Herzlichen Dank ran an die Werkbank. Die Werkbank wird jetzt in Aachen stehen. äh die Aachener Zeitung verfolgt seit Jahren eine konsequente Digital First Strategie mit mittlerweile 22 000 Digitalabos ein klarer Erfolg.

zentral ist dabei auch.

dass Journalistinnen und Journalisten in Aachen Verantwortung für den Vertrieb übernehmen.

was das bedeutet, zeigt uns Julia Dran. Herzlich willkommen.

Über diesen Podcast

Am 23. und 24. Juni 2025 präsentieren die besten Medienmacherinnen und -macher Europas beim European Publishing Congress ihre Strategien und sprechen über die Zukunft der Branche. In diesem Podcast bekommen sie ausgewählte Sessions und Zusammenfassungen der Keynotes als Podcast Episoden.

KI und die digitale Transformation bei Medien sind die zentralen Themen beim European Publishing Congress 2025. Erfahren Sie, wie die deutsche „Zeit“ im Lesermarkt weiter wachsen will, wie „Sabato“ in Belgien ein ultimatives Wochenendgefühl für ein anspruchsvolles Publikum gelingt, warum der Schwäbische Verlag in Deutschland seine Plus-Strategie überdenkt, warum Mediahuis in Holland die gut verbrachte Nutzungszeit seiner Leser in den Mittelpunkt stellt, wie die "Frankfurter Allgemeine Sonntagszeitung" eine Schlüsselrolle in der Online-Strategie der FAZ übernommen hat und wie "Zetland" in Dänemark mit Online-Journalismus ohne Clickbaiting erfolgreich ist.

https://www.publishing-congress.com/

von und mit Johann Oberauer GmbH

Abonnieren

Follow us