Alle Episoden

Warum Schreiben!

Warum Schreiben!

63m 23s

Birte hat an der Tagung "Warum Schreiben! Schreiben als transformative Kraft "an der Uni Bremen teilgenommen. In dieser Episode erzählt sie von ihren Eindrücken und geht mit Dennis das Programm durch.

Fokus

Fokus

57m 59s

Brauchen wir beim Schreiben Fokus oder dich lieber Disziplin? Oder sind das eigentlich nur unterschiedliche Wörter für die gleiche Sache? Wir sprechen heute über Nuancen beim konzentrierten Schreiben.

Richtig Schreiben

Richtig Schreiben

54m 39s

Ein Buch in zehn Tagen schreiben. In einem Videoschnipsel erzählt Vera F. Birkenbiehl, dass das die Zeit ist, in der sie ein Buch schreibt. Über diesen Ausschnitt sprechen Dennis und Birte und dieser Folge.

Wie erkennen wir Erkenntnis beim Schreiben?

Wie erkennen wir Erkenntnis beim Schreiben?

77m 21s

Wir veranstalten unsere eigene Reihe großer Sommerinterviews und haben in unserer heutigen Episode Erika Unterpertinger zu Gast. Erika forscht dazu, wie wir über Erkenntnisse im Schreibprozess sprechen können und wie diese Micromomente der Erkenntnis in einem experimentellen Setting sichtbar gemacht werden können.

Die Zukunft des Schreibens - Revisited

Die Zukunft des Schreibens - Revisited

74m 18s

Ein gutes Jahr nach der Veröffentlichung des Diskussionspapiers "Zehn Thesen zur Zukunft des Schreibens in der Wissenschaft" unterhält sich Dennis mit einer der Co-Autorinnen Anika Limburg darüber, welche der aufgestellten Utopien und Dystopien sich heute vielleicht bereits abzeichnen.

Märchen schreiben

Märchen schreiben

75m 32s

Birte spricht mit Sigrid über Märchen.

Die themenzentrierte Interaktion

Die themenzentrierte Interaktion

54m 32s

Lange haben wir uns davor gedrückt, aber in der heutigen Episode reden wir wieder einmal über unsere eigenen Schreibprojekte. Um dabei Struktur reinzubringen, nutzen wir dafür die Methode der themenzentrierten Interaktion.

Texthungrige KIs

Texthungrige KIs

42m 0s

Wir besprechen ein aktuelles Paper, in dem abgeschätzt wird, zu welchem Zeitpunkt der Bedarf an Trainingsdaten von Large Language Models nicht mehr durch öffentlich verfügbare und digitalisierte Texte abgedeckt werden kann. Doch ist das "Immer höher, schneller, weiter"-Mantra eigentlich der richtige Weg in der Weiterentwicklung generativer KI?