Was genau passiert eigentlich, wenn ein Haufen Laien ein Hörspiel in sechs Teilen produziert? – Vierter Teil

9. Oktober 2013 · 19:00
von Jan

Aller Anfang ist bekanntlich schwer, und das trifft auch auf dieses Projekt zu. Wie ich schon in den letzten Teilen ausgeführt habe, hatte ich zu Beginn einen sehr hohen Anspruch an die Darstellung der Audioszenen. Da ich noch wenig Erfahrung im „Bühnenbild“ hatte, brauchte ich zunächst etwas Visuelles, also die jeweilige Szene als sichtbaren Raum. Daraus wollte ich die Position der verschiedenen Geräuschquellen ableiten, um so ein möglichst realistisches akustisches Abbild der (virtuellen) Wirklichkeit zu erhalten. Mein Ansatz war, möglichst alle denkbaren Geräuschquellen einer Umgebung zu definieren, was zu einer schier unüberschaubaren Azahl von Emittern führte. Die Umgebung sollte durch diese Komplexität glaubhafter werden.

Um die Übersicht in einem solchen Audioprojekt, wie unsere Hörspielszenen in Nuendo genannt werden, weitgehend zu behalten, hatten wir wenigstens im Vorwege schon in einem Konzept festgehalten, welche Geräuschgruppen wir definieren. Herausgekommen sind:

  • Dialog (das gesprochene Wort)
  • Cues (handlungsbestimmende Ereignisse)
  • Foleys (Bewegungsgeräusche)
  • Hintergrund (handlungsunabhängig)

Dementsprechend wurde das Audioprojekt in Nuendo aufgesetzt. Man muß sich das vorstellen wie ein sehr großes Mischpult mit theoretisch einer beliebigen Anzahl von Kanalzügen. Dort haben wir vier Untergruppen definiert, für die oben genannten Kategorien, in die dann die einzelnen Kanäle, je nach Zugehörigkeit, hineinlaufen. Jeder Einzelkanal enthält mein programmiertes Emitter-Plugin, das die Audiodaten um räumliche Informationen ergänzt.

Aufgrund des statischen Projektgerüsts von Nuendo mußte die Anzahl der Kanäle auf ein mögliches Maximum festgelegt werden, weil nachträgliche Änderungen in der Version 2.x ohne weiteres schlicht nicht möglich sind. Wegen dieser und anderer Einschränkungen, bin ich dann nach Folge 1 auf Reaper umgestiegen.

Ok, was also immer gut funktioniert hat, ist die Kategorisierung der Geräusche, die ich auch immer noch einhalte. Jedes neue Geräusch wird sofort klassifiziert, obwohl es manchmal Überschneidungen gibt, wenn Hintergrund- oder Bewegungsgeräusche plötzlich Cues sind. Inzwischen denke ich ganz automatisch in diesen Kategorien, wenn ich eine neue Szene bearbeite, die zunächst nichts außer den zusammengeschnittenen Dialogen enthält.

Kommen wir noch einmal zurück zu Szene 1.1, dem Anfang. Dies ist die Szene, in der die Hauptfigur, Kim, auf der Brücke der Dykstra, einem Transport-Raumschiff auf dem Weg zum Mars, vorgestellt wird. „Brücke“ bedeutete für mich: „viele kleine und größere Geräte, die irgendeine Art Piepsen oder ähnliche Geräusche von sich geben, um ihre Anwesenheit zu dokumentieren.“ Die ganze Konsole bestünde dann problemlos aus einer Vielzahl von Emittern. Dazu plante ich noch Lüftungsschächte und das Summen elektrischer Geräte als Geräuschquellen. Hinzu kamen nun noch Aktivitäten-Geräusche von drei Personen, die auf der Brücke verschiedene Tätigkeiten ausüben, und zwei Lautsprecher, aus denen die Stimme des Captain klingt. Daraus bestand im Wesentlichen die Szene 1.1.

Bis zu den Lüftungsschächten, sieben an der Zahl, hatte ich versucht, die Positionierung von Hand zu machen. Das bedeutete, die Lautstärke, abhängig von der Entfernung zum Mikrofon, von Hand zu berechnen, ebenso wie die Verteilung im Stereofeld, mit Option auf späteren Surround-Modus. Dann ahnte ich, daß ich so nicht weiterkam. An diesem Punkt entschloß ich mich zu dem Einsatz der 3D-Modellierung.

Bei einigen Themen war meine Recherche sehr umfassend, um nicht zu sagen „überflüssig“. Oj und ich hatten uns darüber unterhalten, wie denn die Dykstra eigentlich aussehen muß, da ja dort einige Szenen spielen, und wie ihre Brücke wohl aussehen sollte. All diese Informationen sind in die Skizzen eingeflossen, die Oj als Vorlage für die Blender-Modelle angefertigt hatte. Nach einiger Zeit, spätestens während der Arbeiten zu Folge 2, hatte ich mich so weit beruhigt, daß ich nur noch über die Dinge, die wirklich zu hören waren, nachdachte. Am Ende jedenfalls, nach etwa einem Jahr und drei Monaten, seit ihrer ersten Erstellung, war Szene 1.1 fertig und enthielt etwa 40 aktive Emitter. Sie ließ sich kaum noch in Echtzeit abspielen, so daß ich mir mit Offline-Mixdowns behelfen mußte, was die Bearbeitungszeit weiter erhöht hatte.

Inzwischen… also zuletzt, ja, kann ich sagen, daß der Wechsel von Nuendo auf Reaper das Projekt gerettet hatte. Es gab einige Aufgaben, die extrem viel Aufwand bedeuteten:

  • Atemgeräusche der Charaktere ergänzen
  • Bewegungsgeräusche, insbesondere Schritte, erzeugen
  • Maximierung der Lautstärken der Dialoge

In Folge 1 hatte ich das alles manuell eingefügt, auch einer der Gründe, warum Folge 1 ungefähr zwei Jahre lang nicht fertig wurde. Demgegenüber benötigte ich für Folge 2 „nur“ noch ein Jahr, was aber an der Umstellung auf Reaper lag.

Der Wechsel auf Reaper brachte wundervolle Möglichkeiten mit sich: Ich konnte nun per Skriptsprache, wie in Blender, einfach und komfortabel neue Funktionen und Plugins hinzufügen. Eigentlich war in Reaper alles besser als in Nuendo, aber die Skripting-Möglichkeit ist ein Highlight. Hiermit bin ich in der Lage, Atem- und Schrittgeräusche aufzunehmen, die jedes Mal, wenn ich die Erzeugung starte, neu oder anders klingen, weil fast alle Parameter durch Zufallsgeneratoren gesteuert werden. Zu den Parametern gehören Timing, Lautstärke, Tonhöhe, Klangfilter, und so weiter, und so weiter. Für die Realisierung brauchte ich allerdings sehr viel Vorbereitung, weil ich einen Sampleplayer mit den einzeln aufgenommenen Geräuschproben von Fußschritten auf verschiedenen Untergründen, Atemgeräuschen von verschiedenen Personen oder Kleidungsgeraschel jedweder Art bestücken mußte. Gesteuert wird der Player nun durch meine Skripte per MIDI und spielt die Klänge für den erforderlichen Emitter ab.

Was die Arbeit an einer Hörspielfolge in die Länge zieht, sind sehr viele kurze Szenen, da jede Szene komplett neu aufgebaut werden muß. Diese Vorbereitungszeit ist interessanterweise bei längeren Szenen nicht automatisch länger, so daß wenige lange Szenen zu einer relativ kurzen Produktionsphase führen können. Natürlich dauern Szenen, in denen viel Bewegung abgebildet ist, deutlich länger in der Bearbeitung, als wenn sich nur zwei Personen miteinander unterhalten, jedoch ist der Aufbau des „Set“ die größte Arbeit.
Die gesunde Mischung zwischen Actionszenen und Dialogen bestimmt die Qualität des Hörspiels bzw. der Erzählung, wobei manchmal ein paar gut gewählte Worte aussagekräftiger als eine Actionszene sein können. Wegen dieser Mischung läßt sich der Produktionsaufwand für eine Folge nicht beliebig optimieren sondern sollte sich so ungefähr bei zwischen drei und sechs Monaten einpegeln, ausgehend von der momentan dafür zur Verfügung stehenden Freizeit.

Puh! Tja, eine Sache läßt sich definitiv immer über den Aufbau einer neuen Szene sagen: Je besser die Planung, desto schneller kommt man zum Endergebnis. Aktuell dauert die Bearbeitung einer durchschnittlichen Szene von zwei Minuten Länge ungefähr eine Woche, wie gesagt: ausgehend von der aktuell zur Verfügung stehenden Freizeit.

Demnächst geht’s dann weiter mit dem Sounddesign – im fünften Teil.

Kommentar hinterlassen