Sicherheitskopien

31. Oktober 2013 · 08:00
von Jan

So, jetzt kurz vor der Reise mache ich nochmal ein Backup von meinen Arbeitsdaten, dieses Projekt betreffend. Glücklicherweise haben wir seit Beginn unserer Arbeiten keine Crashes gehabt. Die Probleme mit den Störgeräuschen oder der nicht laufenden Aufnahme waren die einzigen, die mir so einfallen. So ein Backup zu machen, ist mit vorangeschrittenem Projektstand schon eine etwas zeitraubende Aktivität: mein Verzeichnis mit den Rohgeräuschen ist auf fast 120 GB angewachsen, das Verzeichnis mit den bearbeiteten Szenen geht auf 40 GB.

In unregelmäßigen Abständen bekommt Oj auch eine Kopie der aktuellen Daten, so daß wir mindestens vier Exemplare des Projekts haben. Ich frage mich nur, was wir damit machen, wenn das Projekt zu Ende ist…

Hintergründe

29. Oktober 2013 · 08:00
von Jan

Ich habe die Vermutung, daß jeder, der irgendeine eintönige Tätigkeit ausübt, zwangsläufig irgendwann ein gewisses Maß an Kreativität entwickelt, um aus der Routine auszubrechen. So ist es zumindest mir bei der Szenenbearbeitung gegangen. Ich habe angefangen, irgendwelche fast unhörbaren Details in die Hintergründe der Szenen einzubauen, die letztlich nur meiner eigenen Belustigung dienten. Da habe ich dann ab und zu auch mal zum Mikrofon gegriffen und kleinere, im Skript nicht verzeichnete, Sprechrollen aufgenommen, die der Handlung noch eine kleine Seitendrift geben sollten.

Eine andere Auswirkung überschüssiger Kreativität spiegelte sich im Detailgrad der Gestaltung der Hintergründe wider. Für eine Szene habe ich zum Beispiel eine komplette Maschinerie neu „erfunden“ und zum Leben erweckt. Jedes Einzelgeräusch darin ist ortbar und wäre im Surround-Modus (der große Hörspiel-Gott bewahre mich davor) sogar „vorne“ oder „hinten“ zuordenbar. Allein für solche Spielereien wäre eine alternative Mikrofonfahrt durch die Szene, weit weg von der eigentlichen Handlung, ziemlich reizvoll.

Ich habe ja schon in Folge 5 meines Rückblick-Blogs über die Gestaltung der Hintergründe geschrieben. Ich gehe da inwischen etwas routinierter vor, also schneller, aber gerade bei den Actionszenen ist, neben der ziemlich nervenden Kleinarbeit, viel Potential für Spielereien enthalten, da der Hörfokus ja auf den Charakteren ist. Da regen sich schon mal Leute im Hintergrund darüber auf, daß sie „Streß mit der Alten“ haben oder ihnen „die Karre verreckt“ sei.

Ich habe mir für diesen Quatsch kein Vorbild gesucht, sowas kommt einfach von ganz allein. Das erklärt wohl auch die Comedy-Folge der John-Sinclair-2000-Serie. Wahrscheinlich war die Ansage dort: „Tobt euch jetzt mal richtig aus, aber danach geht’s wieder ernsthaft weiter!“.

Lauf der Zeit

27. Oktober 2013 · 08:00
von Jan

Ich habe gerade meine Selbstdarstellung auf der outopiabeta-Seite noch einmal gelesen und muß über die Naivität, die ich damals besaß, schmunzeln. Ich bin mir nicht sicher, ob ich eine Zeitmaschine erfinden, damit in die Vergangenheit zurückreisen und meinem früheren Ich von diesem Projekt abraten sollte, oder ob ich einfach wehmütig an die Zeit zurückdenke, zu der Hörspiele für mich noch etwas Magisches hatten.

Ich kann mich daran erinnern, daß ich etwa mit 16 Jahren mal aus einem Buch die wörtliche Rede herausgeschrieben hatte und der Meinung war, ich hätte nun ein Hörspielskript – das waren Zeiten. Und wenn ich mich von vor zehn Jahren betrachte, komme ich zu dem Schluß, daß ich bis dahin nicht viel mehr über Hörspiele gelernt hatte. Aber ich konnte mich davon noch faszinieren lassen. Heute bin ich da viel nüchterner, leider, weil ich mich zuviel mit der Technik dahinter beschäftigt habe. Damals wußte ich noch nicht, wieviele Tricks man einsetzen kann und muß, um den Zuhörer bei Laune zu halten. Mir war zwar schon klar, daß die erste Szene darüber entscheidet, ob sich jemand das gesamte Hörspiel anhören mag oder nicht, aber darüber, daß das Interesse geweckt werden muß, und wie so etwas gehen kann, hatte ich nie nachgedacht. In den hunderten Hörspielen, die ich seit Beginn unseres Projekts zu Studienzwecken gehört habe, war diese Fragestellung auf unterschiedliche Weise unterschiedlich gut gelöst, wobei kostenpflichtige gegenüber freien Hörspielen keinen qualitativen Vorsprung besitzen, höchstens etwas teurer wirken. Ich nehme mir nicht heraus, zu meinen, daß ich die bestmögliche Lösung für unser Hörspiel gefunden habe, aber die schlechteste Lösung habe ich hoffentlich auch nicht genommen.

„Meine Frau möge mir den Zeitentzug über die nächsten Monate verzeihen…“, lautet da ein Satz. Das hat/mußte sie wohl. Allerdings hat sie bestimmt nicht geahnt, daß daraus mehrere Jahre werden würden. Meine beiden Kinder sind noch nicht mal so alt wie unser Projekt, und die Große ist im September Vier geworden und kann schon richtig reden. Ich möchte dieses Hörspiel gerne abschließen, bevor sie in die Schule kommt.

Knapp drei Monate für den Rohschnitt von Folge 4!

25. Oktober 2013 · 08:00
von Jan

So, jetzt ist der Schnitt von Folge 4 tatsächlich fertig, und nun fehlt nur noch die Musik. Da jetzt im November eine Japanreise für den Besuch der Verwandschaft ansteht, muß ich erst einmal pausieren und kann dann im Dezember an der Musik arbeiten. Das ist aber vielleicht gar nicht schlecht, weil ich auf diese Weise ein wenig Abstand von der täglichen Szenenbearbeitung gewinnen kann. Außerdem benötige ich die Zeit jetzt für die Reisevorbereitungen. Natürlich werde ich auch einen Audiorekorder mit nach Japan nehmen, um eventuell noch einige interessante Geräusche dort aufzunehmen – es schadet ja nichts. Den letzten Stand der Folge habe ich mir auf mein Handy geladen, um ihn probezuhören, aber ansonsten werde ich wieder ein paar andere Hörspiele konsumieren, um mich auch mal ein wenig unterhalten zu lassen.

Warum ging es mit der Bearbeitung dieser Folge so viel schneller als mit den letzten Folgen? Darüber hatte ich bereits in den Rückblick-Blogs geschrieben: Lange Szenen, die in erster Linie Gespräche enthalten, und wenig Bewegung, lassen sich schneller produzieren. Davon gab es in Folge 4 nun mehr als in den vorherigen Folgen. Aber dazu kommt natürlich die Routine bei der Arbeit. Im Moment brauche ich nichts zu erforschen sondern nur meine Arbeitsanleitung von oben nach unten durchzuarbeiten. Zusammen mit den ganzen Hilfsmitteln, die ich nun habe, geht’s einfach deutlich schneller.

Oj hatte zu Beginn von Folge 3 ein Statusdokument ins Leben gerufen, in das die Beteiligten für einen Arbeitsschritt ein Kreuzchen machen, wenn sie ihn abgeschlossen haben. Es ist faszinierend, zu sehen, daß nun mehr Kreuzchen dort stehen als freie Felder. Denn wenn die Musik für Folge 4 fertig ist, haben wir zwei Drittel des gesamten Hörspiels geschafft! Wenn tatsächlich alles wie geplant weiterläuft, sind wir vielleicht 2014 fertig. Ist nur schade, daß aufgrund der langen Projektdauer ich wohl der einzige sein dürfte, der zumindest ein wenig enthusiastisch ist.

Bis hierher zu kommen, war ein verdammt schwerer Weg für mich, weil die einzige Motivation weiterzumachen aus mir selbst heraus kam. Ein wenig einsam ist es auch, denn wer mag sich schon die ganzen Gedanken anhören, die ich mir zum Thema Hörspiel in den letzten sechs oder sieben Jahren gemacht habe. Ich bin mir nicht mal sicher, ob ich mir selbst zuhören wollte. Wenigstens kann ich feststellen, daß diese Projektarbeit meine Disziplin enorm gefördert hat, das war eine Schwäche, die mich in meiner Jugend so manches Projekt hatte abbrechen lassen. Und nebenbei habe ich auch einige damals aufgegebene Pläne durch meine Arbeit realisieren können, wie zum Beispiel die Simulation des akustischen Raums, obwohl ich da noch mehr Ausbaustufen für die Zukunft hätte. Aber es gibt ja vielleicht noch mehr Hörspielprojekte…

Tja, und ich spiele schon mit dem Gedanken, dieses Jahr bereits mit Folge 5 zu beginnen.

Kategorie: Allgemeines  Mix  Schnitt

Was genau passiert eigentlich, wenn ein Haufen Laien ein Hörspiel in sechs Teilen produziert? – Sechster Teil

23. Oktober 2013 · 19:00
von Jan

Witzigerweise war die Musik zum Hörspiel das erste, worüber ich mir Gedanken gemacht hatte. Das war noch, bevor Oj mit dem eigentlichen Schreiben des Drehbuchs begonnen hatte – irgendwann 2005. Zu dem Zeitpunkt gab es nur den Handlungsrahmen. Ich hatte mich damals mit klassischer Musik, besonders Soundtracks beschäftigt und mir gerade eine Orchester-Sample-Library zugelegt. Also war ich komplett unerfahren.

Das erste Stück, das ich damals „schrieb“, hat es nicht ins Hörspiel geschafft, auch weil die damals Beteiligten sich ziemlich negativ über „künstliche“ Streichinstrumente geäußert hatten. Aber das verwendete Thema wird uns in Folge 6 noch über den Weg laufen. Erst fünf Jahre später hatte ich dann die Erfordernis, ernsthaft über Musik zum Hörspiel und verwendbare Themen nachzudenken, denn:

Eigentlich war der Plan, nach der Fertigstellung des Skripts, die verschiedenen Aufgaben auf verschiedene Personen zu verteilen, so auch die Musik. Das fand ich eher enttäuschend, da ich mich am liebsten mit der Musik allein beschäftigt hätte. Aber dann hätten wir jemanden für die Audiobearbeitung gebraucht. Oj hatte also jemanden gefunden, der sich um die Musik kümmern wollte, aber leider kamen wir in der Konstellation nicht mal bis zum Folgenintro, weil „unser“ Musiker seinen Wohnort wechseln mußte und keine Zeit mehr für uns erübrigen konnte. Oj hatte die musikalische Tätigkeit dann als vakant ausgeschrieben, und ich hatte mich beworben. Viel Auswahl bei den Aspiranten gab es ohnehin nicht, weil unser Projekt ja wirklich unbekannt ist.

Im Mai 2010, glaube ich, setzte ich mich dann mal ans Klavier, um einige Ideen zu sammeln. Das war dann eher so eine Stunde Improvisation um die Ideen herum, die ich bis dahin so in meinem Kopf herumgetragen hatte. Für mich interessante Elemente bekamen dann Don und Oj zu hören. Die wenigsten Ideen habe ich weiterverarbeitet, aber die halfen mir, mich zu orientieren.

Im Grunde habe ich danach komplett neu begonnen und das Prinzip der Herangehensweise dabei geändert: dedizierte Arbeit für bestimmte Szenen und keine nachträgliche Auswahl bzw. Zuordnung, weil ich sonst zuviel Überschuß produziert hätte. Der Ansatz, generische musikalische Elemente zu erschaffen, die dann je nach emotionaler Bewertungsstufe eingesetzt werden sollten, gelang mir nicht, daher ist die verwendete Musik, zumindest für mein persönliches Gefühl, nicht mehr beliebig tauschbar.

Mit Oj hatte ich in der Vergangenheit mal über die einzusetzende Musik gesprochen. Er wollte gern die Motive über die Folgen verteilen, die sich zum Schluß im Endtrack vereinen sollten. Tatsächlich habe ich daraufhin einen großen Teil der Schlußmusik für Folge 6 geschrieben und die dort verwendeten Motive auf die einzelnen Musikstücke der Folgen verteilt. Bei Motiven handelt es sich hier um wiedererkennbare Tonfolgen, die aber vollkommen unterschiedlich instrumentiert sein können. In Folge 3 habe ich dann noch neue Motive hinzugenommen, weil ich das Gefühl hatte, die bisherigen schon zu oft verwendet zu haben. Vielleicht nehme ich die dann noch ins Ende auf.

Der Entstehungsprozeß eines musikalischen Elements, oder Stimmungsmusik, hat, bei meiner Arbeit, aus meiner Sicht nicht so viel mit Komposition zu tun, weil ich oft die Melodie dem Klang unterstelle. Die verwendete Melodie ist dadurch zwar nicht beliebig, aber es kommt vor, daß ein Element gar keine Melodie sondern nur Akkorde besitzt, und die sind dann auch noch improvisiert bzw. spontan gewählt. Wenn ich komponiere, plane ich das Musikstück mehr durch, das ist dann ein anderer Entstehungsprozeß. Außerdem ist der Schwerpunkt tatsächlich mehr auf den Melodien. Aber die Begrifflichkeiten sind sicherlich Auslegungssache.

Jede Folge hat bisher einen eigenen musikalischen Ansatz erhalten, wobei eine gewisse Kontinuität erkennbar sein sollte, die mit der Handlung konform geht – das war aber im Vorwege auch so besprochen. Musik ist auf jeden Fall immer Geschmackssache, und daher ist mir nicht bewußt, ob die bisherigen drei Folgen dieser Maßgabe genügen. Ich versuche aber zumindest, jeder Folge musikalisch einen eigenen Charakter zu geben, so daß wenigstens auf dieser Ebene ein Zusammenhang zur Handlung besteht – hoffe ich.

Sämtliche verwendete Musik in diesem Hörspiel ist meine eigene, obwohl teilweise nur von mir gespielt, wie im Falle der Hintergrund-Lieder in Folge 2 (die stammen aus meinem eigenen Aufnahmearchiv). Für die Musik benutze ich sämtliche mir zur Verfügung stehenden Hilfsmittel: z.B. Synthesizer (als Besonderheit: Sample-Libraries), Gitarre, Klavier oder Gesang (den vermeide ich aber aufgrund von Alterserscheinungen). Generell erzeuge ich pro Folge einen bestimmten Grundklang, der dann in der einen oder anderen Variante von den verschiedenen musikalischen Elementen genutzt wird. Dadurch geht die Musikentwicklung insgesamt dann schneller, und die Teile passen besser zusammen.

Wie man in den Folgen hören wird, ist die Musik fast immer zwischen den Szenen eingesetzt. Das liegt daran, daß das so vorgesehen war, weil die Gefahr bestand, daß die Musik die übrigen Geräusche zu sehr überdeckte. Inzwischen würde ich zwar anders darüber denken, aber man kann eine solche Entscheidung auch als Festlegung auf eine bestimmte Stilrichtung betrachten. Ich bin trotzdem noch nicht sicher, ob ich mich bei unserem Hörspiel komplett auf den einen oder anderen Stil festlegen möchte. Auf einen Seite finde ich bei Filmen wie Star Wars anstrengend, daß wirklich unglaublich viel Musik im Hintergrund zu hören ist, auf der anderen Seite gibt es einfach Szenen, in denen Musik während der Handlung zu hören sein muß. Man könnte ja meinen, daß eine gute Handlung keine Musik zur Untermalung benötigt, vielleicht ist das auch wirklich so, aber diese Perfektion gibt es unglaublich selten, und manchmal gibt der Erzählungsstoff einfach nicht mehr her, so daß man auf Effekte, wie Musik, zurückgreifen muß. Außerdem läßt sich Musik natürlich immer gut einsetzen, um dem Zuhörer eine Ruhepause zu verschaffen, in der er das Gehörte erst einmal verarbeiten kann.

Man kann den einzelnen Musikstücken vermutlich anhören, daß ich aufgrund meines Alters am stärksten durch die 80er Jahre des vergangenen Jahrhunderts geprägt bin. Manchmal bemühe ich mich, das bewußt zu vermeiden, aber eigentlich falle ich dann in irgendein anderes Cliché. Das passiert aber nicht absichtlich, weil ich mir viel Referenz-Musik anhören würde, sondern es hat wohl mit meinem Erfahrungsschatz zu tun. Letztendlich spielt es auch keine Rolle, aber am liebsten wäre es mir, wenn man mich an meiner Musik nicht sofort erkennen könnte, auch wenn einige Menschen behaupten, daß dem nicht so sei.

Ich glaube, meiner Musik ist immer irgendeine Art Entwicklung anzumerken, weil ich bei jedem neuen Projekt auch etwas Neues ausprobieren möchte. Es kommt also eher nicht vor, daß ich genau das selbe technische Setup für zwei verschiedene Musikstücke verwende. Das war schon damals so, als ich auf 8-Bit-Computern die Musik noch programmiert hatte: in jedes Programm war irgendein neuer Kniff eingebaut. Eine solche Spezialität kann man auch bei der Musik zu Folge 3 hören. Dort verwende ich sehr oft eine auf verschiedene Arten verfremdete Gitarrensaite, und auch die Brandung der Nordsee, von einem Dänemark-Urlaub, wurde dort eingearbeitet. Solche „Features“ einzusetzen, ist einigermaßen populär. Sie bilden meist den Anker, um den der Rest des Stücks aufgebaut ist. Man kann sie auch als Saat bezeichnen, aus der die Musik, wie als logische Konsequenz, erwächst.

Mir ist schon klar, daß meine Musik für das Hörspiel nur eine von vielen möglichen ist, und es gibt sicher auch bessere Lösungen, aber ich habe nicht unendlich Zeit zur Verfügung, um diese zu erforschen, und ich werde auch nicht dafür bezahlt. Zu den jeweiligen Zeitpunkten hielt ich sie zumindest für gefällig genug, um sie einzusetzen, und ich mag sie immer noch hören, weil ihre Erstellung nicht so lang gebraucht hatte wie die der Hörspielszenen, von denen ich inzwischen einige kaum noch hören will.

So, nun habe ich meine geplanten sechs Teile des Rückblick-Blogs zusammen, und es kann wieder mit zeitgemäßeren Themen weitergehen. Wahrscheinlich bin ich aber ohnehin zur Zeit der Einzige, der hier schreibt, weil ich, zumindest für die nächste Zeit, derjenige bin, der noch am meisten Arbeit vor sich hat, um dieses Projekt zu einem Ende zu bringen.

Was genau passiert eigentlich, wenn ein Haufen Laien ein Hörspiel in sechs Teilen produziert? – Fünfter Teil

16. Oktober 2013 · 19:00
von Jan

Wie versprochen geht es in diesem Teil um das Design von Geräuschen oder auch den Sound allgemein. Sound erscheint mir da mehr als Sammelbegriff für beides zu gelten, eben nicht nur die Geräusche, sondern auch die Präsentation derselben.

Idealerweise sollen die Geräusche in einem Hörspiel dem Zuhörer helfen, sich nicht nur in die Handlung sondern auch an ihren Ort zu versetzen. Im letzten Beitrag habe ich ja schon die verschiedenen Geräuschkategorien benannt, die wir im Vorwege definiert hatten. Gemäß ihrer Kategorie sollen daher die Geräusche entweder die Handlung stützen (Cues und Foleys) oder die Örtlichkeit darstellen (Hintergrund).

Geräusche der ersten Gruppe müssen so placiert werden, daß sie nicht überdeckt werden. Dafür muß man ein genaues Timing verwenden und im Zweifelsfall im Bereich von Millisekunden ausprobieren, an welcher Stelle das Geräusch am besten paßt. Ich erwähnte ja schon einmal, daß ein Hörspiel ein Kunst-Werk ist; das trifft insbesondere auf das Arrangement dieser Geräusche zu. Demgegenüber müssen Hintergrundgeräusche nicht unbedingt mit dieser Sorgfalt in die Szene eingesetzt werden, es sei denn, man beabsichtigt einen bestimmten Effekt. In dem Fall gilt dann das gleiche wie für Cues und Foleys.

Wir verwenden in unserem Hörspiel sowohl reale Geräusche als auch Geräusche, die in unserer Realität nicht existieren. Interessanterweise ist es auch bei realen Geräuschen oft erforderlich, ein wenig zu übertreiben, damit der gewünschte Effekt, Emotion oder Orientierung, erzielt wird. Die Realität in einem Hörspiel abzubilden, ist eigentlich ziemlich langweilig, da wir diese ja so gut kennen. Wenn die Geräusche allerdings zu weit von der Wirklichkeit entfernt sind, verlieren sie ihre Glaubhaftigkeit. Daher wird hier ein wenig getrickst, zum Beispiel mit der Aufnahme einer realen Umgebung, um dem Zuhörer eine Orientierung zu geben. In diese reale Kulisse werden dann die (übertriebenen) Geräusche eingesetzt. Dadurch wird ihre Künstlichkeit verwischt, und der Zuhörer wird verleitet, das Bild als Ganzes zu akzeptieren.

Das Gleiche funktioniert auch beim Geräuschdesign, also dem Zusammensetzen einzelner Komponenten zu einem Geräusch. Werden hier Komponenten verwendet, die der Zuhörer erkennen oder durch Vergleiche zumindest einordnen kann, wird er dazu gebracht, alle weiteren Komponenten in Relation zu der bekannten Geräuschkomponente zu setzen. Wenn man diesen Effekt ausnutzt, ist sich der Hörer im günstigsten Fall nicht bewußt, daß er ein nicht existentes Geräusch als existent akzeptiert hat.

Es gibt vermutlich sehr viele Möglichkeiten, ein Geräusch herzustellen. Ich verwende am liebsten das Layering, das darin besteht, daß sehr viele Geräusche oder Geräuschteile, in Frequenz, Amplitude oder Spektrum (oder allem gleichzeitig) moduliert, übereinander (gleichzeitig) abgespielt werden. Habe ich alle Komponenten zusammen, spiele ich mit den Abspielparametern so lange, bis ich nahe genug am gewünschten Ergebnis bin. Ab und zu moduliere ich auch eine Geräuschkomponente mit dem Frequenzspektrum einer anderen Komponente (Vocoding), wodurch eher organische Klangstrukturen erzeugbar sind. Naja, im Prinzip lassen sich sämtliche Methoden auch miteinander kombinieren, so daß Experimentierfreudigkeit eine wichtige Voraussetzung beim Geräuschdesign ist.

Das Problem bei Geräuschen ist, daß sie leichter akzeptiert werden können, wenn sie in ihrer „natürlichen“ Umgebung auftreten. Zum Beispiel wäre eine Explosion ohne Nachhall oder Echo irgendwie fremd. Genauso würde ein nahes Geräusch einer Tür ohne hohe Frequenzanteile unwirklich klingen. Man muß sich also auch überlegen, in welcher Entfernung zum Hörer das Geräusch zu hören sein wird. Diese Aspekte fließen in die Entfernungswahrnehmung ein, ein Prozeß, den unser Gehirn normalerweise für uns automatisch übernimmt, so daß wir uns in den meisten Fällen gar nicht so sehr bewußt sind, warum wir glauben, daß ein Geräusch von links oben aus zehn Metern Entfernung zu hören ist.

Nicht nur die Entfernung wird vom Zuhörer bestimmt sondern auch, ob ein Geräusch zeitweise durch ein Hindernis verdeckt wird. Hierzu hilft die Bewegung in einem Raum, damit der Zuhörer Vergleiche anstellen kann, wie ein Geräusch ohne und mit Verdeckung klingt. Wie oben schon angedeutet, zielt alles auf die bewußte Irreführung bzw. Umleitung der Hörwahrnehmung ab – und an dieser Stelle verlasse ich mal diesen halb wissenschaftlichen, halb experimentellen Sektor.

Die Geräusche in unserem Hörspiel stammen entweder aus meinem Archiv, das ich vor Jahren erworben hatte, oder sie werden eigens aufgenommen bzw. hergestellt. Inzwischen verwende ich zunehmend eigene Aufnahmen, da die Recherche nach dem passenden Geräusch im Archiv mehr Zeit beansprucht als es selbst aufzunehmen. Manchmal nehme ich Geräusche auf, die irgendwie interessant klingen, um sie vielleicht später als Komponenten für neue Geräusche zu nutzen, manchmal erzeuge ich Geräusche, die ich gezielt für bestimmte Szenen aufnehme. Don, Oj und ich hatten vor Jahren an zwei Terminen Geräusche aufgenommen, die wir in jedem Fall für die Vertonung benötigen. Dazu gehörten sehr viele Foleys (Schritte, Kleidungsgeraschel und vieles mehr). Diese Geräusche nutze ich im Zusammenspiel mit meinem Reaper-Skripten (s. Teil 4 dieser Blog-Serie) heute immer noch. Allerdings sind inzwischen noch viele Bewegungsgeräusche dazugekommen, so daß inzwischen rund 6000 einzelne Audiodateien allein in meinem Foley-Verzeichnis liegen. Allerdings bestehen zum Beispiel Schritte nicht aus Sequenzen sondern aus vielen Versionen eines einzelnen Schritts, um die Wiederverwendbarkeit zu erhöhen (darüber hatte ich ja auch bereits in Teil 4 dieser Serie geschrieben).

Am Anfang hatten wir bei Schrittgeräuschen versucht, jeden möglichen Untergrund mit verschiedenem Schuhwerk aufzunehmen. Inzwischen setze ich aber auch hier das Layering ein, weil die Kombinationsvielfalt so extrem groß ist. Unterschiedliche Schuhe simuliere ich durch entsprechende Frequenzfilterung, wobei meiner Sammlung aber immer noch richtige Frauenschuhe, also High Heels, fehlen. Bis Folge 4 einschließlich konnte ich mich aber noch davor drücken, das aufzunehmen, weil ich diese Schritte halbwegs glaubhaft simulieren konnte, wobei man beim genauen Hinhören schon die Fälschung erkennen kann. Daß man die Aufnahmen von Schritten aber auch für ganz andere Dinge verwenden kann, beweist ein auf Sand fahrendes Auto in Folge 4.

Seit Folge 4, bei der jetzt nur noch die Musik fehlt, gibt es ein Geräusch, das ich unverändert verwende, an dem ich nicht die Rechte besitze. Es stammt von Freesound und ist die Vorbeifahrt eines japanischen Schnellzugs (shin-kan-sen). Ich hätte das nachbauen können, hätte mich aber zuviel Zeit gekostet.

Wie man der Länge dieses Eintrags entnehmen kann, läßt sich (kann ich) über Sounddesign noch tagelang erzählen. Die umfassende Enzyklopädie und die zugrundeliegenden wissenschaftlichen Recherchen (ja, habe ich gemacht) werde ich vielleicht in zwanzig Jahren veröffentlichen. Aber es ist vielleicht noch interessant, zu erwähnen, daß ich bei jedem neuen Geräusch, das ich für eine Szene herstellen muß, einen riesigen Unwillen verspüre, weil es so viel Arbeit bedeutet. Das hat gerade am Anfang, also den ersten Folgen, für sehr hohen Zeitaufwand gesorgt. Mit der Zeit kann ich zwar mehr Geräusche wiederverwenden, aber es gibt in den nächsten beiden Folgen noch ein paar Kracher, die mich einige Zeit beschäftigen werden. Gerade diese komplett virtuellen Umgebungen, wie die Marskolonie oder die Dykstra, waren in der Vergangenheit sehr große Zeitfresser.

Im sechsten Teil dieser Serie erzähle ich dann noch ein paar Takte von der Musik, die in diesem Hörspiel Verwendung gefunden hat. Und keine Angst: ich besitze alle Rechte.

Kategorie: Allgemeines  Mix  Schnitt

Was genau passiert eigentlich, wenn ein Haufen Laien ein Hörspiel in sechs Teilen produziert? – Vierter Teil

9. Oktober 2013 · 19:00
von Jan

Aller Anfang ist bekanntlich schwer, und das trifft auch auf dieses Projekt zu. Wie ich schon in den letzten Teilen ausgeführt habe, hatte ich zu Beginn einen sehr hohen Anspruch an die Darstellung der Audioszenen. Da ich noch wenig Erfahrung im „Bühnenbild“ hatte, brauchte ich zunächst etwas Visuelles, also die jeweilige Szene als sichtbaren Raum. Daraus wollte ich die Position der verschiedenen Geräuschquellen ableiten, um so ein möglichst realistisches akustisches Abbild der (virtuellen) Wirklichkeit zu erhalten. Mein Ansatz war, möglichst alle denkbaren Geräuschquellen einer Umgebung zu definieren, was zu einer schier unüberschaubaren Azahl von Emittern führte. Die Umgebung sollte durch diese Komplexität glaubhafter werden.

Um die Übersicht in einem solchen Audioprojekt, wie unsere Hörspielszenen in Nuendo genannt werden, weitgehend zu behalten, hatten wir wenigstens im Vorwege schon in einem Konzept festgehalten, welche Geräuschgruppen wir definieren. Herausgekommen sind:

  • Dialog (das gesprochene Wort)
  • Cues (handlungsbestimmende Ereignisse)
  • Foleys (Bewegungsgeräusche)
  • Hintergrund (handlungsunabhängig)

Dementsprechend wurde das Audioprojekt in Nuendo aufgesetzt. Man muß sich das vorstellen wie ein sehr großes Mischpult mit theoretisch einer beliebigen Anzahl von Kanalzügen. Dort haben wir vier Untergruppen definiert, für die oben genannten Kategorien, in die dann die einzelnen Kanäle, je nach Zugehörigkeit, hineinlaufen. Jeder Einzelkanal enthält mein programmiertes Emitter-Plugin, das die Audiodaten um räumliche Informationen ergänzt.

Aufgrund des statischen Projektgerüsts von Nuendo mußte die Anzahl der Kanäle auf ein mögliches Maximum festgelegt werden, weil nachträgliche Änderungen in der Version 2.x ohne weiteres schlicht nicht möglich sind. Wegen dieser und anderer Einschränkungen, bin ich dann nach Folge 1 auf Reaper umgestiegen.

Ok, was also immer gut funktioniert hat, ist die Kategorisierung der Geräusche, die ich auch immer noch einhalte. Jedes neue Geräusch wird sofort klassifiziert, obwohl es manchmal Überschneidungen gibt, wenn Hintergrund- oder Bewegungsgeräusche plötzlich Cues sind. Inzwischen denke ich ganz automatisch in diesen Kategorien, wenn ich eine neue Szene bearbeite, die zunächst nichts außer den zusammengeschnittenen Dialogen enthält.

Kommen wir noch einmal zurück zu Szene 1.1, dem Anfang. Dies ist die Szene, in der die Hauptfigur, Kim, auf der Brücke der Dykstra, einem Transport-Raumschiff auf dem Weg zum Mars, vorgestellt wird. „Brücke“ bedeutete für mich: „viele kleine und größere Geräte, die irgendeine Art Piepsen oder ähnliche Geräusche von sich geben, um ihre Anwesenheit zu dokumentieren.“ Die ganze Konsole bestünde dann problemlos aus einer Vielzahl von Emittern. Dazu plante ich noch Lüftungsschächte und das Summen elektrischer Geräte als Geräuschquellen. Hinzu kamen nun noch Aktivitäten-Geräusche von drei Personen, die auf der Brücke verschiedene Tätigkeiten ausüben, und zwei Lautsprecher, aus denen die Stimme des Captain klingt. Daraus bestand im Wesentlichen die Szene 1.1.

Bis zu den Lüftungsschächten, sieben an der Zahl, hatte ich versucht, die Positionierung von Hand zu machen. Das bedeutete, die Lautstärke, abhängig von der Entfernung zum Mikrofon, von Hand zu berechnen, ebenso wie die Verteilung im Stereofeld, mit Option auf späteren Surround-Modus. Dann ahnte ich, daß ich so nicht weiterkam. An diesem Punkt entschloß ich mich zu dem Einsatz der 3D-Modellierung.

Bei einigen Themen war meine Recherche sehr umfassend, um nicht zu sagen „überflüssig“. Oj und ich hatten uns darüber unterhalten, wie denn die Dykstra eigentlich aussehen muß, da ja dort einige Szenen spielen, und wie ihre Brücke wohl aussehen sollte. All diese Informationen sind in die Skizzen eingeflossen, die Oj als Vorlage für die Blender-Modelle angefertigt hatte. Nach einiger Zeit, spätestens während der Arbeiten zu Folge 2, hatte ich mich so weit beruhigt, daß ich nur noch über die Dinge, die wirklich zu hören waren, nachdachte. Am Ende jedenfalls, nach etwa einem Jahr und drei Monaten, seit ihrer ersten Erstellung, war Szene 1.1 fertig und enthielt etwa 40 aktive Emitter. Sie ließ sich kaum noch in Echtzeit abspielen, so daß ich mir mit Offline-Mixdowns behelfen mußte, was die Bearbeitungszeit weiter erhöht hatte.

Inzwischen… also zuletzt, ja, kann ich sagen, daß der Wechsel von Nuendo auf Reaper das Projekt gerettet hatte. Es gab einige Aufgaben, die extrem viel Aufwand bedeuteten:

  • Atemgeräusche der Charaktere ergänzen
  • Bewegungsgeräusche, insbesondere Schritte, erzeugen
  • Maximierung der Lautstärken der Dialoge

In Folge 1 hatte ich das alles manuell eingefügt, auch einer der Gründe, warum Folge 1 ungefähr zwei Jahre lang nicht fertig wurde. Demgegenüber benötigte ich für Folge 2 „nur“ noch ein Jahr, was aber an der Umstellung auf Reaper lag.

Der Wechsel auf Reaper brachte wundervolle Möglichkeiten mit sich: Ich konnte nun per Skriptsprache, wie in Blender, einfach und komfortabel neue Funktionen und Plugins hinzufügen. Eigentlich war in Reaper alles besser als in Nuendo, aber die Skripting-Möglichkeit ist ein Highlight. Hiermit bin ich in der Lage, Atem- und Schrittgeräusche aufzunehmen, die jedes Mal, wenn ich die Erzeugung starte, neu oder anders klingen, weil fast alle Parameter durch Zufallsgeneratoren gesteuert werden. Zu den Parametern gehören Timing, Lautstärke, Tonhöhe, Klangfilter, und so weiter, und so weiter. Für die Realisierung brauchte ich allerdings sehr viel Vorbereitung, weil ich einen Sampleplayer mit den einzeln aufgenommenen Geräuschproben von Fußschritten auf verschiedenen Untergründen, Atemgeräuschen von verschiedenen Personen oder Kleidungsgeraschel jedweder Art bestücken mußte. Gesteuert wird der Player nun durch meine Skripte per MIDI und spielt die Klänge für den erforderlichen Emitter ab.

Was die Arbeit an einer Hörspielfolge in die Länge zieht, sind sehr viele kurze Szenen, da jede Szene komplett neu aufgebaut werden muß. Diese Vorbereitungszeit ist interessanterweise bei längeren Szenen nicht automatisch länger, so daß wenige lange Szenen zu einer relativ kurzen Produktionsphase führen können. Natürlich dauern Szenen, in denen viel Bewegung abgebildet ist, deutlich länger in der Bearbeitung, als wenn sich nur zwei Personen miteinander unterhalten, jedoch ist der Aufbau des „Set“ die größte Arbeit.
Die gesunde Mischung zwischen Actionszenen und Dialogen bestimmt die Qualität des Hörspiels bzw. der Erzählung, wobei manchmal ein paar gut gewählte Worte aussagekräftiger als eine Actionszene sein können. Wegen dieser Mischung läßt sich der Produktionsaufwand für eine Folge nicht beliebig optimieren sondern sollte sich so ungefähr bei zwischen drei und sechs Monaten einpegeln, ausgehend von der momentan dafür zur Verfügung stehenden Freizeit.

Puh! Tja, eine Sache läßt sich definitiv immer über den Aufbau einer neuen Szene sagen: Je besser die Planung, desto schneller kommt man zum Endergebnis. Aktuell dauert die Bearbeitung einer durchschnittlichen Szene von zwei Minuten Länge ungefähr eine Woche, wie gesagt: ausgehend von der aktuell zur Verfügung stehenden Freizeit.

Demnächst geht’s dann weiter mit dem Sounddesign – im fünften Teil.

Was genau passiert eigentlich, wenn ein Haufen Laien ein Hörspiel in sechs Teilen produziert? – Dritter Teil

2. Oktober 2013 · 19:00
von Jan

2008 hatte das Projekt begonnen, und 2010 gab es immer noch kein vernünftiges Konzept, wie die Bearbeitung vonstatten gehen sollte. Es gab aber viele einzelne Ideen meinerseits, die noch keine Einheit bildeten. Und eine davon war der zunächst wahnwitzig klingende Plan, in einem 3D-Editor alle Hörspielszenen nachzubauen und die Geräuschquellen als Emittoren in diesen Modellen zu verteilen. Ein virtuelles Mikrofon würde dann die Geräuschquellen aufnehmen, wie sie an einem bestimmten Punkt, nämlich an dem des Mikrofons, zu hören sind. Eigentlich ist das keine neuartige Technik, weil das in Computerspielen schon lange so implementiert ist, aber die Vorarbeit war für ein Hörspielprojekt schon immens.

Ein 3D-Editor war ziemlich schnell gefunden, nämlich Blender; die Funktionalitäten, die ich mir wünschte, mußten aber programmiert werden. Da gab es mehrere Baustellen: zum einen brauchte ich ein Skript in Blender, das die erforderlichen Zusatzfunktionen bereitstellte, zum anderen brauchte ich in der Mixing-Software, zunächst Nuendo, jetzt Reaper, ein Gegenstück, das die Audiodateien mit Hilfe der räumlichen Informationen aus Blender verarbeitete und den oben beschriebenen Effekt realisierte. Programmieren war nicht nur Teil meines Berufs sondern auch ein Hobby von mir, aber das Themengebiet war komplett neu. Daher brauchte ich ungefähr zwei Jahre, etwa bis Ende 2010, um eine Lösung zu erstellen, die so weit meinen Vorstellungen entsprach, daß ich wirklich mit ihr arbeiten konnte. In dem Moment war ich mein eigener Tester und Kritiker. Aber auch jetzt noch erweitere ich die Lösung um einige Features. Parallel zu dem Hörspielprojekt überarbeite ich diesen technischen Teil, zumindest in Gedanken, bereits für eine bessere Version, irgendwann in der Zukunft.

Nachdem ich meine „Kollegen“ (Don und Oj) in meine Überlegungen einbezogen hatte, erntete ich zunächst ungläubige Blicke gefolgt von der sinngemäßen Aussage: „Das glaube ich erst, wenn ich es sehe.“ Tatsächlich war es irgendwann soweit, daß ich in einer kleinen Demosession das Prinzip erläutern und demonstrieren konnte. Danach erklärte sich Don bereit, die Szenen, basierend auf Skizzen, die Oj bereitstellte, mit Blender in 3D-Objekte umzuwandeln. Obwohl er noch Restzweifel hatte, was die Detailtiefe anging, waren seine Ergebnisse ziemlich akurat und über meinen Erwartungen.

Zu Beginn hatten wir noch versucht, in diesem Stadium bereits die Animationen (bewegte Objekte) in die Szenen aufzunehmen. Dafür hatte Oj CUE-Listen erstellen müssen, die die Zeitpunkte von Geräuschereignissen enthielten und zusätzlich bewegte Geräusche benannten. Da sich herausstellte, daß dieses Vorgehen zu statisch war, verschoben wir die Erstellung der Animationen und Zeitpunkte der Geräusche auf eine spätere Arbeitsphase.

Der größte Teil der Kulissen wurde angefertigt, um ein Gefühl für die Proportionen von Gegenständen und Wegen zu bekommen. In einem meiner Konzepte steht auch, daß ich in einer späteren Ausbaustufe die schallreflektierenden Eigenschaften der Gegenstände abbilden wollte. Aber, abgesehen von der zugrundliegenden Mathematik, ist der Zeitwand für die Implementierung sehr hoch und würde den Fertigstellungstermin von Folge 6 zu sehr nach hinten verschieben. Dieses Feature wird dann erst dem nächsten Hörspiel zugutekommen.

Inzwischen existiert ein Konzept für die Szenenbearbeitung, wie wir sie im Rahmen dieses Projekts durchführen. Ich hatte es erstellt, weil wir mal hofften, wir könnten meine Aufgaben auf verschiedene Schultern verteilen, um die Arbeit zu beschleunigen. Da sich allerdings für die wenigsten der darin beschriebenen Arbeitsschritte eine gemeinsame Verständigungsbasis finden ließ, gelang es uns lediglich, die Dialogmaximierung an Oj auszulagern. Diese hat er für Folge 3 bis 6 bereits abgeschlossen, und die weiteren Arbeiten erfolgen weiterhin durch mich, so daß wir diesen Flaschenhals, nämlich mich, nie effektiv beheben konnten.

Weiter geht es im nächsten Teil mit der Entstehungsgeschichte zu Szene 1.1, und warum inzwischen die Bearbeitung einer etwa zweiminütigen Szene nur noch ungefähr eine Woche dauert.