Studiosofa - Der Sound&Recording-Podcast

Auf unserem Studiosofa sprechen Marc Bohn und Klaus Baetz wöchentlich mit Profis aus der Studioszene über: ????️Recording ????️ Mixing ???? Mastering ???? Songwriting ⚙️ Recording-Gear ???? News der Audio-Branche Jetzt reinhören ➡️ https://spoti.fi/2F8weat

https://www.soundandrecording.de

subscribe
share






episode 4: #04 - How-to: Sprachaufnahme für Podcast-Produktionen


Equipment, Recording, Editing, Mixing

Podcasts gibt es bereits seit über 15 Jahren. Aktuell feiert das Medienformat eine Art Renaissance bzw. erlebt seinen zweiten Frühling – oder sagen wir: den ersten! Denn so wirklich angekommen sind Podcasts nie … bis jetzt. Das hat wohl viele Gründe: weniger lesen, weniger Bildschirm-Starren, mehr berieseln lassen. Gedankenreisen! Ich persönlich bin auch gerade erst auf den Trichter gekommen und höre Podcasts zu den Themen Abenteuerreisen, Eishockey, Whisky und natürlich auch Musikproduktion. Da mich natürlich interessiert, wie die Podcaster ihre Folgen produzieren, bin ich der Sache mal auf den Grund gegangen.

Die Produktion von Podcasts

So entsteht der Sound&Recording-Podcast Ich hatte es mir natürlich nicht nehmen lassen, endlich die Idee von einem eigenen SOUND&RECORDING-Podcast umzusetzen. Doch bevor man überhaupt den ersten Satz aufnimmt, stellt sich die Frage nach dem Konzept, um die Technik dementsprechend anpassen zu können: Wird es ein Monolog, oder gibt es Gäste, mit denen man über ein Thema spricht oder die man interviewt? Wenn ja, wie viele Gäste gibt es mindestens oder maximal? Findet die Aufnahme immer im gleichen Raum statt, oder möchte man auch mal flexibel von unterwegs mit dem Smartphone aufnehmen? Dann stellt sich natürlich die Frage: Brauche ich ein Tischmikrofon oder ein Handmikrofon, eher ein dynamisches oder vielleicht ein Kondensator-Mikrofon mit Großmembran? Oder doch vielleicht Lavaliers? Im Grunde gibt das Podcast-Konzept vor, was gebraucht wird! Wir haben uns umgeschaut, und für verschiedene Varianten Lösungen rausgesucht, um in der Landschaft der Podcast-Mikrofone einen Überblick zu bekommen und gehen darauf ein, was bei der Aufnahme und der Nachbearbeitung von Sprachaufnahmen generell beachtet werden sollte.

DIREKT IM OHR ODER PLATZ FÜR RAUM? Lauscht man den gängigen Podcasts in seiner Playlist, klaffen die Klangunterschiede weit auseinander. Die einen sind produziert wie eine professionelle Radiosendung, weil vielleicht sogar ein bekannter US-Sportsender dahintersteht, manche hören sich an, als wäre das Gespräch mit fünf Personen in einer Kneipe mit Hintergrundmusik, bei reichlich Bier und über lediglich ein Mikrofon aufgenommen worden. Hört sich nicht nur so an, ist auch so! Natürlich sollte man sich vorher Gedanken machen, wie man klingen möchte und wie hoch der eigene Qualitätsanspruch ist. Um nach Radio zu klingen, solltet ihr den Nahbesprechungseffekt nutzen, um den Bassanteil in der Stimme anzuheben und so dem Hörer das Gefühl zu geben, man sei direkt „im Ohr“. Dabei sollte jeder Gesprächspartner ein Großmembran-Kondensatormikrofon vor der Nase stehen haben, am besten mit Pop-Schutz und einem Abstand zwischen 5 und 10 cm zur Membran. Ich persönlich mag diesen Effekt sehr gerne, platziere den Popschutz deshalb ca. 5 cm vor der Membran und versuche, so nah wie möglich in den Pop-Schutz zu sprechen. Kopfhörer natürlich voll aufgedreht – Sänger-Krankheit. Aber Achtung: Auf Übersprechen achten. Bei meinem halboffenen Beyerdynamic DT 990 Pro nicht gerade ideal, aber kenne ihn sehr gut, von ihm kann da schon mal was mit auf die Aufnahme kommen. Wenn ihr euch die Arbeit in der Nachbearbeitung erleichtern wollt, solltet ihr unbedingt mit geschlossenem Kopfhörer arbeiten. Bei unseren Podcast-Aufnahmen nutze ich USB-Mikrofone, die ich an meinem MacBook anschließe. Häufig kommen dabei das Beyerdynamic FOX und das Apogee Hype Mic zum Einsatz. Beide sind Großmembran-Kondensatormikrofone, die ich unter den Audio- & MIDI-Einstellungen auf meinem MacBook als Hauptgerät einrichte, die Ein- und Ausgänge benenne, damit ich im I/O-Setting meiner DAW nicht durcheinanderkomme, und schon kann ich die beiden Mikros als In- und Outputs verwenden. Beide sind nämlich auch Interface und haben zusätzlich einen eigenen Kopfhörerausgang. In meiner DAW muss ich jetzt nur noch dieses Konstrukt als Interface angeben, und los geht’s. Achtung: Jedes Mikrofon muss an einen eigenen USB-Port angeschlossen werden, mehrere Mikrofone über einen Adapter verbunden, funktioniert leider nicht. Mein MacBook Pro stammt aus 2017. Deshalb habe ich lediglich vier Ports mit jeweils Thunderbolt- bzw. USB-C-Anschluss. Bei zwei USB-Mikrofonen bräuchte ich also zwei Adapter. Deshalb nutze ich gerne das Apogee Hype Mic, da im Lieferumfang neben USB-A und Lightning- auch ein USB-C-Kabel dabei ist. Der Adaptierwahn hat ein Ende! Wenn ihr eher einen etwas räumlicheren Sound haben und weniger nach Radio klingen möchtet, könnt ihr das Mikrofon auch in einem Abstand zwischen 20 und 40 cm vor euch auf den Tisch stellen. Bei vielen USB- oder Lightning-Mikrofone wird ein Tischstativ mitgeliefert. Ich rate euch, jedem Gesprächsteilnehmer ein Mikrofon hinzustellen, statt dass sich mehrere Sprecher ein Mikrofon teilen. Letzteres kann mal eine Notfall-Lösung sein, macht allerdings die Nachbearbeitung aufgrund des Übersprechens und der unterschiedlichen Lautstärke sehr schwierig bzw. zeitintensiv und lässt die Qualität stark leiden. Egal ob Nahbesprechung oder eine Aufnahme mit mehr Raum, der Abstand zum Mikrofon sollte in einem gewissen Maße eingehalten werden, um den Pegel so konstant wie nur möglich zu halten, was bei einem dynamischen Instrument wie der Stimme sowieso schon schwierig genug ist. Hintergrundgeräusche sind zu beachten. Auch wenn man in vielen Podcasts zwischendurch mal einen Hund bellen hört, die Bedienung nach der nächsten Bestellung fragt oder ACDC im Hintergrund laufen – was durchaus Atmosphäre schafft –, sollte man sie so gering wie möglich halten. Vor allem bei ACDC kann nach der Veröffentlichung auch mal die GEMA vor der Tür stehen.

AKUSTIK

Nein, ihr müsst jetzt nicht eure Küche akustisch optimieren, um dort „Omis-Koch-Podcast“ zu produzieren. Es reicht, wenn man darauf achtet, dass man nicht im verhallten Umfeld 3 Meter vom Mikrofon weg steht, sondern dann möglichst nah ins Mikrofon reinspricht. Dort eignen sich beispielsweise Ansteckmikrofone sehr gut, da man zum Kochen ja auch die Hände braucht. Für manche Umgebungen machen allerdings Reflexion-Filter Sinn. Die platziert man einfach hinter dem Mikrofon, wenn Platz da ist, um die Akustik des vielleicht nicht ganz so optimalen Raums, so gut es geht, auszublenden. Auch mit der Richtcharakteristik der Mikrofone kann man arbeiten. So lässt sich beispielsweise mit einer Niere der rückwärtige Schall ausblenden.

ICH HÖRE STIMMEN! Bei der Aufnahme vermeide ich es, die Kompression direkt mit aufzunehmen. Das Apogee Hype Mic verfügt beispielsweise neben dem neutralen Modus ohne Kompression über drei Kompressor-Einstellungen: leicht, mittel und stark. Bei einer unserer ersten Podcast-Aufnahmen haben wir die Presets durchgesteppt und sind bei „stark“ hängengeblieben. „Boah, klingt das fett!“ War auch so! Allerdings haben wir damit den Raumanteil stark angehoben, und die Stimme des Gesprächspartners, der im gleichen Raum saß, war mehr als deutlich auf dem gleichen Signal zu hören. Was dazu führt, dass die beiden eigentlich getrennten Signale in der Lautstärke schwieriger regelbar sind, weil man den anderen immer über dasselbe Mikrofon mithört. Darauf sollte bei einer Aufnahme mit Kompression geachtet werden. Vielleicht versuchen wir es beim nächsten Mal mit „leicht“! Die Aufnahme erfolgt bei unserem Podcast mit 16 Bit und einer Sampling-Rate von 44,1 kHz. Beim Pegeln achte ich darauf, dass die Peaks zwischen –9 und –6 dB liegen. Am besten bittet ihr den Sprecher, beim Soundcheck laut und deutlich zu reden, um für mögliche Spitzen genügend Headroom zu haben. Kleiner Rat: Macht sicherheitshalber eine Testaufnahme von 30 Sekunden und kontrolliert, ob auch wirklich alles aufgenommen wird. Und auch wenn ihr im gleichen Raum seid, klatscht zu Beginn der Aufnahme kurz in die Hände oder einem Anwesenden ins Gesicht, um in der DAW einen visuellen Bezugspunkt zu schaffen, an dem man eventuelle Latenzen durch Anpassen des Peaks auf beiden Audiospuren ausgleichen kann. SPRACHE MUSS SEIN! Da ich mittlerweile ein paar Podcasts produziert habe, kann ich euch sagen, dass es zeitintensiv ist, laute Schmatzer, Atmer, Ähms und sonstige Körpergeräusche rauszuschneiden. Deshalb am besten auf Schmatzer und Atmer ins Mikro achten und wenn möglich vermeiden. Man kann auch, während der andere gerade spricht, seitlich am Mikrofon vorbei atmen statt direkt auf die Membran zu. Ähms sind so eine Sache; natürlich soll die Aufnahme auch authentisch bleiben, deshalb gehören Ähms dazu, und man sollte nur selektiert im Nachgang diese akustischen Indikatoren dafür, dass das Gehirn gerade arbeitet, rausschneiden. Pausen und Wartezeiten, während der Apparat läuft, können auch verkürzt und rausgeschnitten werden. „Moment, da muss ich mal ganz kurz überlegen …“ Wenn man es schafft, diese Pausen mit einer guten Moderation zu überbrücken, alles cool! Oft passiert in dieser Zeit allerdings nicht viel, und der Hörer fragt sich: „Ist der eingeschlafen?“ Und der Podcast-Host freut sich, da man nur ein gewisses Volumen an Upload-Minuten in seinem Account pro Monat besitzt. Da muss man einfach ein gesundes Mittelmaß finden. Allerdings wirkt es auch unnatürlich, wenn gerade eine Frage gestellt wurde und der Gegenüber ohne zu überlegen wie aus der Pistole geschossen antwortet. Man sollte es mit dem Verkürzen also auch nicht übertreiben. Ein gesundes Mittelmaß ist hier, wie überall, eine gute Lösung. Dann gibt’s ja mal Versprecher, die auch zum Charme der Veranstaltung beitragen und über die hin und wieder auch mal gelacht wird. Sehr wichtig! Manchmal verzettelt man sich allerdings und verliert sich in einem Wortgewirr, sodass es etwas dauert, bis man den Knoten entwirren kann. Hat man den Faden wiedergefunden, ist es am einfachsten, man beginnt den Satz, sofern man sich noch daran erinnert, einfach wieder von vorne. Das macht es beim Editieren einfacher, da man lediglich den Zwischenteil rausschneiden muss. Langsam und deutlich reden ist genauso wichtig wie die eigentliche Selbstverständlichkeit, den anderen ausreden zu lassen und ihm nicht ins Wort zu fallen. Natürlich wird auch mal heiß diskutiert, es entstehen Wortgefechte, die einen Sieger brauchen. Das Reingrätschen stört allerdings oft den Fluss eines Gesprächs. Deshalb immer schön ausreden lassen, vielleicht einen kleinen Moment warten und dann erst reagieren. Es macht auch Sinn, genau zu zuhören, was der andere sagt und sich Notizen zu machen, um Anschlussfragen später stellen zu können. Das hat sich bei mir durchgesetzt! Ich klicke dann vor der Membran die Miene aus dem Kuli, setzte mit der Spitze monumental auf meinem Blatt Papier auf, dass dabei noch raschelt … Hat alles seinen Charme! EDITING LÄUFT SYNCHRON! Zuerst editiere ich redaktionell, d. h., ich schneide Versprecher, Pausen, auffällige Schmatzer und Ähms raus. Dabei schneide ich im 0-Durchgang der Sinuswelle, da sonst Knackser entstehen können. Innerhalb von Wörtern lässt sich am besten vor plosiven Lauten wie beispielsweise P oder K schneiden. Bevor ich jedoch mit dem Schneiden beginne, lege ich Edit-Gruppen an und füge alle Spuren hinzu, die ich aufgenommen habe. Dadurch bearbeite ich alle Spuren simultan an der gleichen Stelle, egal ob ich schneide, einfüge oder die Länge der Audioblöcke anpasse – Es passiert auf allen Spuren synchron. Außerdem wechsle ich in Pro Tools in den Shuffle-Mode. Auch in der kostenlosen DAW Audacity steht diese Funktion zur Verfügung – einfach auf die Stoppuhr im Werkzeug-Bereich klicken. Diese Möglichkeit gibt es in anderen DAWs auch! Der Shuffle-Mode ist ein sehr wichtiges Feature, mit dem man von Beginn an bei der Sprachaufnahme arbeiten sollte, auch bei nur einer Spur, weil, wenn man beispielsweise etwas rausschneidet, einfügt oder die Länge verändert, das nachfolgende Audiomaterial automatisch nachgerückt wird. Es entstehen also keine Lücken und man muss nichts von Hand hin und her schieben. Dann müssen lediglich Fades bzw. Cross-Fades nach jedem Schnitt gesetzt werden, und das war´s! Ganz wichtig ist allerdings auch das Arbeiten in den bereits angesprochenen Edit-Gruppen, um wirklich in allen Spuren gleichzeitig zu schneiden. Sonst läuft man Gefahr, die Synchronität der Spuren zu verlieren. Das hört man spätestens dann, wenn der eine schon antwortet, obwohl der andere noch gar nicht die Frage gestellt hat. Übersprechen durch Kopfhörer sind hier zum Beispiel hilfreich! Falls sie auffallen, weiß man, dass irgendwas nicht stimmt. Am besten drückt man dann so lange Undo, bis alles wieder übereinander läuft. Dann ist vielleicht viel Arbeit dahin, allerdings spart man sich das mühselige Anpassen per Hand und Gehör, um den Ursprungszustand wiederherzustellen. Wurde bei Aufnahme der Abstand zum Mikrofon mal nicht eingehalten, automatisiere ich die Lautstärke an wirklich extrem schwankenden Stellen auch gerne mal nach. Viele beginnen mit dem Sprechen und bewegen sich währenddessen erst zum Mikrofon hin. Dem kann man durch Automation der Lautstärke etwas entgegenwirken. Aus diesem Grund und dem Fakt, dass viele einen nicht aussprechen lassen, ist es von Vorteil, nur ein Handmikrofon zu nutzen, was jeder dann bekommt, wenn er dran ist. Dann weiß jeder, dass er jetzt erst reden darf. Etwas Sarkasmus …

FEINTUNING Sobald der grobe Schnitt stimmt, verlasse ich den Shuffle-Mode sowie die Gruppenbearbeitung und mache mich an Details. Hier scheiden sich die Geister, und man muss wirklich für sich selbst entscheiden, wie professionell man es haben will. Ich schneide tatsächlich alle Sprechpausen raus und die Audiospuren frei. D. h., wenn einer redet, schneide ich in diesem Teil die Audiospur des anderen heraus; „Mhms“, Zwischenfragen und zum Gespräch dazugehörige Laute werden drin gelassen. Danach setze ich an allen Audioblöcken jeweils einen Fade-In und einen Fade-Out. Diese Vorgehensweise ist zwar mit einem höheren Zeitaufwand verbunden, ist aber mein Qualitätsanspruch an unseren Podcast. Danach wird konsolidiert, damit alle Schnipsel wieder in einem Block sind, fertig! Natürlich kann man solche Sachen auch über ein Noisegate regeln. Allerdings nervt mich diese ständige Fummelei, um eine Einstellung zu finden, die für die gesamte Sprachaufnahme passt. Dann mache ich es lieber pragmatisch. Wichtig ist beim Schneiden: digitale Stille vermeiden! Das heißt, es sollte immer mindestens eine aufgenommene Spur laufen. Fehlt irgendwo ein Stück, lässt sich, um die Stille zu überbrücken, einfach ein Bereich mit Stille aus der gleichen Spur kopieren und einfügen. Fades setzen, läuft! Bejahende „Mhms“ oder „Ahas“, die dem Sprechenden signalisieren, dass man noch zuhört, können auch zu laut sein. Deren Lautstärke passe ich dann per Automation an. Rausschneiden funktioniert leider nicht, da man sie meistens durch Übersprechen auch über das Mikrofon des Redenden hört. Deshalb fällt es auch auf, wenn sie fehlen. Sie gehören aber auch zum Gespräch dazu. Wenn es wirklich Hintergrund- oder Störgeräusche gibt, die mich extrem stören, packe ich natürlich auch gerne mal iZotope RX aus. Das ist einfach ein herausragendes Tool, um unerwünschte Sounds zu eliminieren.

AUDIOPHILE Das EQing ist natürlich stark Abhängig vom Klang des Mikrofons, der Stimme selbst und vom eigenen Geschmack. Hier gibt es kein pauschales Setting, allerdings ein paar Orientierungshilfen: Grundsätzlich lässt sich sagen, dass man bei einer zu harten Stimme im Bereich 2,5 bis 4 kHz absenken kann. Wenn man im Nachhinein merkt, dass der Sprecher vielleicht doch zu nah am Mikrofon war und das Ganze etwas Luft braucht, kann man mit einem leichten Boost bei 6 kHz experimentieren, um dem Ganzen etwas Freiraum zu schaffen. Viele setzen den Low-Cut schon bei 60 Hz. Klingt mir das immer noch zu bassig, dann gehe ich auch gerne mal auf 80 Hz. Wenn mir allerdings etwas Wärme fehlt, hebe ich noch bei den tiefen Mitten um 200 Hz an. Da meine Stimme etwas nasal klingt, bearbeite ich sie auch gerne bei ca. 800 Hz, damit bekommt man die Sache etwas in den Griff. Was mich beim Podcast-Lauschen am meisten stört, sind laute Zisch- und S-Laute. Deshalb ist der De-Esser mein Freund und Helfer, der, wenn die Frequenzbänder zwischen 7 und 11 kHz zu laut werden, diese etwas herunterfährt und die Sache für den Zuhörer angenehmer macht. Kleiner Tipp: Bei Sprechern mit starken Zischlauten reicht es oft, wenn man bereits bei der Aufnahme die Membran des Mikrofons etwas nach links oder rechts anwinkelt, um sowohl S-Laute als auch Schmatzgeräusche abzudämpfen. Ich bin ein Fan von Kompression! Ich gebe da bei den Peaks auch gerne mal 5 dB Gain-Reduction rein. Bei Gesang kann man auch mal 15 dB geben, der muss sich im Mix aber auch gegen die Instrumente durchsetzen. Der Kompressor sollte natürlich nicht Pumpen. Man muss allerdings beachten, dass dadurch natürlich auch Hintergrundgeräusche angehoben werden. Plötzlich hört man dann nämlich doch die durchgängigen subtilen Geräusche der Klimaanlage. Deshalb sollte man vorsichtig damit umgehen und mal bei 2 bis 3 dB Gain-Reduction anfangen und sich langsam nach oben durchhören. Ich nutze eine kurze Attack-Zeit (30 ms). Die Release-Zeit kann etwas länger eingestellt werden (150 ms), um Atmer und Störgeräusche nicht anzuheben. Bei der Ratio bleibe ich meistens zwischen 2:1 und 4:1. Noch was: den Kompressor stummschalten und an die Lautstärke des unkomprimierten Signals anpassen. Ansonsten ist die komprimierte Variante einfach lauter und klingt deshalb besser.

DAS GROßE FINALE Zum Schluss passe ich die Lautstärkeverhältnisse der einzelnen Spuren aneinander an. Um dem Ganzen den letzten Feinschliff zu verleihen, lade ich mir einen EQ, einen Kompressor und einen Limiter auf meinen Master-Bus. Mit dem EQ versuche ich, dem Ganzen den klanglichen Feinschliff zu verleihen, und hebe oft nur noch die Höhen etwas an, setze nochmal einen High-Pass bei 60 bis 80 Hz, hebe um 200 Hz an und booste bei 2,4 bis 4 kHz erneut. Im Prinzip sind das die gleichen Einstellungen, die ich auf jeder einzelnen Spur vornehmen. Dennoch habe ich das Gefühl, dass dadurch klanglich nochmal mehr eins daraus wird. Dazu trägt natürlich auch der Kompressor bei, den ich wirklich nur subtil wirken lasse und mit maximal 2 bis 3 dB Gain-Reduction fahre. Und unbedingt auf In-Ear-Kopfhörern gegenhören. Podcasts werden überwiegend unterwegs vom Smartphone gehört, deshalb macht es Sinn, den Sound damit nochmal zu verifizieren. Zum Schluss kommt der Limiter, den ich auf IRC III Balanced stelle, bei –0,1 dB limitiere und maximal 2 dB von den Peaks wegnehme. Lautheit spielt bei Podcasts eine geringere Rolle, da die Kodierungsverfahren und Algorithmen der unterschiedlichen Plattformen sowieso nochmal an dieser Stelle anpassen und verändern. Außerdem steht im Podcast die Sprache im Mittelpunkt. Die darf auch dynamisch sein. Es gibt eben vielleicht emotionalere Passagen, die entweder laut oder leiser sind, je nach Stimmung. Das ist auch das Schöne am Podcast: Der Charakter der Personen kommt zum Vorschein. Nach dem Bouncen schneide ich nur noch die bereits „gemasterten“ Teile wie Intro, Sweeps, Zwischenmusik und Outro rein. Und ab geht’s auf die Ohren!

**CLASSIC VS. EINFACH UND SCHNELL! ** Es gibt die Broadcast-Klassiker ElektroVoice RE20 und Shure SM7B oder die bei Sprachaufnahmen oft verwendeten AKG C414, Microtech Gefell UMT71, Brauner VM1, Sennheiser MKH416 – oder die Mutter aller Sprechermikrofone: das Neumann U87. Die Liste ist schier unendlich. Für unseren Podcast-Mikrofon-Vergleich haben wir uns allerdings USB- bzw. Lightning-Mikrofone angeschaut, die in Sachen Flexibilität und Mobilität auftrumpfen, da man im Prinzip nur noch zusätzlich einen Rechner mit einer DAW oder ein Smartphone bzw. Tablet mit passender App haben muss. Und schon kann es losgehen, mit der Produktion einer Radiosendung on demand! Den Vergleichstest mit Klangbeispielen findet ihr unter  www.soundandrecording.de/klangvergleich.  [9116]


fyyd: Podcast Search Engine
share








 June 4, 2019  1h26m