Wenn du an einer Videoproduktion arbeitest oder Ton aufnimmst, bekommst du eine ganze Reihe von Begriffen aus dem Audiobereich zu hören. MP3 und WAV lassen sich leicht erklären, aber Begriffe wie 16 oder 24 Bit, 44,1 oder 48 kHz? Um dir die Auswahl zu erleichtern, hat unser Chief of Sound eine übersichtliche kleine Übersicht zusammengestellt. Lass mal hören, Gijs!
16 Bit vs. 24 Bit
Wenn du einer Videodatei Audio hinzufügst, musst du entscheiden, wie viele Bits sie haben soll. “Bit” sagt etwas über den Unterschied zwischen dem lautesten und dem leisesten Ton aus. Der leiseste Ton ist oft das weiße Rauschen, das das Aufnahmegerät selbst erzeugt, das so genannte “Raumrauschen”. Wenn du dich für 24-Bit-Audio entscheidest, hast du einen größeren Dynamikbereich als bei 16 Bit und weniger Probleme mit Raumgeräuschen. Zudem hat man mehr Spielraum, bevor das Audiosignal anfängt zu clippen. Dies ist der Hauptgrund dafür, dass im Vergleich zwischen 16-Bit- und 24-Bit-Audio 24 Bit empfehlenswert ist. So ist die Wahrscheinlichkeit geringer, dass sich Ihre Aufnahme verzerrt.
Jetzt höre ich dich schon denken: 24-Bit-Audio? 16-Bit-Audio? Ist das wichtig für die Tonproduktion oder wenn ich mein Video auf YouTube stellen will? Und wird es dadurch beeinträchtigt werden? Einen Moment, darauf komme ich in den nächsten Absätzen zurück.
44,1 kHz, 48 kHz oder 96 kHz?
Ein weiterer Aspekt der Audioproduktion, der ziemlich vage ist. Zahlen wie 44,1 khz geben an, wie oft die Schallwelle pro Sekunde registriert wird. Immer noch zu vage? Es ist vergleichbar mit dem Film: Bei einem Film können beispielsweise 24 Einzelbilder (Frames) pro Sekunde aufgenommen werden. Zeigt man all diese Einzelbilder nacheinander, in schneller Folge, werden die Bilder lebendig. Je mehr Bilder pro Sekunde gezeigt werden, desto flüssiger wird das Video.
Bei der Arbeit mit digitalem Ton funktioniert es genauso. An bestimmten Punkten wird die Tonwelle abgespielt. Nur, dass man in diesem Fall von einer Samplefrequenz spricht. Und bei Audio geschieht das etwas häufiger als bei Video, zum Beispiel 48.000 Mal pro Sekunde, oder 48kHZ.
Für Radio und Fernsehen verwenden wir normalerweise 48 kHz. Und warum? Nun, das ist einfach etwas, das vor langer Zeit beschlossen wurde, als die Audioproduktion begann. Mehr gibt es eigentlich nicht zu sagen. Wie sieht es mit Audio für Online-Produktionen aus? Hier gibt es keine festen und schnellen Regeln. Mein Rat wäre, für Online-Audio oder YouTube-Videos zu tun, was immer du willst, aber geh nie unter 44,1 kHz. Bei niedrigeren Werten hört man einen deutlichen Unterschied in der Audioqualität.
Stereo vs. Mono?
Ein Kinderspiel, könnte man meinen. Trotzdem bekomme ich immer wieder Fragen zu diesem Thema. Was ist Mono-Audio? Im Allgemeinen bedeutet Mono, dass der Ton mit nur einem Mikrofon aufgenommen wird. Das gilt zum Beispiel für Sprachaufnahmen, E-Gitarren und die meisten Soundeffekte. Das ist also Mono. Was ist Stereo-Audio? Wir holen mehr Mikrofone aus dem Schrank, wenn Schlagzeug, Flügel oder ganze Orchester im Spiel sind. Dann ist Stereo ein echter Gewinn für das Erlebnis, weil man von beiden Seiten einen anderen Klang erhält.
Was ist der Unterschied zwischen Mono und Stereo? Einfach ausgedrückt: Wenn man auf dem linken Kanal etwas hört und auf dem rechten etwas anderes. Aber nur weil man etwas als Stereo speichert, heißt das nicht, dass es auch sofort den Stereoklang hat.
Konzertaufführungen auf YouTube werden oft auf diese Weise hinzugefügt. Jemand hat vergessen, den linken Kanal nach links und den rechten nach rechts zu schwenken. Beide Lautsprecher erzeugen den gleichen Klang: Das Ergebnis ist ein Mono-Sound.
Man kann jedoch Mono-Audio einen “Stereo-Effekt” verleihen. Angenommen, du hast eine Mono-Sprachaufnahme. Kopiere sie auf eine zweite Spur und stelle das Panning der einen Spur links und der anderen rechts ein. Es wird immer noch mono klingen, weil es keinen Unterschied zwischen links und rechts gibt. Wenn du nun aber eine der Spuren um ein paar Millisekunden nach oben verschiebst, gibt es plötzlich einen deutlichen Unterschied – die Stimme klingt räumlicher. Praktisch, wenn du einer bestimmten Zeile ein anderes Gefühl geben willst.
Die vier gebräuchlichsten Audioformate (WAV, AIFF, MP3 und ACC)
Audio kann in verschiedenen Formaten gespeichert werden, so wie man auch Text als .doc oder als .txt speichern kann. Die vier gebräuchlichsten:
WAV vs. AIFF
WAV wurde 1991 von Microsoft und IBM als Standard eingeführt. AIFF (auch als AIF bekannt) ist eine konkurrierende Version von WAV und wurde von Apple 3 Jahre früher eingeführt. WAV und AIFF lassen sich auf allen Geräten abspielen, egal ob du ein iPhone, einen Windows-Computer oder einen Mac hast.
Was beide Formate so nützlich macht, ist, dass sie “roh” sind. Es wurden keine Informationen aus den Audiodaten herausgefiltert. Und das ist genau das, was wir wollen, wenn wir in hoher Qualität arbeiten. Es ist daher nicht verwunderlich, dass beide Formate professionell genutzt werden und aufgrund der vielen Informationen viel Platz benötigen.
MP3 vs. AAC
MP3 wurde 1993 von Professor Karlheinz Brandenburg und Kollegen eingeführt. Um den Platzbedarf von MP3-Dateien zu verringern, wurden Informationen aus dem Ton entfernt, die für uns kaum hörbar sind. Durch diese Datenreduzierung wurde die Datei kleiner, was im Internet ein großer Vorteil ist und zum Beispiel bedeutet, dass du mehr Lieder auf deinem Handy speichern kannst. Natürlich büßt man dabei ein wenig von der Klangqualität ein.
Vier Jahre später, im Jahr 1997, wurde AAC entwickelt. Mit den richtigen Einstellungen klingt AAC ein wenig besser als MP3. Doch trotz der etwas schlechteren Qualität wurde MP3 weitaus bekannter. AAC und MP3 sind aufgrund der Datenreduzierung für den professionellen Einsatz nicht zu empfehlen.
Warum gibt es eigentlich so viele verschiedene Standards? Mehr dazu findest du in diesem Blog.
Welches Format sollte ich also wählen?
Das hängt ganz davon ab, was du mit den Audiodaten machen willst. Willst du so viel Musik wie möglich auf dein iPhone laden? Dann solltest du dich für MP3 entscheiden, weil es nicht viel Platz braucht. Nimmst du Audio für eine Videoproduktion auf? In diesem Fall würde ich 24 Bit/48 kHz, WAV oder AIFF wählen.
… und für YouTube?
Kommen wir noch einmal kurz auf YouTube zurück. YouTube möchte Videos (und damit auch Audio) so einfach wie möglich durch Ihr Internetkabel pumpen. Also wird auch hier die Datenreduzierung eingesetzt. Lohnt es sich also, Dateien in höchster Qualität zu speichern und dabei Dinge wie 16 oder 24 Bit und 44,1 oder 48 kHz zu berücksichtigen?
Ja, auf jeden Fall! Wenn du ein Video mit einer minderwertigen Audioquelle (MP3) exportiert und es auf YouTube hochlädst, wird der Ton schlechter klingen, als wenn du mit einer höherwertigen Version arbeitest. YouTube verschlechtert nämlich auch die Audioqualität, denn in diesem Fall wurde Ihr Audio im Wesentlichen zweimal bearbeitet (zuerst für die MP3 und danach von YouTube). Dadurch gehen mehr Informationen verloren, was zu einem hörbaren Qualitätsverlust führen kann. Sorge also dafür, dass die Quelldatei von höchstmöglicher Qualität ist und dein Projekt nicht zweimal beeinträchtigt wird.