Zurück

Kanal­ba­siertes vs. objekt­ba­siertes Audio­format

Die Welt des Audio­formats hat in den letzten Jahren einen bemer­kens­werten Wandel erlebt, insbe­sondere mit der Einführung von Techno­logien wie Dolby Atmos. In diesem Zusam­menhang taucht eine entschei­dende Frage auf: Kanal­ba­siertes vs. objekt­ba­siertes Audio­format. Im kanal­ba­sierten Format werden Audio­si­gnale vorde­fi­nierten Lautspre­chern zugeordnet, was unabhängig von der Wieder­ga­be­um­gebung zu einer festen Kanal­zu­weisung führt. Auf der anderen Seite ermög­licht das objekt­ba­sierte Audio­format eine flexi­blere und präzisere Steuerung der Klang­wie­dergabe, indem es Metadaten zur genauen Positio­nierung der Audio­si­gnale im Raum verwendet. In diesem Artikel werden wir einen genaueren Blick auf die Unter­schiede zwischen diesen beiden Ansätzen werfen und heraus­finden, wie sie die Art und Weise, wie wir Audio erleben, grund­legend verändern.

Heraus­for­de­rungen bei kanal­ba­sierten Audio­for­maten

Bei einem kanal­ba­sierten Format sind die Kanäle einer Audio­datei vorde­fi­nierten Lautspre­chern zugewiesen. Die zwei Audio­spuren einer Stereo­datei werden so zugeteilt, dass die erste Audiospur auf dem linken Lautspre­cher­kanal und die zweite Audiospur dem rechten Lautspre­cher­kanal liegt. Daran ändert sich nichts, egal, auf welchem Endgerät diese Datei abgespielt wird. Gleiches gilt auch für gängige Surround­formate wie 5.1 oder 7.1. Eine 5.1‑Audiodatei beinhaltet sechs Audio­spuren: L, R, C, LFE, Ls und Rs. Schon durch die Bezeichnung der einzelnen Spuren ist die Zuordnung zu den Lautspre­cher­ka­nälen definiert. Wird eine 5.1‑Datei auf einem System wieder­ge­geben, das nicht dieser Anordnung entspricht und beispiels­weise nur über eine Stereo­kon­fi­gu­ration mit linkem und rechtem Kanal verfügt, so sind lediglich der linke und rechte Kanal hörbar. Die Spuren C, LFE, Ls und Rs werden ignoriert und bleiben stumm.

Die Entwicklung von objekt­ba­sierten Audio­for­maten

Bereits vor der Einführung von Dolby Atmos gab es Audio­formate, wie das Format Auro-3D, die mit Lautspre­chern an der Decke das Gefühl erzeugten, umhüllt vom Klang zu sein. Diese waren jedoch kanal­ba­siert, sodass für jedes System eine passende Datei, mit der entspre­chenden Anzahl an Kanälen generiert werden musste.
Diese Art von fixierten Mehrka­nal­an­ord­nungen macht sich auch Dolby Atmos zunutze. Dort werden sie als Bed bezeichnet. Ein Bed ist dabei immer kanal­ba­siert und kann in belie­biger Konfi­gu­ration, aller­dings höchstens bis 7.1.2 auftreten.

Die folgende Grafik zeigt die Signal­ver­teilung in einem Kinosaal mit einem 5.1 Sound­system.

Signalverteilung 5.1 Kinosaal

Objekte und Metadaten für präzise Positio­nierung

Wie zu erkennen ist, werden die 18 Surround­laut­sprecher in zwei Hälften unter­teilt – in Left-Surround und Right-Surround. Beide Surround­si­gnale werden gleicher­massen über neun Lautsprecher wieder­ge­geben. Dies lässt eine konkrete Lokali­sierung einzelner Signale im Surround schwer zu. Um dies zu ermög­lichen, bietet Dolby Atmos neben den Beds auch sogenannte Objekte. Ein Objekt ist dabei ein Audio­kanal, der zusätzlich noch Metadaten in Form von X‑, Y- und
Z‑Koordinaten enthält, was eine exakte Positio­nierung im Raum möglich macht. Dadurch können Lautsprecher, die zuvor nur innerhalb eines Beds funktio­niert haben, einzeln angesteuert werden, was eine schärfere und genauere Lokali­sier­barkeit von Signalen ermög­licht.

Die Entscheidung, aus welchen Lautspre­chern ein Signal erklingt, wird erst am jewei­ligen Abspielort getroffen. Bis dahin sind alle Audio­kanäle und die entspre­chenden Metadaten in einem Container verpackt. Da es keine vorde­fi­nierte Zuordnung zu Lautspre­chern gibt, ist dieses Konzept beliebig skalierbar und ermög­licht die Wiedergabe auf unter­schied­lichen Systemen gleicher­massen.

System­ba­siertes Rendering

Um eine Dolby Atmos Datei abzuspielen, wird ein dazu fähiges Gerät benötigt, das die Lautspre­cher­kon­fi­gu­ration am jewei­ligen Ort kennt. Das Gerät, das die Dolby Atmos Datei dekodiert, wird von Dolby auch als Renderer bezeichnet. Es entpackt die Signale und platziert sie anhand ihrer Metadaten im Raum. Die vekto­rielle Richtung, aus der ein Klang abgebildet wird, ist dementspre­chend in jedem Raum gleich. Die physi­schen Lautsprecher, aus denen das Signal wieder­ge­geben wird, sind von der Lautspre­cher­kon­fi­gu­ration abhängig und unter­scheiden sich von Raum zu Raum. Die folgenden Abbil­dungen veran­schau­lichen den Unter­schied zwischen der Wiedergabe eines Signals in einem 5.1‑Bed und als Objekt. Wird das Signal in einem Bed platziert, wird es über das gesamte Lautsprecher-Array gleicher­massen wieder­ge­geben. Bei der Verwendung als Objekt erklingt das Signal hingegen nur aus einem Lautsprecher.

Signal­wie­dergabe in einem 5.1‑Array
Signalwiedergabe in einem 5.1‑Array
Signal­wie­dergabe als Objekt
Signalwiedergabe als Objekt
Jakob Schneider
Jakob Schneider
https://sonofloat.com