@marco-schöning Hey Marco! Ja, die haben es wirklich geschafft, die Anwendung extrem einfach zu machen. Musikalisch nicht ganz tückenfrei und zu einem guten Atmos-Mix muss auch etwas Erfahrung her, bis alles sitzt. Vor allem auch was die Übersetzbarkeit angeht. Trotz binauraler Abhörmöglichkeit ist ein professionelles Multi-Speaker-Setup für professionelle Mix-Ergebnisse natürlich elementar, jedoch ist es ein Riesenvorteil, bereits beim Schreiben, Komponieren und Produzieren mit kleinem Besteck auf 3D hin arbeiten und das Format gleich mit ins Studio nehmen zu können.
@marco-schöning sagte:
Mich interessiert immer was hinter dem binauralen Effekt steckt. Man hat ja den Eindruck, dass ein Objekt beispielsweise direkt neben einem steht. Anders als wenn ich einfach nach rechts panne. Ich habe noch nicht herausgefunden, wie die diesen Effekt realisiert haben. Da muss doch eine art EQ Hinterstecken, der Laufzeiten und Frequenzunterschiede von Ohr zu Ohr berechnet. Weiß da jemand wie Apple (Logic) das macht?
Genau. Man spricht bei diesem Effekt auch von Externalisierung. Während bei klassischem Stereo auf Kopfhörern die Stereomitte mitten im Kopf wahrgenommen wird, hat Binaural Audio das Ziel, neben der 3D-Lokalisation vor allem auch Umhüllung und die Empfindung einer kopf-externen Schallquelle zu erreichen. Mit einem normalen Panorama-Regler geht es sozusagen nur von Ohr bis Ohr (was dank fehlendem Übersprechen bei Hard Panning sehr unnatürliche Wirkungen auf Kopfhörern entfaltet).
Für Binauralisierung wird die Übertragungsfunktion eines Kopfes nachgebildet, die sogenannte HRTF ("head related transfer function"), also was Kopf, Ohren, Haare, Schultern, etc. mit einer Schallwelle anstellen, die aus einer bestimmten Richtung eintrifft. Natürlich funktioniert das nur mit starken Eingriffen in Frequenzgang (siehe z.B. auch "Blauertsche Bänder"), Phase und co. Technisch wird dazu fast immer mit sogenannten HRIRs, "head related impulse response" (bzw. BRIRs, "binaural room impulse response") gearbeitet. Im Grunde wie ein richtungsabhängiger Faltungshall. Keine Raketentechnik, aber natürlich gehobene Mathematik. Die Responses können virtuell berechnet oder aus einer realen Faltung und Laborbedingungen stammen (mit Probanden oder Kunstkopf).
Eine wichtige Sammlung von HRIRs und Infos findest du z.B. hier: https://www.sofaconventions.org/mediawiki/index.php/SOFA_(Spatially_Oriented_Format_for_Acoustics)
Die Externalisierung ist zwar ein erklärtes (und sinniges) Ziel der Binauralität, aber genau hierin sehe/höre ich in der Praxis auch einen großen Nachteil beim Musik-Genuss. Gerade low-end-/groove-basierte Musik lebt ja häufig von druckvollen "in your face"-Bässen und einer surreal-internalisierten Lokalisation. Dolby Atmos (ähnlich wie übrigens auch MPEG-H) bietet beim Authoring zwar die Möglichkeit, die Binauralisierung des Renderers bis zu einem gewissen Grad zu steuern und einzelne Objekte von der Binauralisierung auszuschließen, leider wird jedoch auf Apple-Geräten nach wie vor auf die Umsetzung dieser Information verzichtet und stattdessen ein virtuelles Lautsprechersetup binauralisiert. Wer also über sein Apple-Device auf Kopfhörern immersive Musik genießen möchte, erlebt enttäuschenderweise auch Externalisierung auf den Signalen, die vom Mixing Engineer absichtlich von der Binauralisierung ausgeschlossen wurden. Blöd für alle Content Creator und eine starke Einschränkung für die kreative Entfaltung. Auf Multi-Speaker-Setups ist dann zwar wieder alles cool, aber das hat ja kaum jemand im Wohnzimmer. (Von den leider apple-typischen standardisierten Klangbildeingriffen auf den Endgeräten fange ich jetzt mal lieber nicht an, solche "Auto-Bessermacher" sind für Mastering Engineers natürlich sowieso ein riesiger Dorn im Ohr...)