— — —   DER SCHNITT IST OFFLINE   — — —

Untertitel

#21 ¦ 01.2001

Mit Beiträgen von Chris Wahl, Henrik Gottlieb, Helene Reid, Alan Wildblood und einem Gespräch mit Thomas Elsaesser.

Die Untertitelung – eine Einführung

Von Chris Wahl Seit dem Aufkommen einer Mode namens Strukturalismus in den 6oer Jahren wurde viel darüber nachgedacht, welche semiotischen Zusammenhänge es in einem Filmbild gibt. Aufgrund der Herkunft aller semiotischen Theorien aus der Linguistik ging es lange vor allem darum, eine allgemeine Filmsprache zu finden oder beweisen zu können. Der Vergleich von audiovisuellen Produkten mit Sprachen hat sich indes als nicht besonders fruchtbar herausgestellt. Was bleibt, ist die Erkenntnis, daß ein solches Produkt aus mehreren interagierenden, semiotisch unterscheidbaren Ebenen aufgebaut ist. Eine dieser Ebenen ist der Filmdialog.

Mit dem Aufkommen des Tonfilms ergab sich einerseits das Problem, die Produktionen für Publika mit anderen Muttersprachen verständlich machen zu müssen, andererseits wurde man sich erst der vollen Tragweite bewußt, die Sprachdifferenzen in unserem täglichen Leben und somit auch in der Medienwelt spielen: In einem Land wie den USA ist eben Englisch nicht die exklusive Muttersprache, sondern nur eine von mehreren wie etwa Spanisch oder verschiedene indianische Sprachen. In der US-amerikanischen Filmproduktion spiegelt sich das allerdings nicht wider.

Für Deutschland könnte man sich entsprechend fragen, ob die sprachliche Wirklichkeit der Dialektsprecher – die unbezweifelbar bewußtseinsbestimmend ist – oder der zahlreichen zwei- und mehrsprachig aufwachsenden Einwohner gebührend in unseren kulturellen Artefakten zur Geltung kommt. Einige junge türkischstämmige Filmemacher haben in letzter Zeit damit begonnen, ihre eigene sprachliche Sozialisation in ihren Werken zu verarbeiten, z.B. Yüksel Yavuz in Aprilkinder (1998).

Die Untertitelung ist eine von drei verschiedenen Möglichkeiten, Filmdialog zu übersetzen. Daneben existieren die hierzulande dominante Synchronisation und das Voice-Over-Verfahren. Die Untertitelung ist aber mehr als eine »reine« Übersetzung, da sie – im Gegensatz zu den beiden anderen Verfahren – gesprochene Sprache in geschriebene umwandelt. Als eine Spielart der Kombination von Text und Bild schließt sie somit an eine vollkommen andere Tradition an, die schon im 16. Jahrhundert mit der »Emblematik« Eingang in die populäre Kultur gefunden hat.

Es scheint also sicherlich lohnenswert, auch im wissenschaftlichen Diskurs Überlegungen zur Geschichte, Praxis, zu den Problemen und Möglichkeiten der Untertitelung anzustellen. Obwohl (oder weil) jede diesbezüglich mögliche Fragestellung einen ausgesprochen interdisziplinären Charakter hat (Medienwissenschaft, Literatur- und Kulturwissenschaft, Linguistik, Soziologie, Psychologie), geschieht dies in Deutschland bisher eigentlich überhaupt nicht. Selbst in den klassischen »Untertitel-Ländern« wird erst in den letzten Jahren ernsthaft dazu gearbeitet, leider fast ausschließlich aus einer linguistischen Perspektive.

Wir haben für diese Ausgabe versucht, Autoren mit verschiedenen Ansichten zu gewinnen; es sind hier sowohl Praktiker als auch Wissenschaftler versammelt. Dem internationalen Charakter des Themas geschuldet, haben eigentlich alle Autoren eine zumindest europäische Sicht inne, die in der Person unseres Interview-Gesprächspartners kulminiert, der, in Deutschland geboren und aufgewachsen, die meiste Zeit seines Lebens in England verbracht hat und seit zehn Jahren in den Niederlanden lebt und lehrt.

Bisher interessierte man sich in der deutschen Filmgeschichtsschreibung fast ausschließlich für deutsche Filme, nicht aber für die Aufführung von ausländischen. Eine löbliche Ausnahme bildet der Kölner Filmwissenschaftler Joseph Garncarz, der sich mit dem Schicksal US-amerikanischer Spielfilme in Deutschland auseinandergesetzt hat. Von vielen »Experten« wird immer so getan, als sei es vollkommen evident, warum man sich in welchen Ländern wann für welche Sprachübertragungsmethode entschieden hat. Fängt man jedoch an nachzuhaken, werden die Antworten immer unpräziser. Sicher handelte es sich in jedem Fall um ein Zusammenspiel von ökonomischen, politischen, technischen und vielleicht auch ästhetischen Gründen. In Deutschland wurden beispielsweise über die gesamten 30er Jahre hinweg ausländische Filme mal in Originalversion, mal mit Untertiteln und mal synchronisiert vorgeführt, und zwar ungeachtet ihres Herkunftslandes. Das gilt also auch für Hollywoodfilme. Über die genauen Hintergründe liegen keine Studien vor. Dabei müßte doch für die Filmwissenschaft, je mehr sie sich von dem Ausgangsprodukt ihrer Überlegungen löst und dafür seinen Aufführungsbedingungen (z.B. Kinoarchitektur oder Programmierung) und seiner Rezeption zuwendet – wie es im Moment der Fall ist – desto mehr die Frage in den Vordergrund rücken, welche Sprachen warum in einem Film thematisch eingesetzt werden, in welcher Fassung er wo aufgeführt wird und was das letztendlich für eine Bedeutung für die einzelnen Zuschauer hat. Natürlich sieht man sich hierbei mit einem Grundproblem konfrontiert: Datenmaterial zu dieser Fragestellung ist äußerst rar.

Am interessantesten scheint mir nach wie vor der multilinguale und multikulturelle Aspekt der Untertitelung zu sein. Jeder wird sich noch an Jim Jarmuschs Night on Earth (1991) erinnern, der auch bei uns in der OmU-Fassung lief. Hätte dieser Episoden-Film, in dem u.a. versucht wird, die Eigenheiten verschiedener Orte (Los Angeles, New York, Paris, Rom, Helsinki) und ihrer »Kultur« über den Inhalt der Geschichte zu transportieren und über die Art, wie sie erzählt wird und vor allem über die Sprache, in der sie erzählt wird – hätte ein solcher Film synchronisiert werden sollen? Nein. Und doch: Von dem vor kurzem im Rahmen einer Godard-Retrospektive im ZDF gezeigten Film Le mépris (1963), in dem eine multilinguale Situation aus Französisch, Englisch, Deutsch und Italienisch das Thema des Films bestimmt, wurde in Italien tatsächlich eine Synchronisation erstellt. Godard distanzierte sich damals. Tatsache ist: Viele Filme, die in irgendeiner Weise mit Mehrsprachigkeit experimentieren, werden durch die Synchronisation ihres eigentlichen Themas beraubt. Die umgekehrte Frage wäre, ob nicht viele Filme gedreht werden, die eigentlich eine multilinguale und multikulturelle Thematik haben, sich dessen aber gar nicht »bewußt« sind, diesen Aspekt also völlig außer acht lassen und dadurch ihrer Geschichte viel von der Tiefe rauben, die sie eigentlich hätte haben können. Als Beispiel soll der DDR-Film Fünf Patronenhülsen (1959/60) dienen: Die Geschichte spielt im Spanischen Bürgerkrieg unter den Internationalen Brigaden. Engländer, Deutsche, Spanier, Franzosen usw. kämpfen im selben Schützengraben für die gleiche Sache. Und doch prallen unterschiedliche Hintergründe sprachlicher und kultureller Natur aufeinander. Der Film läßt die Gelegenheit ungenutzt, vom Alltag eines internationalen Zusammenlebens unter besonderen Bedingungen berichten zu können, indem er es bei folgender Charakterisierung beläßt: Der Franzose sieht immer verschlafen aus und raucht Gauloises, und der Spanier schreit »Olé!« anstatt »Jawohl!«. Originalsprache mit Untertiteln nicht als generelle Lösung für einen Film, sondern als Stilmittel, das schon bei der Filmproduktion eingeplant wird, dahin sollten uns weitere Überlegungen führen.

Was auf einem anderen Blatt steht

Während die Untertitelung von Spielfilmen im Fernsehen oder im Kino letztendlich eine reine Gewohnheits-, Geschmacks- oder Geldfrage ist, erscheint die Videotext-Untertitelung für Gehörlose und Schwerhörige (wer kennt nicht die berüchtigte Tafel 150) als eine existentielle: Für einen erheblichen Teil der Bevölkerung (als Beispiel: In den Niederlanden sind bei einer Gesamtbevölkerung von 15 Mio. ca. 2 Mio. schwerhörig und 50.000 von Geburt an ohne Gehör) geht es darum, das wichtigste Massenmedium nutzen zu können oder nicht.

Diese »geschlossenen« Untertitel (weil sie vom Zuschauer ein- oder ausgeblendet werden können) unterscheiden sich substantiell von ihren »offenen« Geschwistern: So muß zum Beispiel jeder Person eine Farbe zugeordnet werden, damit man auseinanderhalten kann, wer gerade spricht. Genauso sollte der Untertitler Geräusche oder Musik bei Handlungsrelevanz unbedingt im Text erwähnen. Untertitel, die auf diese Weise sorgfältig vorbereitet wurden – einer Programmzeit von fünfundzwanzig Minuten entspricht eine Bearbeitungszeit von ungefähr acht Stunden – erfüllen neben ihrem eigentlichen Zweck noch einen zweiten, vielleicht nicht minder wichtigen: Sie sind eine exzellente Unterstützung für alle Zuschauer, die der Sendesprache nicht vollkommen mächtig sind oder die sie gerade erlernen wollen. Allerdings ist eine so elaborierte Bearbeitung selbstverständlich nur für vorproduzierte Beiträge möglich, also für Spielfilme und Serien. Zwei herausragende Eigenschaften des Mediums Fernsehen sind aber seine Aktualität und seine Gleichzeitigkeit. Was also tun mit den Nachrichten, Sportereignissen und Talk-Shows, die ja ausgerechnet zu den beliebtesten Programmbausteinen gehören?

Hier tritt ein sehr umstrittenes Konzept auf den Plan: die Live-Untertitelung. Umstritten ist sie aufgrund des großen Qualitätsabfalls in punkto Timing, Schreibfehler und Inhaltswiedergabe im Vergleich zu den vorbereitbaren Untertitelungen. In Ländern wie England, wo die BBC 80% des Programms ihrer zwei Kanäle mit geschlossenen Untertiteln versieht, oder den Niederlanden, wo die NOS in den drei öffentlich-rechtlichen Kanälen immerhin auf 50% kommt (ein Blick in die Programmzeitung genügt, um festzustellen, daß wir in Deutschland von diesen Zahlen weit entfernt sind), ist man scheinbar automatisch auch gegenüber der Live-Bearbeitung aufgeschlossener. Sie macht in den Niederlanden etwa die Hälfte der gesamten Videotext-Untertitelung aus. Dort benutzt man ein sogenanntes »Velotype«: eine Tastatur, die mit Silben schreibt. Der »Editor« hört den Live-Kommentar des Fußballreporters und versucht in gewissen Zeitabständen, einen Untertitel zu formen, den er dann dem »Velotypisten« zuruft, der ihn wiederum schnell (900 Zeichen pro Minute) auf den Bildschirm hämmert. Nachrichtensendungen haben einen etwas anderen Charakter, da einige Beiträge immerhin kurz vor der Sendung eintreffen, und somit nur ein Teil der Sendung vollkommen live untertitelt werden muß. Talk-Shows werden nicht untertitelt: Das Redetempo ist entschieden zu hoch.

In Deutschland war bisher die »Tagesschau« die einzige Live-Sendung, die für Schwerhörige verstehbar gemacht wurde. Seit Dezember letzten Jahres bearbeitet nun das ZDF einen Großteil seiner »heute«-Sendungen. Der neue Text-Redaktionsleiter Emmanuel Heyd baut dabei auf ein Spracherkennungssystem, das einer einzigen Person ermöglicht, den gesamten Prozeß durchzuführen: Sie hört den Beitrag auf Kopfhörer mit, überlegt sich die passenden Untertitel und spricht diese in ein Mikrophon. Die Software ist auf ihre Stimme, ihre Sprache und ihr Vokabular trainiert und transponiert die akustischen Wellen in geschriebenen Text – wenn es denn klappt: In der Probephase schrieb die Maschine statt »Wahlstreit in den USA« schon mal »Wahl strahlt in den USA«. Aber das ist ja wenigstens lustig. 2001-01-01 14:07

Abdruck

© 2012, Schnitt Online

Sitemap