Artikel aus dem VKD-Kurier Dezember 2023 [English version here]
Quo vadis denn jetzt schon wieder?
Am 17. Oktober 2023 lud der VKD zum virtuellen Runden Tisch in Sachen KI ein. Mir wurde die Ehre zuteil, ein Impulsreferat halten zu dürfen – für meine Begriffe eine zweifelhafte Ehre, weil in meinem Kopf über allen Fragen rund um die Zukunft des menschlichen vs. maschinellen Dolmetschens ein großes „Ich weiß es nicht“ schwebt und mir abgesehen davon der Aufbau von Bollwerken gegen den vermeintlichen Untergang des menschlichen Dolmetschens widerstrebt. Aber am Ende siegte natürlich der Spaß am Diskutieren und ich wappnete mich für einen spannenden Runden Tisch.
Verband in der Findung
Rückblickend erinnert mich der Geist dieser virtuellen Runde ein wenig an vergangene Quo-Vadis-Diskussionen des VKD, in denen als bedrohlich empfundene Umbrüche verhackstückt wurden.
So etwa die berühmt-berüchtigte „KDA-Diskussion“: Im Jahr 2014 hatte sich die Zahl der Mitglieder unseres damals 10 Jahre jungen Verbandes binnen weniger Jahre verdoppelt. Dabei hatte sich das Verhältnis zwischen Senior- und Juniormitgliedern von 3 zu 1 auf nahezu 1 zu 1 verschoben. Es herrschte Sorge vor Konkurrenz, Unüberschaubarkeit, Qualitätseinbußen, Beliebigkeit. Aus dieser Krise und den engagierten Debatten rund um die „KDA-Schwemme“ ist der Verband letztendlich gleichzeitig verjüngt und erwachsener hervorgegangen. Mitglieder ohne 200 Tage Berufserfahrung heißen seitdem nicht mehr Konferenzdolmetscher-Anwärter, sondern Junior-Mitglieder, aus den damaligen Berufseinsteigerinnen sind heute erfahrene Dolmetschpersönlichkeiten geworden, die wir nicht mehr missen möchten. Viele haben ein Ehrenamt im Verband inne.
Und dann die Corona-Pandemie: 2020 legte Covid-19 unseren Berufsstand kurzzeitig lahm und verlegte ihn kurze Zeit später in virtuelle Konferenzräume. Der Untergang des Präsenzdolmetschens wurde von einigen prophezeit, die Machbarkeit des Videokonferenzdolmetschens in Frage gestellt und rauf und runter diskutiert. Wenn auch das Thema Tonqualität nach wie vor häufig problematisch ist, so sind Videokonferenzen und Präsenzveranstaltungen in unserem Beruf gleichermaßen selbstverständlich geworden und haben unsere Tätigkeit um eine neue technische Variante bereichert.
Nun möchte ich nicht unterstellen, dass unsere Verbandsinterna oder das Videokonferenzdolmetschen gleichzusetzen wären mit der deutlich existentiellen Daseinsfrage des maschinellen Dolmetschens. Dennoch ist den drei Szenarien gemein, dass sich unaufhaltsame Veränderungen für den Berufsstand abzeichneten, die Zukunftsfragen für den Berufsstand aufwarfen.
Und so wurde beim vergangenen Runden Tisch unter der inspirierten Moderation von Rafael Adam einmal mehr eine Quo-Vadis-Frage unter 35 Kolleginnen und Kollegen diskutiert. Wo geht es hin mit unserem Berufsstand, bringt das Maschinendolmetschen uns Unterstützung, Konkurrenz oder neue Mitglieder im Dolmetschteam?
Zu Beginn des Runden Tisches wurde zunächst die allgemeine Stimmung sondiert. Eine Befragung zu den Geschäftserwartungen ergab, dass 54 % der Befragten mit sinkendem Marktvolumen durch Maschinendolmetschen rechnen. Eine Befragung zum Kenntnisstand ergab, dass 65 % der Teilnehmenden über KI wussten, „was man so nebenbei mitbekommt“, 35 % beschäftigten sich selbst mit dem Thema. Niemand gab an, gar nichts zu wissen oder aber „ganz vorne dabei zu sein und alles auszuprobieren“ (die Autorin durfte nicht abstimmen). Völlig uninformiert kam jedenfalls niemand!
Äpfel und Birnen
Einen großen Teil des Austauschs nahm die Frage ein, wie sich menschliche und maschinelle Dolmetschleistungen unterscheiden und welche Vor- und Nachteile beide haben. Insbesondere bei nicht-inhaltsbezogenen Faktoren wie Geschwindigkeit, Belastbarkeit, Einfachheit der Handhabung, Verfügbarkeit, Flexibilität sowie dem Preis ist die Maschine dem Menschen überlegen – ähnlich wie bei anderen intellektuellen Leistungen, nicht zuletzt dem Übersetzen, aber auch dem Verfassen von Werbetexten oder juristischen Schriftsätzen.
Geht es um semantisches Tiefenverständnis, Plausibilitätskontrolle des Gesagten sowie um das Berücksichtigen von Weltwissen (aktuelle auf Large Language Models basierenden KI-Anwendungen „halluzinieren“ ja bekanntermaßen), so ist der Mensch zumindest derzeit die eindeutig verlässlichere Alternative. Sokrates hat es seinerzeit knackig auf den Punkt gebracht: „Ich weiß, dass ich nichts weiß.“ Diese zutiefst menschliche Eigenschaft hat durchaus Vorteile, denn die ständige Selbstkontrolle, das Monitoring, ist beim Dolmetschen ein wichtiger Qualitätssicherungsmechanismus. Auch sehr spezifischem und vor allem neuartigem Fachjargon und Soziolekten (Banden-Slang) ist die KI bislang weniger gewachsen. Es liegt im Wesen dieser Ausprägungen von Sprache, dass sie im ständigen Wandel sind, so wie das Gemeinte, die den Worten zugrunde liegende Realität, oft gleichsam frisch erfunden ist. Auch mit Emotionen, Witzen oder Ironie fremdelt die Maschine bislang. Nicht umsonst heißt „dolmetschen“ in anderen Sprachen „interpretieren“. Hier dürfen und müssen wir frei sein, uns vom Text lösen, um die Botschaft in die Welt der anderen Sprache zu transportieren.
Klar ist: Ein Computer kann nicht dolmetschen wie ein Mensch (und ein Mensch nicht wie eine Maschine). Stellt sich die Frage: Ist menschliches Dolmetschen allein glückseligmachend? Ganz sicher nicht. Maschinelles Dolmetschen wird bereits eingesetzt und es gibt Anwendungsfälle, in denen es seinen Zweck erfüllt. Auch ein Reisebüro, der Buchhandel oder ein Tante-Emma-Laden sind ansprechender, persönlicher, kuscheliger als eine Internet-Plattform. Dennoch ist der Online-Handel schneller, bequemer und hat ein breiteres Sortiment.
Die ewige Frage der Humanparität von maschinellem Dolmetschen ist meiner Meinung nach auch nicht entscheidend. Maschinelles Dolmetschen, das der menschlichen Dolmetschleistung nicht hundertprozentig nahekommt und auch von Grund auf einem anderen Ansatz folgt, kann durchaus sinnvolle Anwendungsfälle haben. Wenn es nicht auf alle inhaltlichen Details ankommt, wenn die Zwischentöne nicht wichtig sind, wenn für benötigte Sprachkombinationen kein menschliches Dolmetschteam verfügbar ist. „Besser als nichts“ kann ein schlagendes Argument sein.
So kann die Massenverfügbarkeit von Simultandolmetschfunktionen – ähnlich wie die Videokonferenztechnik in den letzten Jahren – auch ein Beitrag zur „Demokratisierung“ solcher Möglichkeiten sein. Mehr Menschen können sich per Knopfdruck mit Menschen anderer Sprachgemeinschaften austauschen, alle können ihre Muttersprache sprechen, statt sich auf Englisch durchzulavieren, nur weil man sich ein teures Simultandolmetschteam plus Technik nicht leisten kann. Auf der anderen Seite ist die Entwicklung von Maschinendolmetschen für kleinere Sprachen schwieriger, da viel weniger Trainingsdaten vorliegen. Aber auch daran wird bereits gearbeitet.
Ein weiterer, bislang deutlich wahrnehmbarer Unterschied zwischen menschlicher und maschineller Verdolmetschung ist die Stimme. Vielfach hört man, der dolmetschende Computer sei sehr monoton in der Stimmführung und das Zuhören ermüdend. Auf der anderen Seite lassen sich Stimmen von echten Menschen dank Deep Fake schon heute täuschend echt nachahmen. Wahrscheinlich eine Frage der Zeit und Rechenkapazität, bis beides zusammengeführt werden kann und die Dolmetschmaschine mit der gleichen oder zumindest zum Verwechseln ähnlichen Stimme spricht wie die gedolmetschte Person. Ob der gedolmetschte Mensch so begeistern davon wäre, wenn sich die Dolmetschmaschine seiner Stimme bedient, steht dabei auf einem anderen Blatt.
Kollege KI
Eine weitere Befragung unter den Anwesenden des Runden Tisches zum Thema gemischter Mensch-Maschine-Dolmetschteams ergab, dass die Hälfte sich vorstellen könnte, mit Dolmetschmaschinen im selben Team zu arbeiten, nur 19 % würden sich weigern, der Rest wusste es nicht. Die Frage bezog sich auf ein Szenario, in dem in einer Konferenz einige Sprachen menschlich, die anderen maschinell gedolmetscht würden.
Neben der dolmetschenden KI ist aber natürlich auch die unterstützende KI in Gestalt von CAI-Tools ein viel diskutiertes Thema. Verschiedene Tools transkribieren die Originalrede und/oder zeigen dabei als Echtzeit-Unterstützung Zahlen, Fachtermini und Eigennamen an. Wie nützlich das in der Praxis ist, wird sich gewiss bald zeigen. Das Argument, die KI funktioniere nur in reinem muttersprachlichem Englisch, ist jedenfalls obsolet, wenn man sich die Verstehensleistung beispielsweise von Otter.ai anschaut. Das System funktioniert ausschließlich für die englische Sprache, ist hier jedoch extrem breit aufgestellt und auch auf verschiedene Akzente im Englischen trainiert. Hierzu zählen nicht nur amerikanisches, schottisches, irisches und indisches Englisch, sondern auch Englisch u.a. mit deutschem, italienischem, russischem oder chinesischem Akzent. Andere Systeme, etwa Airgram.io, transkribieren auch Deutsch, Französisch oder Spanisch mit beachtlicher Qualität, auch wenn sie an die des Englischen noch nicht heranreicht. Die Live-Transkription kann also in puncto Akzenttoleranz, Hörgeschwindigkeit und Hörgenauigkeit in Zukunft durchaus eine wertvolle Unterstützung sein.
Wer hilft hier wem?
So weit, so gut – dass die KI uns Menschen eine große Hilfe sein und uns von Teilaufgaben entlasten kann, ist wohl unstrittig. Aber wie sieht es umgekehrt aus? Vom Übersetzen kennen wir das Post Editing seit Jahrzehnten – aber wäre es auch denkbar, dass Menschen das Dolmetsch-Output (oder vielmehr die Echtzeit-Übersetzung) des Computers live überwachen und korrigierend eingreifen? Eine Frage, die beim Runden Tisch ausführlich diskutiert wurde. Speziell aus der Erfahrung des Schriftdolmetschens wissen wir, wie kognitiv anspruchsvoll allein das einsprachige Abgleichen eines Live-Transkripts mit dem Gesagten und die Korrektur in Echtzeit ist. Ganz abgesehen von der technischen Umsetzbarkeit wäre der personelle Aufwand jedenfalls kaum geringer als beim normalen Simultandolmetschen. Spannend bleibt die Frage dennoch.
Und nun?
Und nun stellt sich die Frage, was der Verband für den Berufsstand des Konferenzdolmetschens in diesen Zeiten rasanter technischer Entwicklungen tun kann. Unter den Anwesenden schien die Meinung einhellig: Wir möchten uns mit den Möglichkeiten der KI im Dolmetschen auseinandersetzen, informiert bleiben, um einerseits für uns die bestmögliche Unterstützung herauszuholen und andererseits unsere Kunden optimal über die verschiedenen maschinellen und menschlichen Möglichkeiten des Dolmetschens beraten zu können – getreu dem Motto: „Für die Witze sind wir zuständig.“
Am Ende des Runden Tisches jedenfalls war mir wieder einmal klar, warum mich solche Quo-Vadis-Diskussionen in ihren Bann ziehen. „Mit dem Wissen kommen die Zweifel“, so Goethe. Nachdenken, forschen, fragen, zweifeln – auch an uns selbst – ist zutiefst menschlich. Dass gerade wir als Wissensarbeiter ins Nachdenken kommen, wenn wir von Computersystemen, die sich nun auch noch intelligent nennen, herausgefordert werden, ist nur konsequent.
Umso erbaulicher der Geist der Aufgeschlossenheit, in dem unser Runder Tisch zu Ende ging. Live-Demos von KI-Dolmetschleistungen und das Ausprobieren des KI-gestützten Live-Supports durch eine CAI-Software stehen schon auf dem Programm des VKD. Quo vadis, wo lang? Hier lang!
————————
Zum Nachlesen
https://uwaterloo.ca/news/media/new-ai-brings-power-natural-language-processing-african (über KI und kleine Sprachen)
https://blog.sprachmanagement.net/smarterp/ (über Smarterp)
https://blog.sprachmanagement.net/live-transcription/ (über Otter.ai und Airgram.io)
https://blog.sprachmanagement.net/interpretbank-abm/ (über Interpretbank ABM)
Über die Autorin:
Anja Rütten ist freiberufliche Konferenzdolmetscherin für Deutsch (A), Spanisch (B), Englisch (C) und Französisch (C) in Düsseldorf. Sie widmet sich seit Mitte der 1990er dem Thema Wissensmanagement.
Leave a Reply