Microsoft Office Translator – Can it be of any help in the booth?

When it comes to Computer-Aided Interpreting (CAI), a question widely  discussed in the interpreting community is whether information being provided automatically by a computer in the booth could be helpful for simultaneous interpreters or if would rather be a distraction. Or to put it differently: Would the cognitive load of simultaneous interpreting be increased by the additional input, or would it be decreased by providing helpful information that the interpreters would otherwise have to retrieve from their longterm memory.

Of course, interpreting is not about translating single words, but about ideas being understood in one language and then expressed in another. But on the other hand, we all (conference interpreters or not) know the occasional tip of the tongue, when we just can’t think of the German word for, say, nitric acid, and might appreciate a little trigger to remember a particular word or expression.

One scenario of CAI often discussed is that the source speech is analysed by a speech recognition software, critical terminology is extracted  and, based on the interpreter’s glossary, a dictionary or other sources, the equivalent in the target language is displayed on the screen. This technology still has many limitations, especially the speed and quality/reliability of the speech recognition function. But while we are waiting for this solution to become market-ready, I have recently come to like a tool which is altogether quite different in its original aim but can be used for a similar purpose: The Microsoft Translator.

In Powerpoint, for example, by just clicking on a text element the translator window opens next to the slide, and remains open. It translates complete texts or single words, and it has turned out to be quite useful for me in some situations, especially when interpreting presentations based on Powerpoint files I had not had the time to read before the meeting.

But would I say that the Microsoft Translator is a tool I consider a valuable support in the booth? The answer clearly is: it depends.

Quality varies considerably between language pairs. While English-Spanish seems to be one of the well-developed „premium“ combinations with sometimes impressive results, French-German did not really convince me.

You can never rely on the system to understand the message. And running a mental plausibility check in parallel to the normal interpreting job plus reading the translation on the screen is not an option.

But: If you manage to use the translator simply to prompt your brain when you are searching for a particular word, preferably one that leaves no room for mistranslations (like sodium, elderflower or forklift truck), it may make your life easier.

The nice thing is that this translator, which can also be used as a dictionary, runs within Powerpoint, so you can read your presentation and pre-translate texts very easily. It does not involve any typing or skipping between different windows.

After all, we are still at the beginning of what CAI brings. The Microsoft Translator is an easily accessible tools nice enough to play around with and get a flavour of what language technology brings for conference interpreters. And I am really curious to hear what your experience is!

About the author

Anja Rütten is a freelance conference interpreter for German (A), Spanish (B), English (C) and French (C) based in Düsseldorf, Germany. She has specialised in knowledge management since the mid-1990s.

Remote Simultaneous Interpreting … muss das denn sein – und geht das überhaupt?!

In einem von AIIC und VKD gemeinsam organisierten Workshop unter der Regie von Klaus Ziegler hatten wir Mitte Mai in Hamburg die Gelegenheit, diese Fragen ausführlich zu ergründen. In einem Coworkingspace wurde in einer Gruppe organisierender Dolmetscher zwei Tage lang gelernt, diskutiert und in einem Dolmetschhub das Remote Simultaneous Interpreting über die cloud-basierte Simultandolmetsch-Software Kudo ausprobiert.

Zur Einstimmung haben wir uns zunächst vergegenwärtigt, worüber denn nun eigentlich genau reden, denn in der ISO-Norm 20108 wird begrifflich folgendermaßen unterschieden:

Distance Interpreting (interpreting of a speaker in a different location from that of the interpreter, enabled by information and communications technology): Dieser Begriff des “Ferndolmetschens” umfasst alle Szenarien, bei der einer der Kommunikationsteilnehmer sind nicht im gleichen Raum wie die anderen befindet. Dies kann unter anderem bedeuten, dass einfach ein Sitzungsteilnehmer per Videokonferenz zugeschaltet wird oder man beim Kunden sitzt und ein Telefonat dolmetscht.

Das Remote Interpreting, um das es hier gehen soll, ist eine „Unterart“ des Distance Interpreting. Es bedeutet, dass die Dolmetscher remote sind, sei es im Nebenraum oder an einem ganz anderen geographischen Ort. Dabei kann durchaus sein, dass darüber hinaus auch die Teilnehmer an unterschiedlichen Orten sind (full remote).

Viele technische Fragen zum Remote Interpreting, etwa zu den Anforderungen an die Übertragungsqualität, hat Tatiana KAPLUN im November 2018 in ihrem tollen Blogbeitrag „A fresh look at remote simultaneous interpreting“ über das RSI-Seminar von AIIC Netherlands dargestellt – sehr lesenswert.

Was mich und viele andere Teilnehmer allerdings neben abgesehen von der technischen Umsetzbarkeit (wie gut sind die RSI-Softwarelösungen? Wo gibt es einen Premium-Hub, wie wir ihn uns wünschen?) am Ende des ersten Tages umtrieb, war die Frage, welche Remote-Simultan-Lösung für unseren Kunden in welchem Fall die beste ist. Wir hatten unzählige kritische Aspekte diskutiert, die jeweils für das Remote-Dolmetschen in gut erreichbaren Dolmetsch-Hubs oder die cloudbasierte RSI-Software am eigenen Rechner sprechen. Und da ich meine, nichts geht über eine knackige Entscheidungsmatrix, habe ich versucht, in einer Tabelle zusammenzufassen, welche Vorteile die jeweiligen Lösungen bieten:

Hub

(an einem zentralen Ort dauerhaft installierte Dolmetschkabinen mit RSI-Software und stabiler und sicherer Internetverbindung)

Home

(Simultandolmetschen mittels cloud-basierter Software; Nutzung von Rechner, Kopfhörer, Mikrofon und Internetverbindung des Dolmetschers)

Vertraulichkeit Bei Sorge vor Industriespionage bzw. entsprechenden IT-Sicherheitsstandards sind öffentliche, cloud-basierte Lösungen für viele Unternehmen problematisch;

Hub mit sicherer Verbindung/eigener oder externer geschützter Serverstruktur sinnvoll

Werden keine vertraulichen Informationen ausgetauscht bzw. wird ohnehin seitens der Teilnehmer mit offenen Systemen/unkontrollierten Zugangspunkten gearbeitet (Privatrechner, Heimbüro), ist eine sichere Verbindung weniger entscheidend
Verlässlichkeit Wenn bei technischem Ausfall hohe Kosten oder große Probleme entstehen; Hubs können eher zwei oder drei Internetverbindungen vorhalten und so einen Verbindungsausfall praktisch ausschließen Wenn ein technischer Ausfall keine größeren Kosten/Probleme verursacht und die Teilnehmer evtl. auch mit wenig verlässlichen Systemen arbeiten; die wenigsten Dolmetscher halten in Ihrem Büro einen redundanten zweiten Internetanschluss vor
ISO-ähnliche Übertragungsqualität und Arbeitsumgebung Einwandfreie Übertragungsqualität (Frequenzband, Latenz, Lippensynchronität) notwendig, wenn störungsfreie, “unbemerkte” Verdolmetschung erforderlich Suboptimale Übertragungsqualität kann dazu führen, dass häufiger Rückfragen notwendig sind, Inhalte verloren gehen, Pausen notwendig sind; akzeptabel v.a. bei Einsätzen von kurzer Dauer bzw. Intensität
Zeit Zeitersparnis nur, wenn Dolmetscher in Hubnähe verfügbar; Vorteil: Hub ist immer einsatzbereit Praktisch bei kurzfristiger Terminierung, vor allem, wenn Dolmetscherpool vorhanden, so dass gegenseitige Vertretung möglich ist – Achtung: Technikchecks, Stand- und Wartezeiten evtl. trotzdem berücksichtigen
Kosten Vorteilhaft ist, wenn Dolmetscher in Hub-Nähe wohnen (bzw. näher am Hub als am Kunden) Praktisch wenn Dolmetscher weder in Hub- noch in Kunden-Nähe
Logistik Praktisch, wenn die Sitzungsteilnehmer an Firmenstandorten mit Hub-ähnlichen Bedingungen sind (Übertragungstechnik vorhanden) Praktisch, wenn Teilnehmer an beliebigen Orten auf dem Globus verteilt sind und/oder beliebig viele Zuhörer mit eigenen Geräten zuhören sollen (BYOD)

 

Zusammenarbeit Im Hub ist Teamarbeit in der Kabine wie in Präsenzveranstaltungen möglich Mikrofonübergabe, Unterstützung (Zahlen/Namen notieren, Terminologierecherche) und Abstimmung erschwert, Blickkontakt muss durch Softwarefunktionen simuliert werden

Neue Perspektiven

Vergleicht man die unterschiedlichen Aspekte, wird klar, dass das Dolmetschen aus einem Hub tendenziell eher die Bedingungen des konventionellen Konferenzdolmetschens abbildet bzw. abzubilden in der Lage ist – wenn dies auch bei Weitem nicht immer gilt. So wäre ein vollständig ohne Konferenzraum, rein virtuell abgehaltenes Event durchaus sinnvoll aus einem Hub zu dolmetschen und in eine „normale“ Präsenzveranstaltung könnten Dolmetscher (wie Teilnehmer) cloud-basiert aus allen Teilen der Welt hinzugeschaltet werden. Klar wird dennoch, dass Veranstaltungen, die aktuell nicht simultan gedolmetscht werden, durch Remote-Technik dafür nun eher in Frage komen – so etwa Webinare oder informelle Besprechungen zwischen größeren Sitzungen  internationaler Gremien.

Der Praxistest

Am interessantesten und unterhaltsamsten war natürlich der Praxistest. In verteilten Rollen konnten alle Teilnehmer in die Rolle des Redners, Dolmetschers und Zuhörers schlüpfen und alle Perspektiven kennenlernen.

Remote-Simultandolmetschen im Hub

Das Kabinen-Feeling war dabei im ersten Moment ganz normal und vertraut, mit der Benutzeroberfläche hatten wir uns alle schnell vertraut gemacht. Das Bedienen der „Knöpfe“ für Mikrofon, Räuspertaste und Lautstärke am Bildschirm erfordert dabei ein wenig Übung. Nicht, dass man nicht in der Lage wäre, mit der Maus einen Schieber zu bedienen – aber das blinde Drücken von ertastbaren Knöpfen, ohne das Sitzungsgeschehen oder den Redner dabei aus dem Auge lassen zu müssen, empfanden die meisten – eventuell auch aus Gewohnheit – als weniger aufmerksamkeitsraubend. Spannend war auch das Ausprobieren verschiedener Kopfhörer, Mikrofone und Betriebssysteme, was zu teils erheblichen Unterschieden in der übertragenen Lautstärke führte.

Da wir im Hub miteinander in den Kabinen saßen, wurde nicht ausprobiert, wie man ohne Blickkontakt das Mikrofon abgibt. Einen Übergabebutton hat Kudo nicht, im Gegensatz zu anderen RSI-Programmen. die teils recht pfiffige Lösungen hierfür bieten.

Zuhörer-Benutzeroberfläche (Android) von Kudo

Das Zuhören am eigenen Smartphone funktionierte bis auf die genannten Lautstärkeprobleme recht gut. Die noch ungeklärte Frage war eher: Was passiert, wenn 50, 100 oder 1000 Veranstaltungsteilnehmer ihr own device bringen und nach einem halben Tag des Zuhörens alle gleichzeitig ihren Akku laden müssen? First world problems, würde man sagen, bringt aber ganz gut auf den Punkt, mit welchem Eindruck mich ein spannendes und intensives RSI-Seminar zurücklässt: Tolle Chancen, spannende Technik – aber mitunter kritsche technische Details, die dem Enthusiamus (noch) ein Beinchen stellen.

————————
Über die Autorin:
Anja Rütten ist freiberufliche Konferenzdolmetscherin für Deutsch (A), Spanisch (B), Englisch (C) und Französisch (C) in Düsseldorf. Sie widmet sich seit Mitte der 1990er dem Wissensmanagement.

Great Piece of Research on Terminology Assistance for Conference Interpreters

Terminology Assistance Coming to a Simultaneous Interpreter Near You

No me canso, ganso – mis impresiones del Foro Lenguas 2019 en CDMX

En medio del desabasto de gasolina llegué a la ciudad de México para asistir al Foro Lenguas 2019 la semana pasada. En este congreso, con representación de 20 lenguas amerindias y 7 lenguas extranjeras, me lancé a la aventura para discutir la gramática, la importancia de las asociaciones profesionales y el papel que desempeñan las tecnologías en nuestra profesión.

Entre muchísimos momentos especiales e interesantes, estos fueron para mí los más inspiradores:

El día 24 de enero fue día de plenaria.

Entre muchas otras charlas interesantísimas, escuchamos la plática de Concepción Company acerca de „la comunicación eficaz y la pureza lingüística, ¿conceptos antagónicos?“ Aprendí que todos somos seres gramáticos y que muchas veces lo que consideramos correcto o incorrecto solamente constituye una valoración social: „Dime cómo hablas y te diré quién eres.“ Me recuerda mucho las discusiones que a veces tenemos los intérpretes. ¿Hay que educar al cliente y hablar „como se debe“ o „como hablan ellos“?

Y: ¿Se puede hablar en dialecto o usar regionalismos? Nos explica Concepción Compay que cuán más elevado el nivel hablado, más neutro se hace, se pierde la variación y riqueza del dialecto y del sabor local, la identidad. Me hace pensar en la cuestión de si es aceptable que los intérpretes podamos hablar con acento, o incluso en dialecto. ¿O solo si el orador mismo lo hace? ¿Se puede interpretar un dialecto con otro en el idioma meta?

Otro dato muy interesante: El bilingüismo es un estado natural. Según la fuente consultada, aunque varían mucho las cifras, parece ser que abarca a más de la mitad de la población mundial.

Me dejó muy impresionada la charla acerca de los servicios lingüísticos en situaciones de crisis con las perspectivas de Julie Burns, intérprete en The Communication Bridge, Ian Newton, director ejecutivo de InZone y Carlos Sánchez González de Rescate Internacional Topos, A.C. Además de sus vivos relatos acerca de sus experiencias en las regiones de crisis, dejaron muy claro lo diferente que es el papel que tiene un intérprete en esta situación a la de un intérprete de conferencias. Es que no hay vidrio en medio, uno se convierte en actor activo responsable que no puede „esconderse“ en la cabina.

Además, como es muy apropiado en este Año Internacional de las Lenguas Indígenas de las Naciones Unidas, escuchamos a la poeta y activista indígena mapuche (que no quiere que se le llame chilena), María Teresa Panchillo. Nos habló de su cultura, de la interacción del lenguaje, la modernidad, la tradición y me dejó impresionada por su relato tan original y genuino.

El viernes 25 de enero fue mi día de talleres, enfocado más que nada en el tema de las tecnologías. Tanto en mi propio taller como en los otros dos a los que asistí la sala estaba completamente llena.

Primero tuve el honor de tratar los temas de la preparación eficiente y la gestión de información y conocimientos con un grupo de colegas super simpáticos y muy inspirados. Fue la primera vez que di este taller en tierra americana, y además en español, con participantes de Brasil, México, EEUU y Canadá, me llevé muchas reflexiones muy interesantes. Discutimos de las particularidades de nuestro trabajo de preparación, del „ya no“ y del „ni modo“, de un poco de teoría y muchas herramientas de gestión, búsqueda y extracción de terminología. Al final mi verdadero motivo de impartir cursos – saber acerca de las opiniones e ideas de los demás – quedó más que satisfecho 🙂

Después tocó un taller acerca de las „Tecnologías disruptivas: la cadena de bloques y la traducción“ con el Dr. Miguel Duro Moreno. Nos habló de lo que la tecnología de las cadenas de bloque nos traerá a los traductores (y en parte también a los intérpretes):

  • Trabajo colaborativo y en equipo con todas las garantías de seguridad
  • Asignación de los derechos de propiedad intelectual con todas sus consecuencias en relación con la propiedad intelectual/autoría, remuneración, reputación, responsabilidad
  • Traducciones infalsificables, importante sobre todo en el ámbito jurídico
  • Contratos inteligentes tipo „if then“ (si se termina la traducción, se paga automáticamente), negociados entre computadoras/máquinas, con oferta de contrato y aceptación automática
  • Pagos seguros e inmediatos al monedero digital (celular) sin intermediarios como bancos o empresas financieras tipo paypal – la Uberización de la economía

Miguel Duro tiene previsto publicar un artículo sobre este tema en la revista Comparative Legilinguistics. Se titulará Translation quality gained through the implementation of the ISO 17100:2015 and the usage of blockchain: The case of sworn translation in Spain.

Y finalmente, asistí al taller „Terptech“ de Darinka Mangino y Maha El-Metwally. Ellas nos facilitaron una entretenida panorámica de los gadgets, programas y demás tecnologías útiles para los intérpretes, como para digitalizar notas, transcribir videos, de interpretación remota etc. Me tuve que ir en medio del taller para alcanzar mi vuelo de regreso … y me fui de México con una sensación de „No me canso, ganso. ¡Volveré prontito!“


La autora:
Anja Rütten es intérprete de conferencias autónoma para alemán (A), español (B), inglés y francés (C), domiciliada en Düsseldorf/Alemania. Se dedica al tema de la gestión de los conocimientos desde mediados de los años 1990.

What do conference interpreters‘ booth notes tell us about their information management?

First of all, a big thank you to all of you who followed my call and provided copies of their booth notes for my little study – I finally managed to collect booth notes from 25 colleagues! Now, what was this study all about? The purpose was to see what interpreters write down intuitively on a blank sheet of paper, i.e. with no given structure like a terminology database, supposing that what you find on these notes is what is really relevant in the booth. What I was interested in was

1. to see if these notes possibly confirmed what research says about knowledge management, or terminology management more in particular,

2. to check if this information can be mapped to the structures of booth-friendly terminology managmenent systems.

I was also hoping to get some inspiration about the more general question of how (or if) computers could best support conference interpreters in their work.

As the information on the notes might be confidential, the first thing I decided to do was create a mock set of notes reflecting the statistics of my sample notes:

– Average number of terminological records per set of notes: 20 (10 nouns, 4 phrases, 6 acronyms)
– Of all terminological records, 99.6% were technical or specialised terminology.
– 14 records were in one language only (2 in source language, 12 in target language), 5 records in two languages, 1 record in three and more languages.
– Non-terminological records: 6 numbers; 1 context information like names of legal acts, persons, positions; graphic illustrations (1 drawing, 1 underline)

My self-made model notes look like this:

Of all the things I observed in the notes, I was more surprised by what I did not see than by what I saw:

– Hardly any verbs and adjectives
– not really many drawings illustrating conceptual relations
– 72 % of all „terminological records“ found were made in one language only, and each interpreter wrote down terminology in one language only at least once.

Overall, it looks like the „deeper“ information about content and semantic relations is rather dealt with during preparation while information work in the booth is more about having  crucial context information and the right technical term in the target language (almost all terminological records were of technical nature). In short, this filling of personal knowledge gaps in the booth is the tip of the iceberg of a conference interpreter’s information and knowledge work. This confirms what research says, but makes me wonder whether a terminology tool that – in booth mode – displays key terms in the current target language only (possibly in word clouds) might be more efficient as a word-finding trigger than bilingual, glossary-style lists. Or is cognitive overload the only reason why simultaneous interpreters would note down their terms in one language only in the booth?

Luckily I was even able to collect one team sample, i.e. the notes of 5 interpreters working at the same conference. It was interesting to see that there was indeed some overlapping in the terms noted down and that these „shared“ terms were mainly written at the top of the respective sheets. In particular, 2 acronyms were written down by all 5 interpreters, another 2 acronyms by 4 of the 5 interpreters, and one technical term by 3 of them. Just like the complete study, this is by no means representative, but at least it indicates that it might be possible to provide key terms for certain meetings which are useful to all interpreters.

Beyond statistics and hard data, this study made me think a lot about the possible reasons that put interpreters off going paperless in the booth. It also inspired me to discuss this question with colleagues. It appears that there are several factors that tend to work better on paper than on a computer:

– Screen space: There is only so much information you can display on a computer screen. With agenda, meeting documents, glossaries and online ressources, it is hard to squeeze everything onto a display not much bigger than a regular sheet of paper.

– Exchange plattform: Simultaneous interpreters in the booth like to use a sheet of paper as a kind of exchange platform to ask for coffee, write down when to change turns and note down difficult terms, numbers etc. to support each other.

– Permanent visibility: Once written down on paper, information doesn’t usually disappear from our view easily, something that may well happen on a computer.

– Document handling: When working with different documents (original and translation of speeches, draft agreements, legislative texts), they can be arranged on a desk (if not too small) in a way to find one’s way through them and/or share them with the colleague who is busy interpreting in order to find the right page or line for her o him.

– Input: The input function of pen and paper is just very intuitive.

These were my main conclusions from this lovely little study. If you want to know all the details, I encourage you to read the full article, which was published in the Proceedings of the 40th Conference Translating and the Computer, London, UK, November 15-16, 2018, p 132-144. All the slides are also available for download.


About the author

Anja Rütten is a freelance conference interpreter for German (A), Spanish (B), English (C) and French (C) based in Düsseldorf, Germany. She has specialised in knowledge management since the mid-1990s.

Honorarkalkulator für Dolmetscher – Excel-Datei und Video Tutorials aus #aiicDfD2018

Grundhonorare, Projekthonorare, Vorbereitungshonorare – nicht immer funktionieren Tagessätze“ – laut Inés de Chavarría (der ein megagroßes Dankeschön für die Orga gebührt!) eine zentrale Erkenntnis aus den Diskussionen des AIIC-Workshops Dolmetscher für Dolmetscher 2018 in Stuttgart.  In diesem Sinne nun also ran ans Kalkulieren!

Hier zum Herunterladen im Excel-Format der Kalkulator Zeit&Geld Dolmetscher

Das Video STUNDEN UND HONORARE (11 Min):

Das Video PROJEKTKALKULATION 6 Min:

Das kleine Einmaleins (eigentlich eher Plus und Minus) für Dolmetscher in Kurzform findet Ihr noch einmal in diesem Beitrag.
Rückmeldung und Fragen gerne über die Kommentarfunktion oder auf Twitter!
————————
Über die Autorin:
Anja Rütten ist freiberufliche Konferenzdolmetscherin für Deutsch (A), Spanisch (B), Englisch (C) und Französisch (C) in Düsseldorf. Sie widmet sich seit Mitte der 1990er dem Wissensmanagement.

Nicht für Geld – kleines Einmaleins für Dolmetscher

Zur Einstimmung auf den bevorstehenden Dolmetscher-für-Dolmetscher-Workshop, wo es unter anderem um betriebswirtschaftliche Themen gehen wird, möchte ich heute ein paar Gedanken zu einem meiner Lieblingsthemen, dem lieben Geld, mit Euch teilen. Denn den schönsten Beruf der Welt macht man zwar nicht nur des Geldes wegen, aber ohne wäre irgendwie auch schlecht. Und wenn Dolmetscher auch alles wissen – was das Leben (und das Arbeiten) kostet, wird mitunter vergessen. Als kleine Denkhilfe also im Folgenden ein paar finanzielle Faustregeln (inspiriert durch die jahrelange Arbeit mit den „Rentabilitätern“ von AIIC Deutschland):

Regel 1: Die Untergrenze – Kosten kennen.

Wieviel Geld brauchen wir im Jahr? Grob gesprochen und ganz ungefähr

– 10.000 EUR für Altersvorsorge
– 10.000 EUR für Versicherung
– 20.000 EUR für Betriebsausgaben (Auto, Büro, IT, Fortbildungen, Verbandsbeiträge, Steuerberater, Werbung)
– 5000 EUR als Rücklage für schlechte Zeiten („Arbeitslosenversicherung“)
– 5000 EUR zum Vermögensaufbau
– 30.000 EUR „zum Leben“ einschl. Urlaub (die privaten Konsumausgaben in Deutschland lagen 2016 bei 19.000 EUR für 1 Person, 34.000 EUR für 2, 40.000 EUR für 3, 45.000 EUR für 4, 51.000 EUR für 5)
– 20.000 EUR Steuern

In Summe: 100.000 EUR Umsatz

Regel 2: Nicht die Zeit vergessen.

Bei einer 40-Stunden-Woche mit fünf Wochen Urlaub (oder Auslastungsschwankungen) und zwei Wochen Krankheit arbeitet man 1800 Stunden pro Jahr, davon etwa 600 Stunden, die nicht direkt zu einem Auftrag gehören (Verwaltung, Werbung, Netzwerken, Fortbildung). Es bleiben also rund
1200 Stunden zum Geldverdienen (sprich Dolmetschen plus Vorbereitung, Reisezeit, Warten und Bereitstehen), das macht 83,33 EUR pro produktiv gearbeiteter Stunde.

Abweichungen in beide Richtungen gibt es natürlich je nach Lebenssituation (Single vs. vierköpfige Familie) und Kostenstruktur, aber möchte man ein einigermaßen allgemeingültiges Honorar zugrunde legen, sind 85 EUR/produktiv gearbeiteter Stunde gewiss ein Wert, mit dem man bei einer überschlägigen Projektkalkulation einigermaßen verlässlich operieren kann. Ein Dolmetscheinsatz zu 850 EUR ist also rentabel, solange er einschließlich Beratung und Planung, Vorbereitung, Abwicklung und Reisezeit nicht mehr als zehn Stunden „kostet“.

Regel 3: Mehrwert kennen.

Andersherum betrachtet lässt sich das Honorar natürlich auch über den Mehrwert beziffern:
– Dieselbe Schulung kann für mehr Personen angeboten werden.
– Eine Konferenz ist für einen um ein Vielfaches größeren Teilnehmerkreis interessant.
– Kooperationen laufen glatter.
– Partner verhandeln auf Augenhöhe.
– Verzögerungen in Projektstarts werden vermieden.
– Ausländische Kunden fühlen sich besser aufgehoben,
– Mitarbeiter weltweit einem Mutterkonzern stärker verbunden.
– Neue Konzerngesellschaften werden reibungsloser eingebunden.

Kurz gesagt: Mit den drei Faktoren Kosten – Zeit – Mehrwert im Hinterkopf kann bei der Dolmetschprojektkalkulation eigentlich nichts mehr schief gehen!

Zum Nachlesen empfehle ich den Artikel der Rentabilitäts-AG von AIIC Deutschland und natürlich nach wie vor Julia Böhms legendärer Artikel Wer wird Millionär, der auch 13 Jahre nach seiner Veröffentlichung im MDÜ nicht an Relevanz eingebüßt hat.

————————
Über die Autorin:
Anja Rütten ist freiberufliche Konferenzdolmetscherin für Deutsch (A), Spanisch (B), Englisch (C) und Französisch (C) in Düsseldorf. Sie widmet sich seit Mitte der 1990er dem Wissensmanagement.

Green Season’s Greetings | Grüne Weihnachtsgrüße | Saludos navideños verdes

 

Neurophysiologie des Simultandolmetschens | Neurophysiology of simultaneous interpreting – by Eliza Kalderon

+++ for English, scroll down +++

Etwa eineinhalb Jahre nach Beenden der Promotion freue ich mich über die Möglichkeit, im Blog meiner Kollegin, die das Projekt „Neurophysiologie des Simultandolmetschens: eine fMRI-Studie mit Konferenzdolmetschern“ von Anfang an voller Begeisterung und Engagement unterstützte, eines der spannendsten Ergebnisse vorstellen zu dürfen.

Die drei nachfolgenden Abbildungen stellen sogenannte Render-Bilder dar, d. h. dass die 3D-Bilder jeder einzelnen Versuchsperson zu einer Bildsynthese zusammengefasst wurden, da der wiederkehrende Wert sowie die Suche nach übereinstimmenden neuronalen Mustern in den untersuchten Leistungen im Mittelpunkt des wissenschaftlichen Interesses standen.

In den Bedingungen wurden Masken, sogenannte regions of interest (ROI), angewandt, in denen das Simultandolmetschen im Vergleich zu einer weiteren Aufgabe stand – in unserem Fall im Vergleich zum Shadowing. Durch diese Masken kann die Kalkulation der Gehirnaktivierung auf eine definierte anatomische Region eingegrenzt werden. Anhand der verwendeten Maskierung konnte also die Aktivität bestimmter Aktivierungscluster, die zum Broca- bzw. zum Wernicke-Areal gehören, bestimmt werden.

Abbildung 1 – DE>ES

In Abbildung 1 wurde die Mehraktivierung beim Simultandolmetschen aus dem Deutschen ins Spanische und das Simultandolmetschen aus dem Spanischen ins Deutsche ohne Maskierung kontrastiert, das heißt mit Abbildung der Aktivierung über das ganze Gehirn.

Beim Vergleich der Dolmetschrichtung wird die vom Simultandolmetschen aus dem Spanischen ins Deutsche hervorgerufene Gerhirnaktivierung von dem Simultandolmetschen aus dem Deutschen ins Spanische subtrahiert. Unter diesen zwei getesteten Bedingungen haben die Probanden eine Rede aus ihrer Muttersprache Deutsch in ihre aktive Fremdsprache (B-Sprache, Spanisch) gedolmetscht beziehungsweise in der anderen Bedingung eine Rede aus dem Spanischen ins Deutsche gedolmetscht. Die Abbildung zeigt, dass beim Simultandolmetschen in die spanische Sprache das Gehirn der deutschmuttersprachlichen Konferenzdolmetscher beidhemisphärisch im primären motorischen somatosensorischen Kortex aktiviert wurde.

Das bedeutet, dass deutschmuttersprachliche Dolmetscher für die Artikulation im Spanischen mehr Mundmotorik aktivieren als beim Simultandolmetschen in ihre Muttersprache. Das bedeutet wiederum, dass sie für die Performanz in der spanischen Sprache mehr Kontrolle über die Sprachmuskulatur brauchen. Zu beobachten war weiterhin eine Aktivierung im medialen superioren Frontallappen. In diesem Areal ist das strategische Denken (prospective memory, BURGESS et al. 2011) angesiedelt.

Abbildung 2 – ES>DE

In Abbildung 2 ist der umgekehrte Kontrast dargestellt, die Mehraktivierung beim Simultandolmetschen aus dem Spanischen ins Deutsche, das heißt, von der neuronalen Aktivität beim Simultandolmetschen aus dem Spanischen ins Deutsche wurde die neuronale Aktivität aus dem Deutschen ins Spanische subtrahiert. Sie zeigt eine Aktivierung des inferioren Temporallappens, in dem visuelle Informationen verarbeitet werden.

Es ist auch die Aktivierung eines Areals im medialen präfrontalen Kortex zu beobachten, der mit dem prospektiven Denken in Verbindung gebracht wird (vgl. BURGESS et al. 2011). Dort legt man sich Handlungsstrategien zurecht. Bei der Verdolmetschung ins Spanische sind sie sprachlich-motorischer Natur (beansprucht wird also das motorische Arbeitsgedächtnis; ein analoges Ergebnis findet sich bei TOMMOLA et al. 2000: 162).

Abbildung 3 stellt eine Zusammenfassung der beiden vorherigen Abbildungen dar. Hier wurde das Simultandolmetschen in beide Sprachrichtungen in einem Bild gegenübergestellt. Die rot markierten Areale stellen die Mehraktivierung beim Simultandolmetschen aus dem Deutschen ins Spanische dar, die blauen das Simultandolmetschen vom Spanischen ins Deutsche.

Abbildung 3 – Vergleich

Wie man sieht, wurden beim Simultandolmetschen ins Spanische besonders die motorischen Areale beansprucht. In der umgekehrten Sprachrichtung dominieren eine rechtsseitige Aktivierung im inferioren Temporallappen sowie ein aktiviertes Cluster im medialen Präfrontalkortex.

Diese Bilder lieferten uns ein überraschendes und unerwartetes Ergebnis: Dass selbst das trainierte Gehirn von Konferenzdolmetschern eine immense Menge an Kapazitäten für die Artikulation in der Fremdsprache benötigt.

Wer das komplette Studiendesign sowie alle Ergebnisse nachlesen möchte, kann gerne den folgenden frei zugänglichen Link anklicken.

Und last, but not least, möchte ich mich noch einmal bei Anja Rütten und all den Kolleginnen und Kollegen herzlich bedanken, dass sie die lange Fahrt nach Homburg (Saar) auf sich genommen haben, um die Studie und die beeindruckenden Ergebnisse zu ermöglichen.


+++ English version +++

About one and a half years after the project’s completion, I am particularly pleased to present one of the most fascinating results of my doctoral research about neurophysiological processes in simultaneous intepreting on the blog of my colleague, who provided enthusiastic and committed support to this research project from the outset.

The three images below are what is referred to as “render images”: They represent a 3D synthesis of each individual subject in a single image as this research primarily focussed on recurring values and identifying neuronal patterns in the performance analysed.

Masks were applied to the different tasks to outline what is known as regions of interest (ROI). This served to contrast simultaneous interpreting and a second task – shadowing in our case. With the help of these masks, it became possible to limit the calculation of brain activation to a defined anatomic region. This allowed to specify the attribution of an activation and its localisation. It was thus possible to determine the activity outlined after masking of certain activation clusters attributed to Broca’s area or Wernicke’s area.

Figure 1 – DE>ES

Figure 1 shows the contrast in activation between simultaneous interpreting from German into Spanish and simultaneous interpreting from Spanish into German without masking. In other words, it shows the activation of the entire brain.

For a comparison of interpreting directions, the brain activation caused by simultaneous interpreting from Spanish into German was subtracted from that caused by simultaneous interpreting from German into Spanish. In the two tested settings, the subjects were asked to interpret a speech from their mother tongue (German) into their active working language (“B language”, Spanish) and, for the reverse setting, from Spanish into German. The image shows bi-hemispheric activation of the primary motor somatosensory cortex of the brain of a German native conference interpreter when interpreting into Spanish.

This implies that a German native conference interpreter requires stronger activation of mouth movement when articulating in Spanish than when simultaneously interpreting into their mother tongue. This in turn implies that they need stronger control of the muscles in their vocal tracts for a performance in Spanish. Furthermore, activation in the medial superior frontal lobe was observed. This is the area were strategic thinking (prospective memory BURGESS et al. 2011) is located.

Figure 2 – ES>DE

Figure 2 shows the reverse contrast, namely the stronger activation linked to simultaneous interpreting from Spanish into German. This is the result of subtracting the neuronal activity related to German into Spanish from the neuronal activity caused by interpreting from Spanish into German. It illustrates an activation of the inferior temporal lobe which is where visual input is processed.

We can observe an activation of the medial prefrontal cortex, which is associated with prospective memory (BURGESS et al. 2011). This area is responsible for developing strategies for action. These strategies are of motor-linguistic nature when interpreting into Spanish (it is the motor working memory which is responsible; TOMMOLA et al. 2000:162 draw similar conclusions).

The final image summarises the two previous images. It contrasts the process of simultaneous interpretation in both language directions. Areas marked in red represent stronger activation during simultaneous interpretation from German into Spanish. Areas in blue mark simultaneous interpreting from Spanish into German.

Figure 3 – Comparison

It is evident that simultaneous interpreting into Spanish particularly engages the motor brain areas. The dominant activation areas in the reverse language direction are in the right inferior temporal lobe and a cluster in the medial prefrontal cortex.

These images provided a surprising and unexpected finding: Even a practiced conference interpreter uses large amounts of capacity for articulating in the foreign language.

If you are interested in reading the complete research design and all other findings, you are welcome to follow this link (free access).

Last but certainly not least I would like to thank Anja Rütten and all other colleagues for taking the long journey to Homburg (Saar) to participate in this experiment and making these impressive results possible.

References

BURGESS, B.W.; GONEN-YAACOVI, G.; VOLLE, E. (2011): „Functional neuroimaging studies of prospective memory: What have we learnt so far?”. Neuropsychologia 49. 2246-2257
TOMMOLA, J.; LAINE, M.; SUNNARI, M.; RINNE, J. (2000): „The translating brain: cerebral activation patterns during simultaneous interpreting”. Neuroscience Letters 294(2). 85-88

Macht mehr Monotasking?

Ich kann es ja eigentlich nicht mehr hören: „Wir fummeln viel zu oft an unseren Handys herum! Wir sind immer abgelenkt. Wir müssen mal wieder ein Buch umarmen! Und in ein Geschäft gehen!“ Hallo? WIR sind erwachsen und lieben Computer und Handys auch, weil sie einen Ausknopf haben. Den haben nämlich weder Aktenberge noch vollgestopfte Schaufenster oder Fußgängerzonen. Also.

Eine Frage in dieser Wir-sind-viel-zu-abgelenkt-Diskussion finde ich allerdings doch interessant: Können wir chronischen Multitasker denn überhaupt Monotasking? Nicht wir im Sinne von digital-verdorbene Mitglieder der Gesellschaft, nein, wir als Simultandolmetscher. Wir verstehen, speichern und formulieren Inhalte ja fortwährend gleichzeitig, in zwei Sprachen, und es wurden sogar schon Kollegen gesichtet, die währenddessen (!) noch Vokabeln recherchieren, Flüge buchen oder Sudoku spielen. Selbst, wenn wir gerade nicht aktiv dolmetschen, hören wir … sorry, höre ich oft mit einem Ohr dem Redner zu und schaue mit dem anderen Ohr Dinge nach, die mich interessieren, lese Zeitung oder schreibe Mails. Erst am Nachmittag reiße ich mir dann auch schon mal die Kopfhörer ab und schließe die Augen oder starre  vor mich hin.

Bei dieser Frage nach dem Monotasking bin ich vor einiger Zeit auf einen sehr interessanten Artikel gestoßen, der die umgekehrte Frage stellt: Kann der Mensch überhaupt Multitasking? Laut dort zitierter Studie sind tatsächlich weniger als drei Prozent aller Menschen  wirklich multitasking-fähig. Alle anderen hüpfen nur mehr oder minder geschickt zwischen den verschiedenen Aufgaben hin und her und büßen dabei an Leistungsfähigkeit (hier simuliertes Autofahren und Merkaufgaben mit zwischengeschalteten Rechenaufgaben) deutlich ein (Strayer and Watson 2010). Nun sind sicher weniger als 2,5 % der Weltbevölkerung Simultandolmetscher, deshalb können wir uns einfach einbilden, wir fallen alle in diese 2,5%-Gruppe. Wer es aber genau wissen möchte, für den gibt es tatsächlich einen web-basierten Test, bei dem Ihr herausfinden könnt, ob Ihr ein „supertasker“ seid oder nicht.

Nun sind wir Menschen aber nicht nur mehrheitlich nicht fürs Multitasking gemacht, nein, es beeinträchtigt uns offensichtlich auch in unserer Monotasking-Leistungsfähigkeit. In einer Studie von Ophir, Nass und Wagner 2009 zum Thema „macht Multitasking blöd“ wurden „heavy media multitaskers“ und „light media multitaskers“ verglichen und es war festzustellen, dass HMM leichter abzulenken waren, wenn sie sich auf eine Aufgabe konzentrieren sollten, gleichzeitig waren sie beim Wechseln zwischen verschiedenen Aufgaben schlechter als die LMM.

Drastischer noch drückt es Sandra Bond Chapman in ihrem Artikel Why Single-Tasking Makes You Smarter aus: „Multitasking is a brain drain that exhausts the mind, zaps cognitive resources and, if left unchecked, condemns us to early mental decline and decreased sharpness. Chronic multitaskers also have increased levels of cortisol, the stress hormone, which can damage the memory region of the brain.“

Warum tun wir uns das Multitasking denn dann überhaupt an, wenn es Stress verursacht und die geistige Leistungsfähigkeit beeinträchtigt? Ganz einfach: Neben den Stresshormonen sind auch noch die Glückshormone im Spiel. Beim Multitasking wird Dopamin ausgeschüttet, wir werden quasi für die ständige Erledigung kleiner Aufgaben belohnt. Was ein Grund dafür sein könnte, dass man sich den Stress des Multitaskings überhaupt freiwillig antut bzw. das Monotasking eventuell verlernt. Oder während des Dolmetschens Sudoku spielt.

Stellt sich die Frage, ob diese Erkenntnisse – die vorwiegend aus dem Blickwinkel des Medienkonsums zu sehen sind – sich auf das Simultandolmetschen übertragen lassen … Sucht vielleicht jemand noch ein Thema für eine Masterarbeit?

Über die Autorin:
Anja Rütten ist freiberufliche Konferenzdolmetscherin für Deutsch (A), Spanisch (B), Englisch (C) und Französisch (C) in Düsseldorf. Sie widmet sich seit Mitte der 1990er dem Wissensmanagement.