Great Piece of Research on Terminology Assistance for Conference Interpreters

Terminology Assistance Coming to a Simultaneous Interpreter Near You

Speechpool, InterpretimeBank & InterpretersHelp – the Perfect Trio for Deliberate Practice in Conference Interpreting

After testing the practice module of InterpretersHelp last month, the whole practice thing got me hooked. Whilst InterpretersHelp gives us the technical means to record our interpretation together with the original and receive feedback from peers, there are two more platforms out there which cover further aspects of the practice workflow: InterpretimeBank and Speechpool.

To start with, you need source material to interpret – which is where Sophie Llewellyn-Smith’s fabulous speechpool comes into play. Just like InterpretimeBank and InterpretersHelp, it is a platform for practicing conference interpreters. It serves for exchanging speeches suitable for this purpose, i.e. you can upload speeches you recorded yourself and listen to those others recorded. Of course, there are zillions of speeches out there on the internet. But to practice purposefully, e.g. on everyday subjects like, say, sourdough bread, or dive into more technical subjects like ballet or fracking, it is sometimes difficult to find suitable speeches in the required source language. And this is where Sophie’s great idea of pooling speeches made by interpreters for interpreters kicks in. It currently has over 200 German, Spanish and French speeches and more than 900 in English. Obviously, the whole platform only works if many people participate actively and make contributions. Technically, you upload your video on and add it to Speechpool using the YouTube url. This makes it a perfect match for InterpretersHelp, which also uses YouTube to handle the source speech videos.

Once you have found your speech to practice with, there’s InterpreTimeBank, a platform to find peer conference interpreters from all over the world to pair up with and exchange feedback. My colleague (and former student) Fernanda Vila Kalbermatten drew my attention to InterpretimeBank recently:

Es una plataforma muy recomendable para continuar con la práctica después de terminados los estudios. La mayor ventaja es que nos conecta con intérpretes en otros países, que actúan como público en consecutivas y nos pueden dar feedback sobre nuestros retours. La comunidad necesita crecer, por lo que invito a todos los intérpretes en activo a participar.

InterpreTimeBank is still in its initial phase, so the community needs to grow. Once you have found your perfect practice buddy, you can start interpreting, be it doing consecutive interpretation over the web, or exchanging your simultaneous interpretations using the fabulous practice module of InterpretersHelp and give and receive feedback using its integrated feedback function.

How much more could you ask for to keep practicing after university, brush up a language combination or just keep your skills sharp? For, as Karl Anders Ericsson puts it, an automated level of acceptable performance is not improved by just going on for years. In fact, it may even deteriorate. But that’s for next time …

About the author

Anja Rütten is a freelance conference interpreter for German (A), Spanish (B), English (C) and French (C) based in Düsseldorf, Germany. She has specialised in knowledge management since the mid-1990s.






InterpretersHelp’s new Practice Module – Great Peer-Reviewing Tool for Students and Grownup Interpreters alike

I have been wondering for quite a while now why peer feedback plays such a small role in the professional lives of conference interpreters. Whatwith AIIC relying on peer review as its only admission criterion, why not follow the logic and have some kind of a routine in place to reflect upon our performance every now and then. After having received our university degrees, we are not immune to developing bad habits or dropping in performance for the next decades to come.

In light of this I was all the more pleased to learn at Translating and the Computer 40 that InterpretersHelp had implemented a brand new practice and feedback module.

I decided to test it straight away with my students at the University of Applied Sciences in Cologne. So instead of meeting in the classroom, I had my students interpret a video at home in the InterpretersHelp practice module and send their interpretation to me for feedback. I listened to eleven complete interpretations and gave detailed feedback using the evaluation criteria and the comment function InterpretersHelp offers. (First lesson learned: Listening to eleven interpreted versions of the same speech from start to finish is a safe way to drive anyone insane.) Later we met face-to-face at the university to discuss recurring issues and general patterns in interpreting particular parts of the speech.

Here are my lessons learned from a trainer’s perspective:

– Listening to all your students‘ recordings is extremely time-consuming. Make sure you plan accordingly.
– Giving structured feedback trains your sense of analysis and helps to discover similarities and differences between your students‘ skills, strengths and weaknesses.
– The discussions in the group were much more focussed on patterns, strategies and best practice than on individual mistakes.

Feedback from my students was:

– The tool was great and intuitive to use. They also used it after our first test session to practice on their own and prepare for their exams.

Some minor technical hiccups were reported, some of which were fixed immediately by the IH team. For example, a „Pause“ button and synchronous playing/reversing/forwarding were implemented immediately after we reported that we desperately needed them. There still seems to be an imprecision in the alignment of original and interpretation track, which makes it a bit difficult to measure decalage, but chances are this will be improved in the near future. A downloadable recording file in two-track format was implemented at short notice. Loading the recording can be a bit slow depending on your hardware and internet connection, but this is being worked on. So far, the practice module only works in Google Chrome, and it cannot be used on a mobile device. For technical reasons, the choice of source videos is currently limited to YouTube. I personally would love to see integrated as a source of video material, which seems to be an option InterpretersHelp  is not averse to either.

But back to the question of peer review practice among grown-up interpreters: Why don’t we make a habit of completing one practice interpretation per language combination once a year, just like our medical check-up, and sending it to several colleagues for review? If you are shy about exposing yourself to your peers‘ criticism, you can start choosing a good speaker and an easy subject, and once you feel a bit braver you go for the super fast-speaking and mumbling techie.

I would be very interested in hearing your thoughts on this, so feel free to leave comments here or on Twitter or Facebook 🙂

About the author

Anja Rütten is a freelance conference interpreter for German (A), Spanish (B), English (C) and French (C) based in Düsseldorf, Germany. She has specialised in knowledge management since the mid-1990s.

No me canso, ganso – mis impresiones del Foro Lenguas 2019 en CDMX

En medio del desabasto de gasolina llegué a la ciudad de México para asistir al Foro Lenguas 2019 la semana pasada. En este congreso, con representación de 20 lenguas amerindias y 7 lenguas extranjeras, me lancé a la aventura para discutir la gramática, la importancia de las asociaciones profesionales y el papel que desempeñan las tecnologías en nuestra profesión.

Entre muchísimos momentos especiales e interesantes, estos fueron para mí los más inspiradores:

El día 24 de enero fue día de plenaria.

Entre muchas otras charlas interesantísimas, escuchamos la plática de Concepción Company acerca de „la comunicación eficaz y la pureza lingüística, ¿conceptos antagónicos?“ Aprendí que todos somos seres gramáticos y que muchas veces lo que consideramos correcto o incorrecto solamente constituye una valoración social: „Dime cómo hablas y te diré quién eres.“ Me recuerda mucho las discusiones que a veces tenemos los intérpretes. ¿Hay que educar al cliente y hablar „como se debe“ o „como hablan ellos“?

Y: ¿Se puede hablar en dialecto o usar regionalismos? Nos explica Concepción Compay que cuán más elevado el nivel hablado, más neutro se hace, se pierde la variación y riqueza del dialecto y del sabor local, la identidad. Me hace pensar en la cuestión de si es aceptable que los intérpretes podamos hablar con acento, o incluso en dialecto. ¿O solo si el orador mismo lo hace? ¿Se puede interpretar un dialecto con otro en el idioma meta?

Otro dato muy interesante: El bilingüismo es un estado natural. Según la fuente consultada, aunque varían mucho las cifras, parece ser que abarca a más de la mitad de la población mundial.

Me dejó muy impresionada la charla acerca de los servicios lingüísticos en situaciones de crisis con las perspectivas de Julie Burns, intérprete en The Communication Bridge, Ian Newton, director ejecutivo de InZone y Carlos Sánchez González de Rescate Internacional Topos, A.C. Además de sus vivos relatos acerca de sus experiencias en las regiones de crisis, dejaron muy claro lo diferente que es el papel que tiene un intérprete en esta situación a la de un intérprete de conferencias. Es que no hay vidrio en medio, uno se convierte en actor activo responsable que no puede „esconderse“ en la cabina.

Además, como es muy apropiado en este Año Internacional de las Lenguas Indígenas de las Naciones Unidas, escuchamos a la poeta y activista indígena mapuche (que no quiere que se le llame chilena), María Teresa Panchillo. Nos habló de su cultura, de la interacción del lenguaje, la modernidad, la tradición y me dejó impresionada por su relato tan original y genuino.

El viernes 25 de enero fue mi día de talleres, enfocado más que nada en el tema de las tecnologías. Tanto en mi propio taller como en los otros dos a los que asistí la sala estaba completamente llena.

Primero tuve el honor de tratar los temas de la preparación eficiente y la gestión de información y conocimientos con un grupo de colegas super simpáticos y muy inspirados. Fue la primera vez que di este taller en tierra americana, y además en español, con participantes de Brasil, México, EEUU y Canadá, me llevé muchas reflexiones muy interesantes. Discutimos de las particularidades de nuestro trabajo de preparación, del „ya no“ y del „ni modo“, de un poco de teoría y muchas herramientas de gestión, búsqueda y extracción de terminología. Al final mi verdadero motivo de impartir cursos – saber acerca de las opiniones e ideas de los demás – quedó más que satisfecho 🙂

Después tocó un taller acerca de las „Tecnologías disruptivas: la cadena de bloques y la traducción“ con el Dr. Miguel Duro Moreno. Nos habló de lo que la tecnología de las cadenas de bloque nos traerá a los traductores (y en parte también a los intérpretes):

  • Trabajo colaborativo y en equipo con todas las garantías de seguridad
  • Asignación de los derechos de propiedad intelectual con todas sus consecuencias en relación con la propiedad intelectual/autoría, remuneración, reputación, responsabilidad
  • Traducciones infalsificables, importante sobre todo en el ámbito jurídico
  • Contratos inteligentes tipo „if then“ (si se termina la traducción, se paga automáticamente), negociados entre computadoras/máquinas, con oferta de contrato y aceptación automática
  • Pagos seguros e inmediatos al monedero digital (celular) sin intermediarios como bancos o empresas financieras tipo paypal – la Uberización de la economía

Miguel Duro tiene previsto publicar un artículo sobre este tema en la revista Comparative Legilinguistics. Se titulará Translation quality gained through the implementation of the ISO 17100:2015 and the usage of blockchain: The case of sworn translation in Spain.

Y finalmente, asistí al taller „Terptech“ de Darinka Mangino y Maha El-Metwally. Ellas nos facilitaron una entretenida panorámica de los gadgets, programas y demás tecnologías útiles para los intérpretes, como para digitalizar notas, transcribir videos, de interpretación remota etc. Me tuve que ir en medio del taller para alcanzar mi vuelo de regreso … y me fui de México con una sensación de „No me canso, ganso. ¡Volveré prontito!“

La autora:
Anja Rütten es intérprete de conferencias autónoma para alemán (A), español (B), inglés y francés (C), domiciliada en Düsseldorf/Alemania. Se dedica al tema de la gestión de los conocimientos desde mediados de los años 1990.

What do conference interpreters‘ booth notes tell us about their information management?

First of all, a big thank you to all of you who followed my call and provided copies of their booth notes for my little study – I finally managed to collect booth notes from 25 colleagues! Now, what was this study all about? The purpose was to see what interpreters write down intuitively on a blank sheet of paper, i.e. with no given structure like a terminology database, supposing that what you find on these notes is what is really relevant in the booth. What I was interested in was

1. to see if these notes possibly confirmed what research says about knowledge management, or terminology management more in particular,

2. to check if this information can be mapped to the structures of booth-friendly terminology managmenent systems.

I was also hoping to get some inspiration about the more general question of how (or if) computers could best support conference interpreters in their work.

As the information on the notes might be confidential, the first thing I decided to do was create a mock set of notes reflecting the statistics of my sample notes:

– Average number of terminological records per set of notes: 20 (10 nouns, 4 phrases, 6 acronyms)
– Of all terminological records, 99.6% were technical or specialised terminology.
– 14 records were in one language only (2 in source language, 12 in target language), 5 records in two languages, 1 record in three and more languages.
– Non-terminological records: 6 numbers; 1 context information like names of legal acts, persons, positions; graphic illustrations (1 drawing, 1 underline)

My self-made model notes look like this:

Of all the things I observed in the notes, I was more surprised by what I did not see than by what I saw:

– Hardly any verbs and adjectives
– not really many drawings illustrating conceptual relations
– 72 % of all „terminological records“ found were made in one language only, and each interpreter wrote down terminology in one language only at least once.

Overall, it looks like the „deeper“ information about content and semantic relations is rather dealt with during preparation while information work in the booth is more about having  crucial context information and the right technical term in the target language (almost all terminological records were of technical nature). In short, this filling of personal knowledge gaps in the booth is the tip of the iceberg of a conference interpreter’s information and knowledge work. This confirms what research says, but makes me wonder whether a terminology tool that – in booth mode – displays key terms in the current target language only (possibly in word clouds) might be more efficient as a word-finding trigger than bilingual, glossary-style lists. Or is cognitive overload the only reason why simultaneous interpreters would note down their terms in one language only in the booth?

Luckily I was even able to collect one team sample, i.e. the notes of 5 interpreters working at the same conference. It was interesting to see that there was indeed some overlapping in the terms noted down and that these „shared“ terms were mainly written at the top of the respective sheets. In particular, 2 acronyms were written down by all 5 interpreters, another 2 acronyms by 4 of the 5 interpreters, and one technical term by 3 of them. Just like the complete study, this is by no means representative, but at least it indicates that it might be possible to provide key terms for certain meetings which are useful to all interpreters.

Beyond statistics and hard data, this study made me think a lot about the possible reasons that put interpreters off going paperless in the booth. It also inspired me to discuss this question with colleagues. It appears that there are several factors that tend to work better on paper than on a computer:

– Screen space: There is only so much information you can display on a computer screen. With agenda, meeting documents, glossaries and online ressources, it is hard to squeeze everything onto a display not much bigger than a regular sheet of paper.

– Exchange plattform: Simultaneous interpreters in the booth like to use a sheet of paper as a kind of exchange platform to ask for coffee, write down when to change turns and note down difficult terms, numbers etc. to support each other.

– Permanent visibility: Once written down on paper, information doesn’t usually disappear from our view easily, something that may well happen on a computer.

– Document handling: When working with different documents (original and translation of speeches, draft agreements, legislative texts), they can be arranged on a desk (if not too small) in a way to find one’s way through them and/or share them with the colleague who is busy interpreting in order to find the right page or line for her o him.

– Input: The input function of pen and paper is just very intuitive.

These were my main conclusions from this lovely little study. If you want to know all the details, I encourage you to read the full article, which was published in the Proceedings of the 40th Conference Translating and the Computer, London, UK, November 15-16, 2018, p 132-144. All the slides are also available for download.

About the author

Anja Rütten is a freelance conference interpreter for German (A), Spanish (B), English (C) and French (C) based in Düsseldorf, Germany. She has specialised in knowledge management since the mid-1990s.

Honorarkalkulator für Dolmetscher – Excel-Datei und Video Tutorials aus #aiicDfD2018

Grundhonorare, Projekthonorare, Vorbereitungshonorare – nicht immer funktionieren Tagessätze“ – laut Inés de Chavarría (der ein megagroßes Dankeschön für die Orga gebührt!) eine zentrale Erkenntnis aus den Diskussionen des AIIC-Workshops Dolmetscher für Dolmetscher 2018 in Stuttgart.  In diesem Sinne nun also ran ans Kalkulieren!

Hier zum Herunterladen im Excel-Format der Kalkulator Zeit&Geld Dolmetscher



Das kleine Einmaleins (eigentlich eher Plus und Minus) für Dolmetscher in Kurzform findet Ihr noch einmal in diesem Beitrag.
Rückmeldung und Fragen gerne über die Kommentarfunktion oder auf Twitter!
Über die Autorin:
Anja Rütten ist freiberufliche Konferenzdolmetscherin für Deutsch (A), Spanisch (B), Englisch (C) und Französisch (C) in Düsseldorf. Sie widmet sich seit Mitte der 1990er dem Wissensmanagement.

Nicht für Geld – kleines Einmaleins für Dolmetscher

Zur Einstimmung auf den bevorstehenden Dolmetscher-für-Dolmetscher-Workshop, wo es unter anderem um betriebswirtschaftliche Themen gehen wird, möchte ich heute ein paar Gedanken zu einem meiner Lieblingsthemen, dem lieben Geld, mit Euch teilen. Denn den schönsten Beruf der Welt macht man zwar nicht nur des Geldes wegen, aber ohne wäre irgendwie auch schlecht. Und wenn Dolmetscher auch alles wissen – was das Leben (und das Arbeiten) kostet, wird mitunter vergessen. Als kleine Denkhilfe also im Folgenden ein paar finanzielle Faustregeln (inspiriert durch die jahrelange Arbeit mit den „Rentabilitätern“ von AIIC Deutschland):

Regel 1: Die Untergrenze – Kosten kennen.

Wieviel Geld brauchen wir im Jahr? Grob gesprochen und ganz ungefähr

– 10.000 EUR für Altersvorsorge
– 10.000 EUR für Versicherung
– 20.000 EUR für Betriebsausgaben (Auto, Büro, IT, Fortbildungen, Verbandsbeiträge, Steuerberater, Werbung)
– 5000 EUR als Rücklage für schlechte Zeiten („Arbeitslosenversicherung“)
– 5000 EUR zum Vermögensaufbau
– 30.000 EUR „zum Leben“ einschl. Urlaub (die privaten Konsumausgaben in Deutschland lagen 2016 bei 19.000 EUR für 1 Person, 34.000 EUR für 2, 40.000 EUR für 3, 45.000 EUR für 4, 51.000 EUR für 5)
– 20.000 EUR Steuern

In Summe: 100.000 EUR Umsatz

Regel 2: Nicht die Zeit vergessen.

Bei einer 40-Stunden-Woche mit fünf Wochen Urlaub (oder Auslastungsschwankungen) und zwei Wochen Krankheit arbeitet man 1800 Stunden pro Jahr, davon etwa 600 Stunden, die nicht direkt zu einem Auftrag gehören (Verwaltung, Werbung, Netzwerken, Fortbildung). Es bleiben also rund
1200 Stunden zum Geldverdienen (sprich Dolmetschen plus Vorbereitung, Reisezeit, Warten und Bereitstehen), das macht 83,33 EUR pro produktiv gearbeiteter Stunde.

Abweichungen in beide Richtungen gibt es natürlich je nach Lebenssituation (Single vs. vierköpfige Familie) und Kostenstruktur, aber möchte man ein einigermaßen allgemeingültiges Honorar zugrunde legen, sind 85 EUR/produktiv gearbeiteter Stunde gewiss ein Wert, mit dem man bei einer überschlägigen Projektkalkulation einigermaßen verlässlich operieren kann. Ein Dolmetscheinsatz zu 850 EUR ist also rentabel, solange er einschließlich Beratung und Planung, Vorbereitung, Abwicklung und Reisezeit nicht mehr als zehn Stunden „kostet“.

Regel 3: Mehrwert kennen.

Andersherum betrachtet lässt sich das Honorar natürlich auch über den Mehrwert beziffern:
– Dieselbe Schulung kann für mehr Personen angeboten werden.
– Eine Konferenz ist für einen um ein Vielfaches größeren Teilnehmerkreis interessant.
– Kooperationen laufen glatter.
– Partner verhandeln auf Augenhöhe.
– Verzögerungen in Projektstarts werden vermieden.
– Ausländische Kunden fühlen sich besser aufgehoben,
– Mitarbeiter weltweit einem Mutterkonzern stärker verbunden.
– Neue Konzerngesellschaften werden reibungsloser eingebunden.

Kurz gesagt: Mit den drei Faktoren Kosten – Zeit – Mehrwert im Hinterkopf kann bei der Dolmetschprojektkalkulation eigentlich nichts mehr schief gehen!

Zum Nachlesen empfehle ich den Artikel der Rentabilitäts-AG von AIIC Deutschland und natürlich nach wie vor Julia Böhms legendärer Artikel Wer wird Millionär, der auch 13 Jahre nach seiner Veröffentlichung im MDÜ nicht an Relevanz eingebüßt hat.

Über die Autorin:
Anja Rütten ist freiberufliche Konferenzdolmetscherin für Deutsch (A), Spanisch (B), Englisch (C) und Französisch (C) in Düsseldorf. Sie widmet sich seit Mitte der 1990er dem Wissensmanagement.

Green Season’s Greetings | Grüne Weihnachtsgrüße | Saludos navideños verdes


Neurophysiologie des Simultandolmetschens | Neurophysiology of simultaneous interpreting – by Eliza Kalderon

+++ for English, scroll down +++

Etwa eineinhalb Jahre nach Beenden der Promotion freue ich mich über die Möglichkeit, im Blog meiner Kollegin, die das Projekt „Neurophysiologie des Simultandolmetschens: eine fMRI-Studie mit Konferenzdolmetschern“ von Anfang an voller Begeisterung und Engagement unterstützte, eines der spannendsten Ergebnisse vorstellen zu dürfen.

Die drei nachfolgenden Abbildungen stellen sogenannte Render-Bilder dar, d. h. dass die 3D-Bilder jeder einzelnen Versuchsperson zu einer Bildsynthese zusammengefasst wurden, da der wiederkehrende Wert sowie die Suche nach übereinstimmenden neuronalen Mustern in den untersuchten Leistungen im Mittelpunkt des wissenschaftlichen Interesses standen.

In den Bedingungen wurden Masken, sogenannte regions of interest (ROI), angewandt, in denen das Simultandolmetschen im Vergleich zu einer weiteren Aufgabe stand – in unserem Fall im Vergleich zum Shadowing. Durch diese Masken kann die Kalkulation der Gehirnaktivierung auf eine definierte anatomische Region eingegrenzt werden. Anhand der verwendeten Maskierung konnte also die Aktivität bestimmter Aktivierungscluster, die zum Broca- bzw. zum Wernicke-Areal gehören, bestimmt werden.

Abbildung 1 – DE>ES

In Abbildung 1 wurde die Mehraktivierung beim Simultandolmetschen aus dem Deutschen ins Spanische und das Simultandolmetschen aus dem Spanischen ins Deutsche ohne Maskierung kontrastiert, das heißt mit Abbildung der Aktivierung über das ganze Gehirn.

Beim Vergleich der Dolmetschrichtung wird die vom Simultandolmetschen aus dem Spanischen ins Deutsche hervorgerufene Gerhirnaktivierung von dem Simultandolmetschen aus dem Deutschen ins Spanische subtrahiert. Unter diesen zwei getesteten Bedingungen haben die Probanden eine Rede aus ihrer Muttersprache Deutsch in ihre aktive Fremdsprache (B-Sprache, Spanisch) gedolmetscht beziehungsweise in der anderen Bedingung eine Rede aus dem Spanischen ins Deutsche gedolmetscht. Die Abbildung zeigt, dass beim Simultandolmetschen in die spanische Sprache das Gehirn der deutschmuttersprachlichen Konferenzdolmetscher beidhemisphärisch im primären motorischen somatosensorischen Kortex aktiviert wurde.

Das bedeutet, dass deutschmuttersprachliche Dolmetscher für die Artikulation im Spanischen mehr Mundmotorik aktivieren als beim Simultandolmetschen in ihre Muttersprache. Das bedeutet wiederum, dass sie für die Performanz in der spanischen Sprache mehr Kontrolle über die Sprachmuskulatur brauchen. Zu beobachten war weiterhin eine Aktivierung im medialen superioren Frontallappen. In diesem Areal ist das strategische Denken (prospective memory, BURGESS et al. 2011) angesiedelt.

Abbildung 2 – ES>DE

In Abbildung 2 ist der umgekehrte Kontrast dargestellt, die Mehraktivierung beim Simultandolmetschen aus dem Spanischen ins Deutsche, das heißt, von der neuronalen Aktivität beim Simultandolmetschen aus dem Spanischen ins Deutsche wurde die neuronale Aktivität aus dem Deutschen ins Spanische subtrahiert. Sie zeigt eine Aktivierung des inferioren Temporallappens, in dem visuelle Informationen verarbeitet werden.

Es ist auch die Aktivierung eines Areals im medialen präfrontalen Kortex zu beobachten, der mit dem prospektiven Denken in Verbindung gebracht wird (vgl. BURGESS et al. 2011). Dort legt man sich Handlungsstrategien zurecht. Bei der Verdolmetschung ins Spanische sind sie sprachlich-motorischer Natur (beansprucht wird also das motorische Arbeitsgedächtnis; ein analoges Ergebnis findet sich bei TOMMOLA et al. 2000: 162).

Abbildung 3 stellt eine Zusammenfassung der beiden vorherigen Abbildungen dar. Hier wurde das Simultandolmetschen in beide Sprachrichtungen in einem Bild gegenübergestellt. Die rot markierten Areale stellen die Mehraktivierung beim Simultandolmetschen aus dem Deutschen ins Spanische dar, die blauen das Simultandolmetschen vom Spanischen ins Deutsche.

Abbildung 3 – Vergleich

Wie man sieht, wurden beim Simultandolmetschen ins Spanische besonders die motorischen Areale beansprucht. In der umgekehrten Sprachrichtung dominieren eine rechtsseitige Aktivierung im inferioren Temporallappen sowie ein aktiviertes Cluster im medialen Präfrontalkortex.

Diese Bilder lieferten uns ein überraschendes und unerwartetes Ergebnis: Dass selbst das trainierte Gehirn von Konferenzdolmetschern eine immense Menge an Kapazitäten für die Artikulation in der Fremdsprache benötigt.

Wer das komplette Studiendesign sowie alle Ergebnisse nachlesen möchte, kann gerne den folgenden frei zugänglichen Link anklicken.

Und last, but not least, möchte ich mich noch einmal bei Anja Rütten und all den Kolleginnen und Kollegen herzlich bedanken, dass sie die lange Fahrt nach Homburg (Saar) auf sich genommen haben, um die Studie und die beeindruckenden Ergebnisse zu ermöglichen.

+++ English version +++

About one and a half years after the project’s completion, I am particularly pleased to present one of the most fascinating results of my doctoral research about neurophysiological processes in simultaneous intepreting on the blog of my colleague, who provided enthusiastic and committed support to this research project from the outset.

The three images below are what is referred to as “render images”: They represent a 3D synthesis of each individual subject in a single image as this research primarily focussed on recurring values and identifying neuronal patterns in the performance analysed.

Masks were applied to the different tasks to outline what is known as regions of interest (ROI). This served to contrast simultaneous interpreting and a second task – shadowing in our case. With the help of these masks, it became possible to limit the calculation of brain activation to a defined anatomic region. This allowed to specify the attribution of an activation and its localisation. It was thus possible to determine the activity outlined after masking of certain activation clusters attributed to Broca’s area or Wernicke’s area.

Figure 1 – DE>ES

Figure 1 shows the contrast in activation between simultaneous interpreting from German into Spanish and simultaneous interpreting from Spanish into German without masking. In other words, it shows the activation of the entire brain.

For a comparison of interpreting directions, the brain activation caused by simultaneous interpreting from Spanish into German was subtracted from that caused by simultaneous interpreting from German into Spanish. In the two tested settings, the subjects were asked to interpret a speech from their mother tongue (German) into their active working language (“B language”, Spanish) and, for the reverse setting, from Spanish into German. The image shows bi-hemispheric activation of the primary motor somatosensory cortex of the brain of a German native conference interpreter when interpreting into Spanish.

This implies that a German native conference interpreter requires stronger activation of mouth movement when articulating in Spanish than when simultaneously interpreting into their mother tongue. This in turn implies that they need stronger control of the muscles in their vocal tracts for a performance in Spanish. Furthermore, activation in the medial superior frontal lobe was observed. This is the area were strategic thinking (prospective memory BURGESS et al. 2011) is located.

Figure 2 – ES>DE

Figure 2 shows the reverse contrast, namely the stronger activation linked to simultaneous interpreting from Spanish into German. This is the result of subtracting the neuronal activity related to German into Spanish from the neuronal activity caused by interpreting from Spanish into German. It illustrates an activation of the inferior temporal lobe which is where visual input is processed.

We can observe an activation of the medial prefrontal cortex, which is associated with prospective memory (BURGESS et al. 2011). This area is responsible for developing strategies for action. These strategies are of motor-linguistic nature when interpreting into Spanish (it is the motor working memory which is responsible; TOMMOLA et al. 2000:162 draw similar conclusions).

The final image summarises the two previous images. It contrasts the process of simultaneous interpretation in both language directions. Areas marked in red represent stronger activation during simultaneous interpretation from German into Spanish. Areas in blue mark simultaneous interpreting from Spanish into German.

Figure 3 – Comparison

It is evident that simultaneous interpreting into Spanish particularly engages the motor brain areas. The dominant activation areas in the reverse language direction are in the right inferior temporal lobe and a cluster in the medial prefrontal cortex.

These images provided a surprising and unexpected finding: Even a practiced conference interpreter uses large amounts of capacity for articulating in the foreign language.

If you are interested in reading the complete research design and all other findings, you are welcome to follow this link (free access).

Last but certainly not least I would like to thank Anja Rütten and all other colleagues for taking the long journey to Homburg (Saar) to participate in this experiment and making these impressive results possible.


BURGESS, B.W.; GONEN-YAACOVI, G.; VOLLE, E. (2011): „Functional neuroimaging studies of prospective memory: What have we learnt so far?”. Neuropsychologia 49. 2246-2257
TOMMOLA, J.; LAINE, M.; SUNNARI, M.; RINNE, J. (2000): „The translating brain: cerebral activation patterns during simultaneous interpreting”. Neuroscience Letters 294(2). 85-88

Macht mehr Monotasking?

Ich kann es ja eigentlich nicht mehr hören: „Wir fummeln viel zu oft an unseren Handys herum! Wir sind immer abgelenkt. Wir müssen mal wieder ein Buch umarmen! Und in ein Geschäft gehen!“ Hallo? WIR sind erwachsen und lieben Computer und Handys auch, weil sie einen Ausknopf haben. Den haben nämlich weder Aktenberge noch vollgestopfte Schaufenster oder Fußgängerzonen. Also.

Eine Frage in dieser Wir-sind-viel-zu-abgelenkt-Diskussion finde ich allerdings doch interessant: Können wir chronischen Multitasker denn überhaupt Monotasking? Nicht wir im Sinne von digital-verdorbene Mitglieder der Gesellschaft, nein, wir als Simultandolmetscher. Wir verstehen, speichern und formulieren Inhalte ja fortwährend gleichzeitig, in zwei Sprachen, und es wurden sogar schon Kollegen gesichtet, die währenddessen (!) noch Vokabeln recherchieren, Flüge buchen oder Sudoku spielen. Selbst, wenn wir gerade nicht aktiv dolmetschen, hören wir … sorry, höre ich oft mit einem Ohr dem Redner zu und schaue mit dem anderen Ohr Dinge nach, die mich interessieren, lese Zeitung oder schreibe Mails. Erst am Nachmittag reiße ich mir dann auch schon mal die Kopfhörer ab und schließe die Augen oder starre  vor mich hin.

Bei dieser Frage nach dem Monotasking bin ich vor einiger Zeit auf einen sehr interessanten Artikel gestoßen, der die umgekehrte Frage stellt: Kann der Mensch überhaupt Multitasking? Laut dort zitierter Studie sind tatsächlich weniger als drei Prozent aller Menschen  wirklich multitasking-fähig. Alle anderen hüpfen nur mehr oder minder geschickt zwischen den verschiedenen Aufgaben hin und her und büßen dabei an Leistungsfähigkeit (hier simuliertes Autofahren und Merkaufgaben mit zwischengeschalteten Rechenaufgaben) deutlich ein (Strayer and Watson 2010). Nun sind sicher weniger als 2,5 % der Weltbevölkerung Simultandolmetscher, deshalb können wir uns einfach einbilden, wir fallen alle in diese 2,5%-Gruppe. Wer es aber genau wissen möchte, für den gibt es tatsächlich einen web-basierten Test, bei dem Ihr herausfinden könnt, ob Ihr ein „supertasker“ seid oder nicht.

Nun sind wir Menschen aber nicht nur mehrheitlich nicht fürs Multitasking gemacht, nein, es beeinträchtigt uns offensichtlich auch in unserer Monotasking-Leistungsfähigkeit. In einer Studie von Ophir, Nass und Wagner 2009 zum Thema „macht Multitasking blöd“ wurden „heavy media multitaskers“ und „light media multitaskers“ verglichen und es war festzustellen, dass HMM leichter abzulenken waren, wenn sie sich auf eine Aufgabe konzentrieren sollten, gleichzeitig waren sie beim Wechseln zwischen verschiedenen Aufgaben schlechter als die LMM.

Drastischer noch drückt es Sandra Bond Chapman in ihrem Artikel Why Single-Tasking Makes You Smarter aus: „Multitasking is a brain drain that exhausts the mind, zaps cognitive resources and, if left unchecked, condemns us to early mental decline and decreased sharpness. Chronic multitaskers also have increased levels of cortisol, the stress hormone, which can damage the memory region of the brain.“

Warum tun wir uns das Multitasking denn dann überhaupt an, wenn es Stress verursacht und die geistige Leistungsfähigkeit beeinträchtigt? Ganz einfach: Neben den Stresshormonen sind auch noch die Glückshormone im Spiel. Beim Multitasking wird Dopamin ausgeschüttet, wir werden quasi für die ständige Erledigung kleiner Aufgaben belohnt. Was ein Grund dafür sein könnte, dass man sich den Stress des Multitaskings überhaupt freiwillig antut bzw. das Monotasking eventuell verlernt. Oder während des Dolmetschens Sudoku spielt.

Stellt sich die Frage, ob diese Erkenntnisse – die vorwiegend aus dem Blickwinkel des Medienkonsums zu sehen sind – sich auf das Simultandolmetschen übertragen lassen … Sucht vielleicht jemand noch ein Thema für eine Masterarbeit?

Über die Autorin:
Anja Rütten ist freiberufliche Konferenzdolmetscherin für Deutsch (A), Spanisch (B), Englisch (C) und Französisch (C) in Düsseldorf. Sie widmet sich seit Mitte der 1990er dem Wissensmanagement.