Will 3D audio make remote simultaneous interpreting a pleasure?

Now THAT’S what I want: Virtual Reality for my ears!

Apparently, simultaneous interpreters are not the only ones suffering from Zoom fatigue, i.e. the confusion and inability to physically locate a speaker using our ears can lead to a condition that’s sometimes referred to as “Zoom Fatigue”. But it looks like there is still reason to hope that, acoustically, video conferences become more of a pleasure and less of an ordeal in years to come. At least that’s what current discussions around this topic make me hope … This (four year old!) video by BBC Click illustrates quite nicely what 3D sound for headphones is about:

https://www.youtube.com/watch?v=51za5u3LtEc&feature=youtu.be

Binaural recording is a method of recording sound with the intent to create an immersive 3D stereo sound sensation for the listener of actually being in the room with the performers. A dummy head, aka „Kunstkopf“, is used for recording, which has two dummy ears in the shape of human ears with microphones in them so as to simulate the perception of the human ear. Sound recorded via binaural recording is intended for replay using headphones. And the good thing is: What was originally made for the gaming and movie industry is now also bound to conquer the video conferencing market.

Mathias Johannson, the CEO of Dirac, is rather confident In less than a decade, 3D audio over headsets with head-tracking capabilities will allow us to have remote meetings in which you can move about an actual room, having sidebar discussions with one colleague or another as you huddle close or step away. What is more, Johannson reckons that spatial audio could be made available to videoconference users early in 2021. Dirac wants to offer 3D audio technology to video chat platforms via an off-the-shelf software solution, so no expensive hardware would be required. Google, on the other hand, already advertises its Google Meet hardware for immersive sound. But from what we have learned six months into Covid-19, it is difficult even to persuade participants to wear a cabled headset (not to mention using an ethernet cable instead of a wifi connection), I am personally not too optimistic that expensive hardware is the way forward to high-quality remote simultaneous interpretation.

So, will such a software-based solution possibly not only provide a more immersive meeting experience but also be able to provide decent sound even without remote participants connected from their home offices having to use special equipment, i.e. headsets? I asked Prof. Jochen Steffens, who is a sound and video engineer, for his opinion. The answer was rather sobering regarding equipment: For 3D audio, a dry and clean recording is required, which at the moment is not possible using built-in microphones. Equipment made for binaural recording, however, would not really serve the purpose of simultaneous interpreting either, as the room sound would actually be more of a disturbance for interpreting. Binaural recording is rather made for recording the sound of real threedimensional sound impressions like in concert halls and the like. For video conferencing, rather than headsets, Steffens recommends using unidirectional microphones; he suggests, for example, an inexpensive cardioid large-diaphragm microphone, mounted on a table stand. And the good news: If you are too vain to wear a headset in video conferences, with decent sound input being delivered by a good microphone, any odd wireless in-ear earphones can be used for listening, or even the built-in speakers of your laptop as long as you turn them off while speaking.

But what about the spatial, immersive experience? And how will a spatial distribution of participants happen if, in fact, there is no real room to match the virtual distribution to? As Prof. Steffens explained to me, once you have a good quality sound input, people can indeed be mapped into a virtual space, e.g. around a table, rather easily. The next question would be if, in contrast to the conference participants, we as interpreters would really appreciate such a being-in-the-room experience. While this immersion could indeed allow for more situational awareness, we might prefer to always be acoustically positioned right in front of the person who is speaking instead of having a „round table“ experience. After all, speakers are best understood when they are placed in front of you and both ears get an equally strong input (the so-called cocktail party effect of selectively hearing only one voice works best with binaural input). And this would, by the way, nicely match a close front view of the person speaking.

And then, if ever video conferencing can offer us a useful immersive experience, couldn’t it even end up being more convenient than a „normal“ on-site simultaneous interpreting setting? More often than not, we are rather isolated in our booths with no more than a poor view of the meeting room from a faraway/high above/hidden-next-door position. So much so that I am starting to wonder if 3D audio (and video, for that matter) could also be used in on-site conference rooms. According to Prof. Steffens, this would be perfectly feasible by „simply“ using sound engineering software.

But then the next question arises: While simultaneous interpreters used to be „the voice in your ear“, they might now be assigned a position in the meeting space … the voice from above, from behind (like in chuchotage), or our voices could even come from where the speaker is sitting who is being interpreted at the moment. Although for this to happen, the speaker’s voice would have to be muted completely, which might not be what we want. Two voices coming from the same position would be hard to process for the brain. So the interpreter’s voice would need to find its own „place in space“ after all – suggestions are welcome!


About the author

Anja Rütten is a freelance conference interpreter for German (A), Spanish (B), English (C) and French (C) based in Düsseldorf, Germany. She has specialised in knowledge management since the mid-1990s.

 

 

 

 

 

Ein Hoch auf den guten Ton beim hybriden #DfD2020 | Good sound and vibes at Interpreters for Interpreters Workshop

+++ for English version see below +++

In einer Mischung aus ESC („Hello from Berlin“) und Abiprüfung (getrennte Tische) hat am heutigen 18. Juli 2020 der bislang teilnehmerstärkste Dolmetscher-für-Dolmetscher-Workshop als Hybridveranstaltung in Bonn stattgefunden.

169 Dolmetscher*innen waren angemeldet, davon 80 Dolmetscher corona-konform persönlich vor Ort. Dies alles organisiert vom Fortbildungs-Dreamteam der AIIC Deutschland, Inés de Chavarría, Ulla Schneider und Fernanda Vila Kalbermatten, technisch möglich gemacht durch das bewährte Team von PCS.

Lisa Woytowicz hat über ihre Masterarbeit zum Thema Listening Styles referiert. Relational Listening scheint ein unter Dolmetschern unterschätztes Thema zu sein (dazu mehr später auf diesem Kanal).

Monika Ott über den Umgang mit Kunden gibt uns noch einmal als Hausaufgabe auf, uns als Allround-Dienstleister (Conference Interpreting Service Provider laut der noch in Entwicklung befindlichen ISO 23155) zu verstehen und unser Netzwerk zu nutzen, um auf Kompetenzen von Kolleg*innen zugreifen zu können. Denn nur gemeinsam können wir die eilerlegende Wollmilchsau sein: RSI-Plattformen, Hubs, Hardware, Terminologiemanagement, Finanzen, Datenschutz.

Dr. Karin Reithofer hat uns das Thema Englisch als Lingua Franca sehr anschaulich nahegebracht. In ihrer Forschungsarbeit hat sie herausgefunden, dass das Verständnis eines gedolmetschten Fachvortrags (monologisches Setting) signifikant besser ist als das Verständnis bei der Kommunikation in nicht-muttersprachlichem Englisch. In Dialogsituationen hingegen kann nicht-muttersprachliches Englisch durchaus funktionieren. Auch interessant: Wenn ein Nicht-Muttersprachler Englisch spricht, fällt es uns leichter, ihn zu verstehen bzw. zu dolmetschen, wenn wir die Muttersprache dieses Redners kennen.

Gemeinsam mit Alex Drechsel aus dem „Studio Brüssel“ durfte ich dann im Hybridformat unseren subjektiven Saisonrückblick präsentieren und diskutieren:

Das Thema Hub oder Heimdolmetschen haben wir weitestgehend ausgeklammert. Meine Gedanken aus Prä-Corona-Zeiten nach dem RSI-Seminar im Mai 2019 finden sich im Blogbeitrag zu Hub or Home.

Was mir dabei neben dem Thema Geld aktuell am meisten umtreibt, ist die Frage, was wir tun, wenn der Ton der Wortbeiträge zu schlecht ist, um simultan zu dolmetschen. Hier wünsche ich mir von uns allen ein souveränes und nouanciertes Vorgehen, das über „das kann nicht gedolmetscht werden“ hinausgeht.

Ein Vorschlag zum Thema „Was tun bei schlechtem Ton“:

  1. Ein technischer Co-Host oder „Event-Koordinator“, wie PCS es nennt, überwacht die Tonqualität und greift moderierend ein, wenn nicht mehr simultan gedolmetscht wird. Diese Entscheidung sollte zentral durch eine Person für das ganze Dolmetschteam getroffen werden.
  2. Dann bei einigermaßen brauchbarem Ton: auf Konsekutivdolmetschen umstellen.
  3. Wenn keine Tonübertragung mehr möglich: Beiträge aus dem Chat dolmetschen.

Grundsätzlich gut: Während der virtuellen Sitzung einen Hinweis für die Teilnehmer einblenden, dass remote gedolmetscht wird.

Abschließend wurde unser AIIC-Präsident Uroš Peterc zugeschaltet, der mit seiner Bewertung der Lage den DfD würdig abgerundet hat. Er erwartet, dass das sehr diverse Angebot an RSI-Plattformen und Hubs sich sortieren wird. Trotz der Planungsunsicherheit sieht er die AIIC in der Pflicht, nicht nur zu reagieren, sondern zu agieren. Ein besseres Saisonfazit könnte ich nicht formulieren.

————————
Über die Autorin:
Anja Rütten ist freiberufliche Konferenzdolmetscherin für Deutsch (A), Spanisch (B), Englisch (C) und Französisch (C) in Düsseldorf. Sie widmet sich seit Mitte der 1990er dem Wissensmanagement.


+++ English version +++

Disclaimer: This blog post was written by a non-native ELF speaker ;-).

What seemed like a mixture of the European Song Contest („Hello from Berlin“) and end-of-term exams (with tables set up far apart) was in fact the first ever hybrid edition of the annual Interpreters for Interpreters Workshop.

On 18 July 2020, 169 interpreters (a record high!) had registered for this IfI workshop in Bonn. 80 of us were there on-site, with strict hygiene measures in place, while the others were connected via Zoom. All this had been organised by a fantastic org team consisting of Inés de Chavarría, Ulla Schneider and Fernanda Vila Kalbermatten, while the technical setup was in the experienced hands of PCS.

The first speaker was Lisa Woytowicz, she presented her master’s thesis about Listening Styles. It looks like Relational Listening isn’t exactly what interpreters are best at … but we will read more about it on this blog soon.

Monika Ott reminded us to be all-round service providers to our customers (CISP, Conference Interpreting Service Providers according to ISO 23155, which is still under development) and use our network to draw upon the expertise of our colleagues. For if we join forces, we can cover the whole range of service and advice needed: RSI platforms, hubs, hardware, terminology management, pricing, data protection etc.

Dr Karin Reithofer told us what we need to know about English as a Lingua Franca (ELF).  Her research has shown that in monologue settings, technical presentations are significantly better understood when people speak their mother tongues and use interpretation than when they communicate in non-native English. In dialogues, however, non-native (“ELF“) English may work as well. What’s also interesting: When interpreting non-native English speakers, it is easier for us to understand them if we know their mother tongues.

Alex Drechsel and I then gave our “hybrid“ review of the past – and first ever – virtual  interpreting season, me on-site, and Alex from „Studio Brussels“:

The hub vs. home discussion was left aside in our review. It has been largely discussed already (see my pre-Covid blog article Hub or Home). The main points that keep my mind busy after this virtual interpreting season are money and sound quality.

As to the latter, I would like to see a nuanced way of dealing with situations where sound quality is not sufficient for simultaneous interpreting. I would like us to be more constructive and go beyond the usual black and white approach, i.e. either keep interpreting or stop interpreting.

My suggestion for a professional way of handling poor sound situations:

  1. Have a technical co-host or event coordinator, like PCS put it, monitor sound quality, and intervene as a moderator when sound is too poor for simultaneous interpretation. The decision of when to stop interpreting should be in the hands of one person for the whole team.
  2. If sound quality allows for it: switch to consecutive interpreting.
  3. If not: Have participants type in the chat and do sight translation.

I also like the idea of displaying a disclaimer to the meeting participants in videoconferences, stating that the meeting is being interpreter remotely.

Finally, our AIIC president, Uroš Peterc, joined us via Zoom. His view of the current situation perfectly rounded off the day. He expects the vast offer of RSI platforms and hubs to consolidate over time. In these times of uncertainty, he wants AIIC not only to react to market developments but to be a proactive player. I couldn’t have put it better myself.


About the author

Anja Rütten is a freelance conference interpreter for German (A), Spanish (B), English (C) and French (C) based in Düsseldorf, Germany. She has specialised in knowledge management since the mid-1990s.

You can never have too many screens, can you?

I don’t know about you, but I sometimes struggle, when using my laptop in the booth, to squeeze the agenda, list of participants,  glossary, dictionary, web browser and meeting documents/presentations onto one screen. Not to mention email, messenger or shared notepad when working in separate booths in times of COVID-19 … Or even the soft console of your RSI provider?

Well, I have more than once found myself wondering if anybody would mind me bringing my 24 inch desktop monitor to the booth to add some additional screenspace to this tiny 12 inch laptop screen – until, finally, I came across a very useful little freeware application called spacedesk. It lets you use your Android, iOS or Windows tablet as an external monitor to complement your Windows computer quite easily (to all tablet aficionados: unfortunately it does not work the other way around). You simply install it on both your main Windows device, the „server“ or „Primary Machine“, and the tablet as a „client“ or „secondary device“, and you can connect both devices via USB, ethernet or WiFi and then  use your tablet to either extend or duplicate your computer screen just like you do it with any external monitor on your desk.

There is just a tiny delay when moving the mouse (if that’s not due to my low-end tablet’s poor performance), so it might be better to move the more static elements, like the agenda, to it rather than your terminology database, which you might want to handle very swiftly.

So if ever you feel like going back to printing your documents for lack of screen space, bringing your tablet as a screen extension might be a good alternative.


About the author

Anja Rütten is a freelance conference interpreter for German (A), Spanish (B), English (C) and French (C) based in Düsseldorf, Germany. She has specialised in knowledge management since the mid-1990s.

 

Simultaneous interpreting in the time of coronavirus – Boothmates behind glass walls

Yesterday was one of the rare occasions where conference interpreters were still brought to the client’s premises for a multilingual meeting. Participants from abroad were connected via a web meeting platform, while the few people who were on-site anyway were sitting at tables 2 meters apart from each other. But what about the interpreters, who usually share a booth of hardly 2 x 2 m, and who are not exactly known for their habit of social distancing in the first place? Well, PCS, the client’s conference technology provider of choice, came up with a simple, yet effective solution: They just split up the teams and gave us one booth each. So there we were, my colleague Inés de Chavarría and I, spreading our stuff in our private booths, separated by no more than a window.

Separate booths

Now, apart from having to bring our own food (no catering available), by the time we met in the morning of this meeting, we had already figured out which would probably be the main challenges of being boothmates while separated by a glass wall:

1 How do we agree on when to take turns?

2 How do we help each other by writing down numbers, names and difficult words?

3 How do we tell each other that we want coffee/are completely knackered/need to go to the loo, complain about the sound/accent/temperature/chairman’s haircut or ask how the kids are?

Luckily, after an exciting day, we felt that we had found great solutions to all our communicative needs:

1 Taking over: Although the colleague who was not working couldn’t listen to the original and the interpretation at the same time, she could tell quite reliably from gestures and eye-contact when to take over. So, no countdown or egg timer needed as long as you can see each other.

2 Helping out – These were the options we tried:

Write down things with pen and paper, show it through the window: Rather slow and hard to read due to reflections from the booth windows. The same goes for typing on the computer and looking at the screen through the window.

Scribbling in a shared file in Microsoft Whiteboard (great), One Note (ok), Google Drawings (a bit slow and unprecise): Fine as long as all parties involved have a touchscreen and decent pen. Sometimes hard to read, depending on the quality of the pen/screen and handwriting.

Typing in a shared file like Google Sheets or Docs: This was our method of choice. The things we typed appeared on the other’s screen in real-time, plus it was perfectly legible, in contrast to some people’s handwriting. A perfect solution as long as there is decent Wifi or mobile data connection. And although I am usually of the opinion that there is no such thing as a decent spreadsheet, in this case, a plain word processing document has one clear advantage: When you type in Google Docs, each character you type will appear on your colleague’s screen practically in real-time, whereas when typing in the cell of a Google Sheet, your colleague won’t be able to see it until you „leave“ this cell and jump to the next one.

3  The usual chitchat:

WhatsApp, or rather the WhatsApp Web App, was the first thing we all spontaneously resorted to for staying in contact with a glass wall between us. But it quickly turned out to be rather distracting, with all sorts of private messages popping up.

Luckily, all Google documents come with a chat function included, so we had both our meeting-related information exchange and our personal logistics neatly displayed next to each other in the same browser window.

If we had worked with many different documents that needed to be managed while interpreting, I would have liked to try Microsoft Teams. With its chat function and shared documents, among other features, it seems very promising as a shared booth platform. But their registration service was down due to overload anyway, so that’s for next time.

So, all in all, a very special experience, and rather encouraging thanks to the many positive contributions from all people involved. And the bottom line, after having to accommodate on my laptop screen the booth chat and notes next to the usual glossary, online resources, agenda and meeting documents: My next panic purchase will be a portable touchscreen in order to double my screen space in the booth.


About the author

Anja Rütten is a freelance conference interpreter for German (A), Spanish (B), English (C) and French (C) based in Düsseldorf, Germany. She has specialised in knowledge management since the mid-1990s.

 

 

Remote Simultaneous Interpreting … muss das denn sein – und geht das überhaupt?!

In einem von AIIC und VKD gemeinsam organisierten Workshop unter der Regie von Klaus Ziegler hatten wir Mitte Mai in Hamburg die Gelegenheit, diese Fragen ausführlich zu ergründen. In einem Coworkingspace wurde in einer Gruppe organisierender Dolmetscher zwei Tage lang gelernt, diskutiert und in einem Dolmetschhub das Remote Simultaneous Interpreting über die cloud-basierte Simultandolmetsch-Software Kudo ausprobiert.

Zur Einstimmung haben wir uns zunächst vergegenwärtigt, worüber denn nun eigentlich genau reden, denn in der ISO-Norm 20108 wird begrifflich folgendermaßen unterschieden:

Distance Interpreting (interpreting of a speaker in a different location from that of the interpreter, enabled by information and communications technology): Dieser Begriff des “Ferndolmetschens” umfasst alle Szenarien, bei der einer der Kommunikationsteilnehmer sind nicht im gleichen Raum wie die anderen befindet. Dies kann unter anderem bedeuten, dass einfach ein Sitzungsteilnehmer per Videokonferenz zugeschaltet wird oder man beim Kunden sitzt und ein Telefonat dolmetscht.

Das Remote Interpreting, um das es hier gehen soll, ist eine „Unterart“ des Distance Interpreting. Es bedeutet, dass die Dolmetscher remote sind, sei es im Nebenraum oder an einem ganz anderen geographischen Ort. Dabei kann durchaus sein, dass darüber hinaus auch die Teilnehmer an unterschiedlichen Orten sind (full remote).

Viele technische Fragen zum Remote Interpreting, etwa zu den Anforderungen an die Übertragungsqualität, hat Tatiana KAPLUN im November 2018 in ihrem tollen Blogbeitrag „A fresh look at remote simultaneous interpreting“ über das RSI-Seminar von AIIC Netherlands dargestellt – sehr lesenswert.

Was mich und viele andere Teilnehmer allerdings neben abgesehen von der technischen Umsetzbarkeit (wie gut sind die RSI-Softwarelösungen? Wo gibt es einen Premium-Hub, wie wir ihn uns wünschen?) am Ende des ersten Tages umtrieb, war die Frage, welche Remote-Simultan-Lösung für unseren Kunden in welchem Fall die beste ist. Wir hatten unzählige kritische Aspekte diskutiert, die jeweils für das Remote-Dolmetschen in gut erreichbaren Dolmetsch-Hubs oder die cloudbasierte RSI-Software am eigenen Rechner sprechen. Und da ich meine, nichts geht über eine knackige Entscheidungsmatrix, habe ich versucht, in einer Tabelle zusammenzufassen, welche Vorteile die jeweiligen Lösungen bieten:

Hub

(an einem zentralen Ort dauerhaft installierte Dolmetschkabinen mit RSI-Software und stabiler und sicherer Internetverbindung)

Home

(Simultandolmetschen mittels cloud-basierter Software; Nutzung von Rechner, Kopfhörer, Mikrofon und Internetverbindung des Dolmetschers)

Vertraulichkeit Bei Sorge vor Industriespionage bzw. entsprechenden IT-Sicherheitsstandards sind öffentliche, cloud-basierte Lösungen für viele Unternehmen problematisch;

Hub mit sicherer Verbindung/eigener oder externer geschützter Serverstruktur sinnvoll

Werden keine vertraulichen Informationen ausgetauscht bzw. wird ohnehin seitens der Teilnehmer mit offenen Systemen/unkontrollierten Zugangspunkten gearbeitet (Privatrechner, Heimbüro), ist eine sichere Verbindung weniger entscheidend
Verlässlichkeit Wenn bei technischem Ausfall hohe Kosten oder große Probleme entstehen; Hubs können eher zwei oder drei Internetverbindungen vorhalten und so einen Verbindungsausfall praktisch ausschließen Wenn ein technischer Ausfall keine größeren Kosten/Probleme verursacht und die Teilnehmer evtl. auch mit wenig verlässlichen Systemen arbeiten; die wenigsten Dolmetscher halten in Ihrem Büro einen redundanten zweiten Internetanschluss vor
ISO-ähnliche Übertragungsqualität und Arbeitsumgebung Einwandfreie Übertragungsqualität (Frequenzband, Latenz, Lippensynchronität) notwendig, wenn störungsfreie, “unbemerkte” Verdolmetschung erforderlich Suboptimale Übertragungsqualität kann dazu führen, dass häufiger Rückfragen notwendig sind, Inhalte verloren gehen, Pausen notwendig sind; akzeptabel v.a. bei Einsätzen von kurzer Dauer bzw. Intensität
Zeit Zeitersparnis nur, wenn Dolmetscher in Hubnähe verfügbar; Vorteil: Hub ist immer einsatzbereit Praktisch bei kurzfristiger Terminierung, vor allem, wenn Dolmetscherpool vorhanden, so dass gegenseitige Vertretung möglich ist – Achtung: Technikchecks, Stand- und Wartezeiten evtl. trotzdem berücksichtigen
Kosten Vorteilhaft ist, wenn Dolmetscher in Hub-Nähe wohnen (bzw. näher am Hub als am Kunden) Praktisch wenn Dolmetscher weder in Hub- noch in Kunden-Nähe
Logistik Praktisch, wenn die Sitzungsteilnehmer an Firmenstandorten mit Hub-ähnlichen Bedingungen sind (Übertragungstechnik vorhanden) Praktisch, wenn Teilnehmer an beliebigen Orten auf dem Globus verteilt sind und/oder beliebig viele Zuhörer mit eigenen Geräten zuhören sollen (BYOD)

 

Zusammenarbeit Im Hub ist Teamarbeit in der Kabine wie in Präsenzveranstaltungen möglich Mikrofonübergabe, Unterstützung (Zahlen/Namen notieren, Terminologierecherche) und Abstimmung erschwert, Blickkontakt muss durch Softwarefunktionen simuliert werden

Neue Perspektiven

Vergleicht man die unterschiedlichen Aspekte, wird klar, dass das Dolmetschen aus einem Hub tendenziell eher die Bedingungen des konventionellen Konferenzdolmetschens abbildet bzw. abzubilden in der Lage ist – wenn dies auch bei Weitem nicht immer gilt. So wäre ein vollständig ohne Konferenzraum, rein virtuell abgehaltenes Event durchaus sinnvoll aus einem Hub zu dolmetschen und in eine „normale“ Präsenzveranstaltung könnten Dolmetscher (wie Teilnehmer) cloud-basiert aus allen Teilen der Welt hinzugeschaltet werden. Klar wird dennoch, dass Veranstaltungen, die aktuell nicht simultan gedolmetscht werden, durch Remote-Technik dafür nun eher in Frage kommen – so etwa Webinare oder informelle Besprechungen zwischen größeren Sitzungen  internationaler Gremien.

Der Praxistest

Am interessantesten und unterhaltsamsten war natürlich der Praxistest. In verteilten Rollen konnten alle Teilnehmer in die Rolle des Redners, Dolmetschers und Zuhörers schlüpfen und alle Perspektiven kennenlernen.

Remote-Simultandolmetschen im Hub

Das Kabinen-Feeling war dabei im ersten Moment ganz normal und gewohnt, mit der Benutzeroberfläche hatten wir uns alle schnell vertraut gemacht. Das Bedienen der „Knöpfe“ für Mikrofon, Räuspertaste und Lautstärke am Bildschirm erfordert dabei ein wenig Übung english college. Nicht, dass man nicht in der Lage wäre, mit der Maus einen Schieber zu bedienen – aber das blinde Drücken von ertastbaren Knöpfen, ohne das Sitzungsgeschehen oder den Redner dabei aus dem Auge lassen zu müssen, empfanden die meisten – eventuell auch aus Gewohnheit – als weniger aufmerksamkeitsraubend. Spannend war auch das Ausprobieren verschiedener Kopfhörer, Mikrofone und Betriebssysteme, was zu teils erheblichen Unterschieden in der übertragenen Lautstärke führte.

Da wir im Hub miteinander in den Kabinen saßen, wurde nicht ausprobiert, wie man ohne Blickkontakt das Mikrofon abgibt. Einen Übergabebutton hat Kudo nicht, im Gegensatz zu anderen RSI-Programmen. die teils recht pfiffige Lösungen hierfür bieten.

Zuhörer-Benutzeroberfläche (Android) von Kudo

Das Zuhören am eigenen Smartphone funktionierte bis auf die genannten Lautstärkeprobleme recht gut. Die noch ungeklärte Frage war eher: Was passiert, wenn 50, 100 oder 1000 Veranstaltungsteilnehmer ihr own device bringen und nach einem halben Tag des Zuhörens alle gleichzeitig ihren Akku laden müssen? First world problems, würde man sagen, bringt aber ganz gut auf den Punkt, mit welchem Eindruck mich ein spannendes und intensives RSI-Seminar zurücklässt: Tolle Chancen, faszinierende Technik – aber mitunter kritische technische Details, die dem Enthusiasmus (noch) ein Beinchen stellen.

————————
Über die Autorin:
Anja Rütten ist freiberufliche Konferenzdolmetscherin für Deutsch (A), Spanisch (B), Englisch (C) und Französisch (C) in Düsseldorf. Sie widmet sich seit Mitte der 1990er dem Wissensmanagement.