Improved Reading Crash-Kurse für Dolmetscher in Berlin, München, Leipzig, Frankfurt, Karlsruhe, Kassel, Hannover

Improved Reading bietet eintägige Crash-Kurse für Dolmetscher an:
(for anyone who is interested in attending an Improved Reading course – in German)

Weitere Infos hier.

Preis: 169 EUR zzgl. MWSt.

Termine:

Berlin IR Training für Dolmetscher
Sa, 17.05.14 – Mo, 19.05.14 09:00 – 17:00

Karlsruhe IR Training für Dolmetscher
Mo, 19.05.14 09:30 – 17:30

Hannover IR Training für Dolmetscher
Sa, 31.05.14 09:30 – 17:30

Kassel IR Training für Dolmetscher
Sa, 28.06.14 09:30 – 17:30

München IR Training für Dolmetscher
So, 13.07.14 09:30 – 17:30

Leipzig IR Training für Dolmetscher
Sa, 30.08.14 09:00 – 17:00

Frankfurt IR Training für Dolmetscher
Sa, 30.08.14 09:30 – 17:30

Karlsruhe IR Training für Dolmetscher
Mo, 01.09.14 09:30 – 17:30

Berlin IR Training für Dolmetscher
Fr, 19.09.14 09:00 – 17:00

Hamburg IR Training für Dolmetscher
Sa, 27.09.14 09:30 – 17:30

 

Booth-friendly terminology management programs for interpreters – a market snapshot

– This one comes in English, as many non-German-speaking colleagues have asked for it. –

This article is meant to give you a very brief overview of the terminology management programs that I am aware of (in alphabetical order), made for simultaneous interpreters. I have tried to highlight the merits and downsides that in my experience are the most relevant when it comes to making a decision. For detailed descriptions of the respective systems, just follow the links, or post your questions here so that we can sort them out together, with the help of the respective proprietors.

Interplex (Peter Sand, Geneva)

Very much appreciated by those colleagues who have accumulated tons of valuable thematic glossaries in Word or Excel files. You can import them into Interplex and search them all at once (or in selected glossaries), and edit them as well. It has a great search function ignoring all the accents and special characters I tried. It is very straightforward so you can start working with it in no time. It does not, however, allow for classifying/filtering your terms by customers, subject fields, conferences, date etc.

Available for Windows, iPhone and iPad.
Cost: 75 $, free demo (I think there is a student discount, but it doesn’t say so on the website – just ask Peter).

InterpretBank (Claudio Fantinuoli, Germersheim)

Very user-friendly, many nice functions; organised by glossaries (which, technically speaking, are subject areas tagged to each entry), has all the essential data categories (customer, project etc.) and a very nice flashcard-like memorising function. Quick-search function which ignores accents. It is limited to five languages and you cannot add endless numbers of individual data fields.

Available for Windows, Mac and Android.
Free trial, full license: 59 €, student license: 39 €, free demo license for university teachers (and their students).

LookUp (Christoph Stoll, Heidelberg)

Very sophisticated and has a great quick-search function which literally allows you to blind-type the first few letters of a word and the hit list appears without you even having to hit the enter button. It is limited to four languages, of which only three can be displayed at a time.  The search function does not ignore accents and other special characters. It has many data fields (customer, subject, project etc. and even semantic relations)  and corresponding filtering and sorting functions; to my knowledge, it is the interpreter-specific terminology management tool which comes closest to the „real“ terminology systems (SDL Trados and the like).

Available for Windows. Free download.

TERMINUS (Nils Wintringham, Zürich)

Quick-search function, classification by glossaries and „groups“ (customer, subject group etc.) using descriptors, a concept which I find quite enticing as it is both easy to use and allows for differentiated classification of your terms. Don’t use the default installation folder under Windows 8 or 10.

Available for Windows.
CHF 148 plus VAT, 50 % off for academia, free demo.

For those of you who still just can’t decide, I suggest you start with a plain table in MS-Excel, MS-Access (my favourite), Filemaker and the like. It enables you to keep all your terminology in one place and you have the basic sorting, filtering and searching functions. Those simple table structures can be imported into virtually any terminology management system once you have decided on one.

When working in a team and preparing for a very technical conference, I very much like to share a Google spreadsheet (i.e. share the terminology work). It can save huge amounts of time. But you must really make sure not to enter your customer’s confidential data there, so I would not recommend it as a general terminology management tool.

And last but not least: If there are any other terminology management systems for conference interpreters, please let me know. Also, if the proprietors of the above mentioned programs want to add or correct anything of the above, feel free to use the comments! And anyone who just wants to share their experience, please do so as well.

——–

Addendum: Immediately after publication of this blog, I was made aware of two more very recent (and indeed very modern) programs, GlossaryAssistant and InterpretersHelp. Here’s more about them: http://blog.sprachmanagement.net/?p=305.

In addition, there is a summary table which gives you an overview of all the terminology tools for interpreters I am aware of, which I try to keep up to date.

Schneller Lesen – dafür gibt es doch bestimmt eine App!

Für eine wirklich bessere Lesetechnik muss man definitiv auch das altmodische Gehirn bemühen, aber einige Aspekte davon – Blickspanne nutzen, nicht im Text zurückspringen – sind ja doch so mechanisch, dass man sich fragt, ob dabei nicht der Computer helfen kann. Und tatsächlich sind auf diese Idee auch schon andere gekommen.

Zunächst einmal vielen Dank an Conrado Portugal, der mir diesen Artikel aus der Huffington Post geschickt hat: http://m.huffpost.com/es/entry/4902279, (den es nicht nur auf Spanisch, sondern auch mindestens auf Englisch gibt). Die darin vorgestellte Schnell-Lese-App von Spritz ist leider nur für wenige Geräte erhältlich, eine ähnliche habe ich aber für mein Android-Tablet gefunden, nämlich „A Faster Reader„:

Das Prinzip ist einfach: Die Wörter eines Textes werden einzeln nacheinander angezeigt (das Tempo kann man regulieren), so dass das Auge immer auf dem gleichen Punkt ruhen kann und keine Zeilen abtasten muss. Cool gelöst: Wenn man einen Text mit dieser App lesen möchte, geht man einfach auf „Teilen“ und wählt „SpeedReader“ aus.

Vielleicht nicht das romantischste Leseerlebnis, aber schon effizient, und irgendwie doch charmant  – vor allem aber nützlich, wenn man mal etwas am winzigen Smartphone-Bildschirm lesen muss.

DSC_0651

Audio-Vorbereitung 3: Hurra, mein Glossar spricht! Aus mehrsprachigen Tabellen mp3s zaubern

So hocherfreut ich war festzustellen, dass der Computer problemlos geschriebenen Text vorliest und das Vorgelesene auch ohne viel Murren als mp3 herausrückt, so sehr hat es mich dann gefuchst, dass das mit mehrsprachigen Glossaren nicht so mir nichts, dir nichts funktionieren wollte. Ich habe also einige Spracherzeugungssoftware-Hersteller mit der Frage genervt und ein bisschen rumprobiert, und siehe da, letztendlich habe ich doch einen einigermaßen bequemen und bezahlbaren Weg gefunden:

Für 20 EUR habe ich mir TextAloud gegönnt (bereits vorgestellt hier http://wp.me/p3KGB8-2n) und bin damit bestens gewappnet. Man muss dem Programm nur mit ein paar Tags auf die Sprünge helfen, damit es weiß, an welcher Stelle es welche Sprache sprechen muss, aber dann funktioniert es wunderbar.

Folgende Tabelle habe ich TextAloud zum Vorlesen gegeben, in der ich vor jede Spalte eine zusätzliche Spalte eingefügt habe, in der steht, welche Stimme sprechen soll:

ExcelGlossar mit Tags

Wie diese Tags aussehen, findet man heraus, indem man es einmal in TextAloud direkt ausprobiert:

TextAloud

Die fertig präparierte Excel-Tabelle befördert man dann per Copy&Paste in TextAloud:

TextAloud Glossar

Dann klickt man auf „Speak“ oder „To File“ – und fertig!

Hier das Ergebnis zum Anhören:

Nicht schlecht für einen Computer, finde ich. „Te-ha-ymian“ ist ein bisschen lustig, aber auf jeden Fall erfüllt das Ganze seinen Zweck, sich im Auto, beim Sektfrühstück oder beim Kugelschreiberzusammenschrauben die 200 wichtigsten Termini für die morgige Konferenz noch einmal anzuhören.

Und zum Schluss die gute Nachricht: Wenn man sich die Mühe einmal gemacht hat, speichert man sich einfach eine leere Vorlage in Excel (so wie diese hier: Glossar für TextAloud LEER, geht wahrscheinlich auch in Word) und muss beim nächsten Mal nur noch seine Glossarspalten hineinkopieren.

Viel Spaß beim Ausprobieren!

Audio-Vorbereitung 2: Die kostenlosen Microsoft-Computerstimmen und was man damit machen kann

Sich Textdokumente durch eine Computerstimme vorlesen zu lassen, ist einfacher, als mancher vielleicht denkt. Es geht im Prinzip sogar mit den Bordmitteln von Windows 7 oder 8. In diesem Beitrag beschreibe ich im Einzelnen,

  • was man tun muss, damit man sich dann ziemlich komfortabel in MS-Word einen Text vorlesen lassen kann und
  • wie man daraus mp3-Dateien erzeugt bzw. mit welchen kostenlosen und kostengünstigen Programmen das noch besser/einfacher geht.

Aus eigener Erfahrung kann ich nur für Windows 8 und Office 2013 sprechen. Mir wurde jedoch gesagt, dass es in Mac OS ungleich einfacher ist, sich Texte vorlesen zu lassen und diese als mp3 zu speichern (Alex, vielleicht möchtest Du das in einem Kommentar vertiefen?).

In Windows 8 ist eine so genannte „Sprachausgabe“ enthalten. Sie klingt auf Deutsch mit der Stimme von Hedda so:

In britschem Englisch mit Hazels Stimme so:

Um diese zu nutzen, muss man vorher nur ein paar Dinge tun:

– Die „Microsoft Speech Platform – Runtime (Version 11)“ herunterladen und installieren:
http://www.microsoft.com/en-us/download/details.aspx?id=27225

Die gewünschten Sprachen herunterladen und installieren:
http://www.microsoft.com/en-us/download/details.aspx?id=27224
Hier einfach auf den „Englisch“-Button klicken, danach bekommt man eine Auswahl der verfügbaren Sprachen. „TTS“ steht für Text to Speech (Sprachausgabe), „SC“ steht hier für Speech Recognition (Spracherkennung).

(Wer Windows 7 und Office 2010 hat, findet hier die entsprechenden Anweisungen von Microsoft: http://office.microsoft.com/en-us/word-help/using-the-speak-feature-with-multilingual-tts-HA101825279.aspx)

Damit hat man alles an Bord und muss dann nur noch die Sprachausgabefunktion in Word aktivieren:

  • Datei/Optionen/Symbolleiste für den Schnellzugriff
  • Befehle auswählen: Befehle nicht im Menüband
  • In MS-Word den Befehl „Sprechen“ auswählen und auf “Hinzufügen” klicken (in MS-Excel alle Befehle mit “Eingabezellen”).
  • Mit OK bestätigen

Und schon steht die Vorlese-Schaltfläche zur Verfügung:

Leider kann man sich hiermit die Texte nur „live“ vorlesen lassen, aber keine Audio-Datei erzeugen (wie man es am Mac kann).

Dazu reicht es aber, sich die kostenlose Aufnahmesoftware Audacity zu installieren (http://audacity.sourceforge.net/download/), und schon kann es losgehen: In Audacity als Audioquelle „Stereo Mix“ auswählen (damit nicht über das Raummikrofon aufgenommen wird), auf „Aufnahme“ – roter runder Punkt – klicken und dann in Word die Sprachausgabe starten.

Alles in allem also eine gut zu nutzende Funktion, wenn einmal alles eingerichtet ist.

Der Nachteil: Man muss sich zur mp3-Erzeugung wirklich immer den kompletten Text vorlesen lassen, was schnell lästig werden kann. Außerdem stoppt die Vorlesefunktion immer automatisch nach ca. 5 Minuten, d.h. man kann das System auch nicht einfach eine Stunde durchlaufen lassen und sich in der Zeit die Nägel lackieren gehen. Dieses Problem lässt sich aber ziemlich einfach lösen, etwa mit dem kostenlosen

MiniReader der zu Amazon gehörenden Firma IVONA: http://www.ivona.com/en/mini-reader/

Die Leiste legt sich über jedes Fenster und man muss nur den gewünschten Text markieren und auf Play klicken, schon liest es los. Der Ivona MiniReader bietet automatisch sowohl die installierten Microsoft-Stimmen an als auch zur Probe Ivona-eigene Stimmen.IvonaMiniReaderFREE

Die Ivona-Teststimmen kann man bei der Installation auswählen; es gibt mindestens Deutsch, Englisch (US/UK), Französisch, Spanisch (auch lateinamerikanisch), Portugiesisch (auch brasilianisch), Rumänisch, Italienisch, Niederländisch, Türkisch, Polnisch, Russisch, Schwedisch. Einzeln kosten die Stimmen ab 29 EUR, es gibt aber auch günstigere Pakete. http://www.ivona.com/en/voices/#offer

Ivonas Marlene liest den Kommissionsbeschluss folgendermaßen: Sie liest hier mal schneller und mal langsamer, weil ich während der Aufnahme mit dem Geschwindigkeitsregler gespielt habe. Am Anfang war sie mir ein bisschen zu flott und klang deshalb schnippisch. Die „Doppelebes-teuerung“ kann ich ihr verzeihen. Insgesamt auf jeden Fall brauchbar!

Der große Vorteil des kostenlosen MiniReaders ist jedenfalls, dass er sechs Seiten (mehr habe ich nicht getestet) ohne Abbruch durchliest. Man kann damit allerdings auch keine Audiodatei erzeugen, dazu benötigt man dann wieder bspw. Audacity.

Alternativ bietet dies der kostenpflichtige Ivona Reader: http://www.ivona.com/en/reader/ Einsprachig gibt es diesen ab 49 EUR, mehrsprachige Pakete ab 129 EUR. Damit kann man dann Audio-Dateien generieren und theoretisch auch taggen, um einzelnen Textstellen unterschiedliche Sprachen bzw. Stimmen zuzuweisen.

Eine Alternative zum MiniReader + Audacity oder dem kostenpflichtigen Ivona Reader ist mein persönlicher Favorit  TextAloudhttp://www.nextup.com/TextAloud/ für 29,95 USD (19,99 EUR exkl. MWSt). Damit bekommt man eigentlich alles, was man braucht: Viele Sprachen, mp3-Generierung und Tagging für Glossare (dazu mehr im nächsten Blog-Beitrag). TextAloud

Stimmen kann man einzeln für einen Preis von 26,70 bis 34,20 EUR dazukaufen. Das Programm nutzt aber auch die installierten Stimmen von Microsoft und Ivona.

All dies habe ich getestet und es hat wunderbar funktioniert – TextAloud ist jetzt mein Standard-Instrument für das ziemlich problemlose Erstellen von Audio-Dateien auch aus mehrsprachigen Glossaren. Aber dazu mehr demnächst!

 

 

Audio-Vorbereitung 1 oder: Liest mir mal bitte jemand meine Vorbereitungstexte vor?

Als Dolmetscher sind wir ja alle auch ein bisschen in den Charme der gesprochenen Sprache verliebt. Meine Frage, wie ich auch in der Dolmetschvorbereitung mehr mit gesprochenen statt geschriebenen Wörtern zu tun haben könnte, hat deshalb zwar auch zum Ziel, beispielsweise die Autofahrt zum Anhören von Texten oder auch von mehrsprachiger Terminologie zu nutzen (mobile learning oder m-learning). Aber ganz abgesehen davon höre ich auch gerne aus Freude am Vorgelesenbekommen. Und nicht zuletzt halte ich es auch für plausibel, dass es uns Dolmetschern beim Abrufen von Terminologie als Klangbilder hilft, wenn wir diese auch in Form von Klangbildern und nicht als Schriftbilder gelernt haben.

Mit all diesen Beweggründen im Rücken habe ich mich nun also vor Wochen aufgemacht, die perfekte Lösung für das Erstellen von Audio-Dateien aus geschriebenen Texten zu finden – Stichwort Sprachausgabe, Sprachsynthese oder auch Text-to-Speech (TTS). Hier gibt es im Wesentlichen zwei Optionen:

1. die im Betriebssystem (Windows oder Mac OS) enthaltene Spracherzeugungsfunktion,

2. spezielle Spracherzeugungssoftware.

Es hat sich herausgestellt, dass eine besondere Herausforderung darin liegt, mehrsprachige Texte zu vertonen, also den Sprachwechsel innerhalb eines Textes (Glossars) zu bewerkstelligen – aber auch das ist möglich! Die unterschiedlichen Möglichkeiten zur einsprachigen bzw.  mehrsprachigen Vertonung werde ich in den nächsten Tagen in gesonderten Beiträgen vorstellen, denn sie sind teilweise etwas erklärungsintensiv.

Es sei nur so viel gesagt: Ich habe vergangene Woche im Auto eine halben Stunde lang Hedda (der deutschen Microsoft-Stimme) dabei gelauscht, wie sie mir einen EU-Kommissionsbeschluss über aggressive Steuerplanung vorliest. Das möchte ich Euch natürlich nicht vorenthalten:

Gut, Hedda hat einen leicht französischen Akzent, und mir ist plötzlich klar geworden, was für eine schöne und sinntragende Sache doch die Prosodie ist (Die englische Hazel hat mich da schon eher überzeugt. Aber ich denke, insgesamt sind die englischen Kunststimmen besser entwickelt als die restliche Sprachenwelt). Aber alles in allem habe ich mich nachher gut vorbereitet gefühlt. Das Gute (oder Schlechte) beim Vorlesen ist nämlich, dass man auch bei langweiligen Textpassagen gezwungen ist, sich beispielsweise mit den Finessen der Benennung von Mitgliedern einer Expertengruppe auseinanderzusetzen. Was schon mal gar nicht dumm ist.

 

Mit dem Tablet in die Dolmetschkabine? – The ipad Interpreter von und mit Alex Drechsel

Dass ein Tablet leichter, kleiner und handlicher ist und zudem eine längere Akkulaufzeit hat, sehe ich ein. Ich persönlich trage jedoch lieber 400 g mehr mit mir herum und habe einen richtigen Rechner (= mein komplettes Büro nebst Datenbestand) dabei, der mir überall ein vollwertiges Office-Paket, eine „große“ Tastatur und die Möglichkeit bietet, so viele Programm gleichzeitig zu öffnen, wie ich möchte. Als ich einmal über mehrere Wochen mit dem Tablet in der Kabine saß, fand ich es dennoch gut, weil es einfach nett ist, nur so ein kleines Brett aus der Tasche zu ziehen und fertig. Und ich war auch dankbar, dass ich trotz havarierten Notebooks einigermaßen einsatzbereit war. Dank großem USB-Stick hatte ich auch trotzdem alle meine Daten dabei und musste mir über nichts Gedanken machen.

Interessant finde ich, dass ich auf dem Privatmarkt kaum jemanden mit Tablet in der Simultankabine sitze sehe, in Brüssel aber offensichtlich Tablets immer beliebter werden und fast häufiger anzutreffen sind als Notebooks.

Dazu passt, dass unser Kollege Alexander Drechsel aus Brüssel (SCIC) so nett war, in einem kurzen Video die Vorzüge des Tablets in der Dolmetschkabine zu zeigen, veröffentlicht u. a. im Dolmetscher-Blog „A Word In Your Ear“: http://lourdesderioja.com/2013/11/10/ipad-interpreter/.

the ipad interpreter

Besonders gut fand ich die App „Documents“, die einem das Hantieren mit vielen unterschiedlichen Dokumenten zu erleichtern scheint. Und auch sonst hat Alex ein paar interessante Gedanken parat.

Danke dafür an Alex – und allen anderen viel Spaß beim Zuschauen!

Digitale Demenz bei Dolmetschern? – Beitrag aus dem VKD-Kurier 4/2012

Weil es gerade zu der Diskussion rund um Lesetechniken passt: Für alle Nicht-VKD-Kurier-Leser hier noch einmal mein minimal geänderter Artikel aus dem VKD-Kurier 4/2012 (Danke an die Redaktion für die Genehmigung). Alle anderen einfach wegklicken.

Dolmetscher digitaldement?

Wer sich auch nur annähernd für das menschliche Gehirn interessiert, dem ist der Autor Manfred Spitzer ein Begriff. Mich hat sein Buch „Geist im Netz“ schon 1999 inspiriert, und nun hat er in diesem Jahr 2012 mit einem neuen Werk aufgewartet, das den verheißungsvollen Titel „Digitale Demenz“ trägt. Keine Frage, dass ich es sofort lesen musste. Dabei hat mich weniger sein Feldzug gegen die Verblödung von Kindern interessiert, sondern vielmehr die Frage, ob seine Erkenntnisse womöglich Licht auf die Frage der geistigen Verlotterung unserer Zunft durch die Arbeit mit dem Computer werfen. Dabei stehe ich persönlich dem Einsatz von Computern bekanntlich positiv gegenüber; ich mache mir nichts aus dem sinnlichen Erlebnis gestorbener Bäume an meinen Fingerkuppen, auch der Geruch von Druckerschwärze lässt mich kalt. Es ist mir ein Anliegen, die Vorteile ebenso wie die Gefahren der Digitalisierung zu kennen. Ebenso hält es meiner Einschätzung nach Manfred Spitzer, dem in den Medien, wie ich meine, zu unrecht Computer- oder Fortschrittsfeindlichkeit vorgeworfen wird.

Für alle, die dieses Thema auch umtreibt, habe ich also im Folgenden meine wichtigsten Erkenntnisse aus der Lektüre von „Digitale Demenz“ zusammengetragen.

Medien an sich

Bei der ganzen Computerdiskussion und somit auch in „Digitale Demenz“ fällt mir auf, dass viele Phänomene, die gemeinhin mit dem Computer in Verbindung gebracht werden, auch im Zusammenhang mit Papiermedien auftreten. Wenn heutzutage allenthalben gejammert wird, dass alle in der Dolmetschpause nur noch ihre Nase in Facebook oder Online-Zeitungen stecken, statt sich zu unterhalten, sollte man nicht vergessen, dass man unlängst Nasen zwar nicht in Facebook, aber stattdessen in Zeitungen, Liebesromane, Sudoku oder Urlaubsprospekte zu stecken pflegte. Gleiches gilt für Menschen in U-Bahnen und an Frühstückstischen. Und Tastaturgeklapper mag zwar stören, Zeitungsrascheln tut dies aber ebenso (wohingegen ein E-Book wunderbar lautlos ist).

Auch das bei Spitzer beschriebene Phänomen, dass Kinder heute ihre Lebenswirklichkeit so sehr aus dem Computer oder dem Fernsehen beziehen, ist zunächst ein allgemeines Problem der Medienbasiertheit. Gleiches gilt nämlich für Kinder, die tagträumend in ihrer Winnetou-Welt aus den Büchern leben. Medien ersetzen in keinem Fall das reale Lernen und „begreifen“. Und dieses Phänomen kennen auch wir allzu gut: Man vergleiche nur das Aha-Erlebnis, das man beim Dolmetschen einer Betriebsführung haben kann, weil man die in endlosen Powerpointfolien bedolmetschten Vorteile von Melkrobotern plötzlich am lebenden Objekt in Aktion sieht.

Damit sei mitnichten in Abrede gestellt, dass digitale Medien durch die Dichte der auf einen Menschen einprasselnden Reize ein deutlich höheres Sucht- und Zerstreuungspotential bergen als Bücher. Nur können umgekehrt Computer je nach Nutzungsform auch die positiven Eigenschaften von Büchern aufweisen.

Gut, dass wir darüber geredet haben

Spitzer erläutert eingehend, dass für das Verarbeiten von Informationen nichts so gut ist wie direkter sozialer Kontakt; durch Diskussion mit unseren Mitmenschen erreichen wir eine tiefe und emotionale Verarbeitungsart, die Ihresgleichen sucht. Und diese (an sich nicht ganz neue) Erkenntnis sollte uns Dolmetscher jubilieren lassen über unser instinktiv richtiges Verhalten. Wie oft entspinnt sich in der Dolmetschkabine eine lebhafte Diskussion über akute Fragen oder frisch gewonnene Erkenntnisse („Wie funktioniert das nochmal mit den Emissionsrechten?“ – „Ach, da war doch letztens noch was in den Nachrichten …“). Dem Problem, dass punktuell gestopfte Wissenslücken nicht im Gedächtnis haften bleiben, begegnen wir Dolmetscher völlig von selbst mit der richtigen Strategie, indem wir es unbedingt bequatschen – ganz ohne dass man es uns empfohlen hätte. Diese Gewohnheit sollten wir unbedingt pflegen und bewahren.

Begünstigend kommt hinzu, dass wir dank der neuen Medien in der Lage sind, Wissenslücken direkt in der Situation zu recherchieren, was das Verständnis und die Gedächtnisverknüpfung natürlich stark begünstigt. Abgesehen davon, dass viele Dinge überhaupt nachgeschlagen werden, die ansonsten auf dem Weg zurück ins Büro längst in Vergessenheit geraten wären.

Schreiben hilft beim Lernen?

Viele Menschen sind überzeugt davon, dass sie Worte einmal mit Hand und Stift aufschreiben müssen, damit sie den Weg in ihr Gedächtnis finden. Spitzer verweist in seinem Werk auf wissenschaftliche Erkenntnisse, die darauf hindeuten, dass das Lernen von Buchstaben vermutlich besser mit dem Stift in der Hand gelingt, da die Spur des Stiftes im Gehirn abgebildet wird. Dies gilt jedoch für Buchstaben und nicht unbedingt für Wörter oder Sätze oder sogar Inhalte. Abgesehen davon, dass es in unserem Fall ohnehin wichtiger ist, Desoxyribonukleinsäure aussprechen und nicht buchstabieren zu können. (Vorteil des Computers: Er verfügt auch über Sprachausgabe.)

Umgekehrt bedeutet das natürlich nicht, dass das handschriftliche Notieren an sich ein Problem darstellt; wenn man sich mit einem Stift zwischen den Fingern einfach wohler fühlt als mit einer Tastatur, führt das schließlich auch zu emotionalem Wohlbefinden, was wiederum das Lernen erleichtert. Nur diejenigen, die befürchten, durch Überspringen der Phase des handschriftlichen Notierens gehe ihnen ein wichtiger Lerneffekt verloren, und sich deshalb nicht so recht trauen, auf ein rein papierfreies Arbeiten umzusteigen, können diese Sorge vielleicht hinter sich lassen und stattdessen frohen Mutes versuchen, sich an den mannigfaltigen Bequemlichkeiten (Wiederauffindbarkeit durch Volltextsuche, Sortierbarkeit, Rechtschreibkontrolle, Kategorisierbarkeit, Übertragbarkeit) des computergestützten Arbeitens zu erfreuen.

Nachdenken hilft beim Merken – Aufschreiben hilft nicht beim Merken

Wir lernen bei Spitzer: Man merkt sich eine Information weniger, wenn man weiß, dass sie gespeichert ist. Man merkt sich dann eher den Ort, wo etwas aufgeschrieben oder abgespeichert wurde. Auch wenn eine Sache noch nicht erledigt ist, verbleibt sie eher im Gedächtnis als etwas Erledigtes, das man gedanklich abgehakt hat. Was um Himmels Willen fangen wir mit dieser Erkenntnis an? Nichts mehr aufschreiben? Wohl eher nicht. Im Zusammenhang mit der Immerverfügbarkeit von Informationen im Internet ist die Gefahr wohl deutlich: Man merkt sich nichts mehr, weil man weiß, dass man es jederzeit nachschlagen kann. Da wir während des Dolmetschens aber nicht fortwährend Dinge nachschlagen können, müssen wir wohl oder übel nach wie vor zusehen, dass wir die Dinge im Kopf haben.

Und hier greift eine zweite Erkenntnis aus Spitzers Buch: Aktives Überlegen ist besser fürs Memorieren als bloßes Lesen. Was für uns Dolmetscher bedeutet: Wenn wir zwar schwerlich aufhören können, uns Dinge zu notieren, so können wir doch auf der anderen Seite unsere Merkfähigkeit am Leben erhalten, in dem wir darauf achten, dass wir uns die Liste der wichtigen Termini zum Thema Obstbranddestillation nicht nur durchlesen, sondern uns wirklich selbst abfragen, also aktiv überlegen und den Terminus aussprechen, bevor wir uns selbst denn Blick auf die Lösung freigeben. (Auf die Möglichkeiten der Computerunterstützung aus dem Bereich des Vokabellernens sei hier nur in Klammern verwiesen.)

Erwachsene verknüpfen

Ein nicht unwesentlicher Teil des Buches „Digitale Demenz“ widmet sich der Gehirnentwicklung von Kindern und Jugendlichen. Manfred Spitzer erklärt sehr einleuchtend, wie unterschiedlich erwachsene und kindliche Gehirne grundsätzlich lernen. Während bei Kindern innere Strukturen erst gebildet werden (müssen), lernen Erwachsene, indem sie neue Informationen mit dem vorhandenen Gefüge verknüpfen. Je mehr Aspekte einer Sache beleuchtet werden, desto vielseitiger die Verknüpfungen. Wichtig beim Lernen von Sachverhalten ist das Durchlaufen des hermeneutischen Zirkels. Man erkannt das Ganze durch die Einzelheiten und umgekehrt. Erst so werden tiefe Wissensstrukturen gebildet. Wenn jemand, der dieses vielschichte Erfassen von Informationen nicht gelernt hat, nun im Internet etwas nachschaut, so erfolgt dies oft nur horizontal und nicht vertikal; er bleibt an der Oberfläche und geht nicht in die Tiefe. Er läuft auch Gefahr, sich durch die Vielzahl von Abwegen und Verknüpfungen ablenken zu lassen und zu verzetteln.

All dies wird also in Spitzers Buch stark betont und scheint auch mir von ganz zentraler Bedeutung für das Lernen und Denken einer ganzen Gesellschaft. Auf unsere Zunft hin interpretiert darf man dem jedoch durchaus auch entnehmen, dass mit entsprechendem Vorwissen ergänzende Informationen aus einer Suchmaschine sehr wohl gezielt gefunden, integriert und bewertet werden können. Wenn ich mich beispielsweise auf eine Wirtschaftskonferenz vorbereite und die Entsprechungen für Bruttoinlandsprodukt, Deckungsbeitrag, Diskontsatz und Rechnungsabgrenzungsposten nur als Benennungen in der anderen Sprache recherchiere, ist der Lerneffekt überschaubar. Setze ich mich hingegen mit den Bedeutungen auseinander, bleibt das Wissen wahrscheinlicher im Kopf. Und dafür wiederum bietet das Internet mit Lernvideos, Kontextsuchmaschinen usw. hervorragende Möglichkeiten. Häufig finden wir ganz automatisch auch Kontext zu einem Suchbegriff, ob wir wollen oder nicht. Sei es, weil wir bei der Suche nach einer Maschine auf der Seite des Herstellers landen (also wissen wir, aus welchem Land die Maschine kommt, wir erfahren schnell, wozu sie gut ist und wie sie aussieht) oder eine juristische Formulierung direkt im textlichen Umfeld sehen. Diese Art der Informationssuche trägt unserer Art zu Behalten und zu Verstehen sehr viel mehr Rechnung als das Nachschlagen in einem alphabetisch angeordneten Wörterbuch, in dem „Abfluss“ und „Abflug“ direkt hintereinander stehen und unter „Hahn“ sogar ein männliches Federtier unter der Waschbeckenarmatur erscheint.

Resümee

Offensichtlich ist beim sinnvollen Umgang mit dem Computer gar nicht vorrangig, was man am Computer so alles kann, sondern was man ohne Computer alles kann. Über Recherchiertes reden, das eigene Gedächtnis herausfordern und immer nach dem Gemeinten und dem Kontext fragen – wenn wir das beherzigen, haben wir gute Chancen, den Computer zu einem wertvollem Trainingsgerät und einem exzellenten Assistenten zu machen. Das Denken, Verstehen und Lernen kann er uns nicht abnehmen, aber wenn wir uns geschickt anstellen, kann er uns gut dabei helfen.

Touchscreen als Notizblock

Vielleicht hat der eine oder andere von Euch irgendeine Form von berührungsempfindlichem Bildschirm vom Christkind bekommen?

Ich bin ein großer Fan von Touchscreens in der Kabine, weil ich einem Kleinkind gleich mit den Fingern (Digitus!) einfach nur auf das zeigen muss, was ich sehen möchte, so dass ich selbst während des Simultandolmetschens phänomenal intuitiv meine Dokumente finde und lesen bzw. durchscrollen oder durchwischen kann. Jedoch bin ich ziemlich eigen, was den an dem Bildschirm hängenden Rechner betrifft, denn da bin ich nicht bereit, für 500 g Gewichtseinsparung eine amputierte Arbeitsumgebung in Kauf zu nehmen (aber dazu mehr in einem der nächsten Blog-Beiträge), so dass ich lieber ein vollwertiges Laptop mit Touchscreen benutze. Aber das nur am Rande.

Mein Thema heute ist eigentlich die Frage, inwiefern sich ein Touchscreen – sei es am Handy, Tablet oder Laptop – zum Notieren beim Konsekutivdolmetschen eignet. Meine Erfahrung mit einem Acer Iconia Tablet (Baujahr 2011) mit kapazitivem Touchscreen war bislang mäßig, da die dafür geeigneten dicken Gummiballstifte (ebenso wie meine Finger) sehr unpräzise waren und die Reaktionszeit langsam. Induktive Touchscreens hingegen funktionieren mit Eingabestift, sind präziser und lassen sich auch durch eine beim Schreiben aufgelegte Hand nicht stören. Erkennen aber eben keinen Fingerzeig.

Nun hat sich in den letzten beiden Jahren viel getan und mittlerweile gibt es so genannte Hybridsysteme, die sowohl Fingerdruck erkennen als auch Stifte mit dünnen Plastikspitzen (und diesen Priorität über dem aufgelegten Handballen einräumen). HP lässt mich für mein EliteBook Revolve seit Frühjahr 2013 auf den angekündigten Eingabestift warten, aber gestern hatte ich das Surface-Gerät von Microsoft in der Hand und dachte zum ersten Mal: Das könnte auch was zum Notieren sein. Das Hybrid-Touchscreen hat auf den Eingabestift superpräzise reagiert (und natürlich auch auf Fingerdruck), und sobald sich der Eingabestift dem Bildschirm auch nur näherte, wurde schon vor der Berührung auf dem Bildschirm ein Fadenkreuz sichtbar. Das kann man hilfreich oder störend finden, zunächst einmal fand ich es interessant und zukunftsweisend.

Das sind soweit meine nicht gerade umfangreichen Erfahrungen mit dem handschriftlichen Notieren am Computer. Was auch damit zusammenhängt, dass ich, wenn ich die Chance habe, einen Rechner mit Tisch zu nutzen, ungleich ausführlicher per Tastatur notiere als mit Block und Stift (aber auch dazu an anderer Stelle mehr). Umso mehr interessiert mich natürlich, ob bzw. welche Erfahrungen Ihr mit dem Einsatz von Touchscreens als Notizblock beim Konsekutivdolmetschen habt!

Es grüßt Euch herzlich

Anja

Improved Reading – Sitzungsvorbereitung im Selbstversuch

Nun also meine erste Konferenzvorbereitung als Improved-Readerin. Meine Theorie: Ich lese die Texte auf Inhalt so schnell, dass ich nachher noch Zeit habe für eine weitere Runde reinen Terminologie-Scannings (was ein bisschen dem Augentraining aus dem IR-Kurs gleicht).

Was habe ich vor mir? Thema: Berufskrankheiten. Als erstes fällt mir auf: Die Texte sind auf Englisch, dolmetschen soll ich von Deutsch nach Spanisch. Naja, mal sehen, ob das meine effektive Leserate bremst. In der ersten Runde soll ja die Sprache erst einmal egal sein. Also ran!

Schritt 1: Und da geht es schon los. Man soll zunächst immer innerlich eine Frage bzw. Erwartung an den Text formulieren. Um sich mental einzustimmen. Was ist für uns als Dolmetscher die Erwartung an den Text? „Ich muss wissen, was drin steht“, fällt mir da spontan ein. Nicht so zielführend. Und vielleicht ein bisschen undifferenziert. Zweiter Versuch: „Was führt der Redner im Schilde? Worauf will er hinaus?“ Hm. Aber was interessiert denn die Zuhörer? Wer sind denn noch mal genau die Zuhörer? Für die wird das alles ja schließlich veranstaltet. Also noch einmal genau nachlesen …  Alles klar. Versicherungen, Regierungen, Arbeitnehmer, Arbeitgeber. Also alle, die ein Interesse an der Vermeidung von Berufskrankheiten haben. Eigentlich logisch. Also lautet meine Fragestellung an den Text: „Wo sind die Risiken, was kann man dagegen tun?“ Unter diesem Motto versetze ich mich also in geistige Alarmbereitschaft.

Schritt 2: Lesen. 6918 Wörter reiner Text. 2817 Wörter in Form von Powerpoint.

Wenn ich 500 Wörter pro Minute schaffe, müsste ich mit allen Word-Dokumenten in 15 Minuten durch sein (1 Minute extra gerechnet für das Öffnen und Schließen der Dateien). Die ppts müssten in 6 Minuten zu schaffen sein. Da man so hochkonzentriert nicht länger als 15 Minuten arbeiten kann, plane ich nach den Word-Texten fünf Minuten Pause und lese dann die Präsis. Dann müsste ich in einer halben Stunde fertig sein.

Outlook aus, Telefon aus, Radio aus, Kaffeetasse weg, Bildschirm richtig positionieren und los! Gaaaaanz entspannt rhythmisch „chunken“, schön peripher sehen und nicht zurückspringen im Text!

Eine halbe Stunde später: Geschafft! 20 Minuten für die Fließtexte in Word, 4 Minuten für die Präsentationen. Und ich fühle mich dabei total informiert. Sehr gut!

 

Schritt 3: Terminologie. Da ich mich jetzt um den Inhalt nicht mehr so sehr scheren muss, geht das abscannen nach schwieriger Terminologie flott von der Hand. Die Zeit habe ich leider nicht erfasst, aber Terminologiesuche als Augenübung wäre ohnehin noch einmal ein separates Thema.

 

Und dann? – Dann kam, was kommen musste, gerade als ich noch dachte, wie gut vorbereitet ich mich fühlte: Am Vorabend der Konferenz wurden noch unzählige Präsentationen und Skripte geschickt. Also habe ich ruckzuck die ganze schöne Arbeitstechnik wieder über den Haufen geworfen und nur hektisch die Texte nach Undolmetschbarem abgesucht. Denn wenn man auch seine Lesegeschwindigkeit ganz offensichtlich verdoppeln kann, so kann man damit trotzdem nicht den Nachtschlaf ersetzen oder die Zeit anhalten.

 

Mein Fazit:

–           Das hochkonzentrierte, inhaltsfokussierte Improved Reading ging deutlich schneller und hat mir viel gebracht.

–          Das Lesen mit einer Fragestellung im Hinterkopf hat mir geholfen, einen persönlichen Bezug zum Thema herzustellen und mir Inhalte zu merken.

–          Das Trennen von inhaltlichem Lesen und Terminologiearbeit war deutlich effizienter und gleichzeitig müheloser.

–          In den Präsentationen, die ich vorher so konzentriert gelesen hatte, habe ich (gefühlt) souveräner gedolmetscht als in denen, die in allerletzter Minute eingereicht wurden und ich nur auf mögliche Stolpersteine abscannen konnte.

 

Meine Fragen:

Hat jemand von Euch Erfahrung mit (anderen) Lesetechniken? Findet oder fändet Ihr das sinnvoll oder ist Euch das alles viel zu viel Hektik in ohnehin hektischen Zeiten? Schließlich ist ja bald Weihnachten, wer will da schon effizient sein …