Die Übersetzungs- und Lokalisierungsbranche ist einem ständigen Wandel unterworfen. Seit einigen Jahren erlebt sie durch das Aufkommen von Neuronalen Machine-Translation-Engines, Künstlicher Intelligenz und Large Language Models eine Revolution. Auf der TAUS-Konferenz, die dieses Jahr Anfang Oktober in Salt Lake City über die Bühne ging, wurde über die Auswirkungen und das, was von KI noch zu erwarten sein wird, diskutiert. MEINRADs CEO Meinrad Reiterer war dabei und berichtet im Interview über seine Eindrücke und Einschätzungen.
Was ist die TAUS?
TAUS wurde 2005 als Think Tank gegründet mit der Mission, Übersetzungen zu automatisieren und zu erneuern. Man erkannte damals, dass maschinelle Übersetzungen ein nützliches Werkzeug für die Übersetzungsbranche sein könnten. Mittlerweile ist TAUS zu einem zentralen Netzwerk für die Lokalisierungs- und Sprachindustrie geworden. Jährlich finden spannende Konferenzen statt, dieses Jahr in Salt Lake City. Die Konferenz stand diesmal ganz im Zeichen des Wandels. Man geht davon aus, dass das Jahr 2023 als ein Jahr des Umbruchs in Erinnerung bleiben und den Grundstein für eine Vielzahl von Veränderungen in den Geschäftsmodellen und der Produktion mehrsprachiger Inhalte legen wird.
Was erwartete die Konferenzteilnehmer?
Die Konferenz ist speziell für Mitglieder der Sprachindustrie gedacht und hatte die zu erwartenden Auswirkungen von generativer Artificial Intelligence, also künstlicher Intelligenz, zum Thema. In zahlreichen Vorträgen – unter anderem von Google, Meta AI, Amazon, Microsoft und Dell – wurden zentrale Fragen behandelt, wie zum Beispiel diese: Wie können wir in der Branche auf die gerade stattfindende Revolution reagieren? Wie weit lässt sich KI sinnvoll für Übersetzungen verwenden? Welche Auswirkungen hat das auf unsere aktuellen Technologien und Tools sowie auf unsere Mitarbeiter? Wie werden sich die Geschäfts- und Preismodelle und Dienstleistungen ändern?
Mittlerweile ist ChatGPT jedem ein Begriff. Es hat bei nahezu allen Unternehmen, nicht nur solchen, die in der Sprachindustrie tätig sind, ein Nachdenken bewirkt. So ziemlich jeder Player in diesem Bereich macht sich Gedanken darüber, wie und wo Large Language Models sinnvoll eingesetzt werden können.
Was sind eigentlich Large Language Models?
Large Language Models, abgekürzt LLMs, sind große generative Sprachmodelle, die mithilfe von Künstlicher Intelligenz trainiert werden. Zu diesem Zweck werden riesige Mengen an Textdaten verwendet. Large Language Models eignen sich für zahlreiche Anwendungen und sind beispielsweise die Grundlage für KI-Chatbots wie ChatGPT. Aber sie können natürlich auch für viele andere Anwendungen eingesetzt werden.
Liefert denn ChatGPT bessere Übersetzungsergebnisse als eine MT-Engine?
Einigkeit herrscht darüber vor, dass trainierte Neuronale MT-Engines, wie sie heute Stand der Technik sind, noch immer deutlich bessere Übersetzungsergebnisse liefern. Aber: Durch Large Language Models tun sich viele Möglichkeiten rund um die eigentliche Übersetzung auf.
Welche Möglichkeiten wären das, gibt es da konkrete Beispiele?
Ja! Ein solches Einsatzgebiet ist beispielsweise die Überprüfung der Qualität von Übersetzungen (in erster Linie maschineller Übersetzung, aber in weiterer Folge auch von Humanübersetzungen) auf Basis von LLMs. Die Idee dahinter ist, anhand von bestimmten Kriterien von LLMs bewerten zu lassen, ob ein (maschinell) übersetzter Satz gut ist oder ob er noch post-editiert werden muss. Somit müssten dann nur mehr jene Sätze post-editiert werden, die bei einer solchen Überprüfung unter einem vordefinierten Wert bleiben. Das könnte große Kosteneinsparungen ermöglichen und die Produktionszeiten deutlich verkürzen.
Ein anderes Beispiel für einen sinnvollen Einsatz von LLMs wäre ein weitgehend automatisiertes Post-Editing. Man könnte Texte, die von MT-Engines übersetzt wurden, an LLMs schicken und anhand eines entsprechend definierten Prompts prüfen, ob die Übersetzungen bestimmte Kriterien erfüllt, wie zum Beispiel Stil, Formalität, oder Einhaltung vorgegebener Terminologie.
Erwähnenswert in diesem Zusammenhang ist auch die Tatsache, dass LLMs mittlerweile auch schon Eingang in die Content-Erstellung gefunden haben. So bietet zum Beispiel das neueste Release von MadCap Flare in der Cloud-basierten Version „Central“ eine direkte Schnittstelle zu ChatGPT. Damit kann ein Autor zum Beispiel einen Textvorschlag erstellen lassen oder einen selbst geschriebenen Text von ChatGPT kürzen oder stilistisch verändern lassen.
Klingt so, als wären LLMs (schon) gute Übersetzer. Was sind die größten Unterschiede zwischen klassischen Machine Translation Engines und Large Language Models?
Neuronale Engines wurden speziell für Übersetzungen entwickelt und trainiert. Large Language Models waren ursprünglich nicht per se zum Übersetzen gedacht; es hat sich eher als eine von vielen Einsatzmöglichkeiten erwiesen. Der überwiegende Teil des Trainingsmaterials basiert auf englischsprachigen Texten. Das hat zur Folge, dass Übersetzungen in und aus dem Englischen meist ganz gut funktionieren, während bei anderen, vor allem selteneren, Sprachen die Leistung jedoch rapide abfällt.
Was nimmst du von der TAUS-Konferenz mit?
Nun, die Sprachindustrie ist ja seit vielen Jahren bereits mit KI konfrontiert. Für unseren Bereich sind die Neuerungen daher überschaubar, und wir sind es bereits gewohnt, uns auf ständig neue Technologien und Herausforderungen einzustellen. Größere Disruptionen sehe ich für andere Bereiche, wie die oben erwähnte Texterstellung, oder auch die Software-Programmierung. Niemand kann heute genau sagen, in welche Richtung das Ganze noch gehen wird. Fest steht nur: Die Entwicklung geht rasant voran. Der Hype, und das ist nicht nur mein Eindruck, den es anfangs um ChatGPT und Large Language Models gab, scheint sich derzeit bereits etwas abzuflachen und einer realistischeren Einschätzung zu weichen.
Wo könnte man Large Language Models im Übersetzungsprozess sinnvoll einsetzen?
Unser Partner memoQ arbeitet an einem Plugin für maschinelle Übersetzungen, das auf Large Language Models basiert. Das Besondere daran ist, dass Low Fuzzy-Matches aus Translation Memorys sowie andere Ressourcen, wie zum Beispiel eine vorhandene Terminologiedatenbank, in die Prompts miteinfließen. Dadurch werden niedrige Fuzzy Matches, also Treffer mit wenig Übereinstimmung zur aktuellen Übersetzung, deutlich verbessert und aufgewertet. Gemeinsam mit memoQ testen wir aktuell diese Technologie und sehen bereits vielversprechende Ergebnisse.
Wie ist deine Einschätzung: Wird KI die menschlichen Übersetzer und Übersetzungsbüros überflüssig machen?
Der Übersetzungsbereich war schon immer mit bahnbrechenden Entwicklungen konfrontiert. Ich erinnere mich noch sehr genau daran, als Translation Memorys aufkamen. Da dachten viele Übersetzer auch, dass sie bald keine Arbeit mehr haben. Ebenso war das vor ein paar Jahren, als Machine Translation populär wurde. Fakt ist: Ohne diese technologische Unterstützung wären wir nicht mehr in der Lage, die ständig zunehmende Fülle an Inhalten überhaupt noch zu übersetzen. Ich bin davon überzeugt, dass es den Bedarf an Sprach- und Übersetzungsdienstleistungen weiterhin geben wird. Was sich jedoch definitiv ändern wird, ist die Art und Weise, wie Übersetzungen erstellt werden und wie Übersetzer in Zukunft arbeiten werden.
Inwiefern werden sie sich ändern?
Von Übersetzern werden andere Fähigkeiten und Fertigkeiten gefordert. Sie müssen die vorhandenen Software-Tools nutzen können und ein sehr gutes Verständnis von der verfügbaren Technologie haben. Wer sich damit nicht auseinandersetzt und sich den Veränderungen verweigert, wird als Übersetzer über kurz oder lang auf der Strecke bleiben.
Was rätst du Kunden, wenn sie LLMs verwenden möchten?
Ich rate dazu, realistische Erwartungen an ChatGPT und Co zu haben und Aussagen und Versprechungen kritisch zu hinterfragen – vor allem, was den Übersetzungsbereich betrifft. Sprechen Sie mit dem Übersetzungsbüro Ihres Vertrauens. Dort haben Sie Experten an der Hand, die tagtäglich mit Large Language Models zu tun haben und Sie daher beraten können, was in Ihrem konkreten Fall möglich und sinnvoll ist.
Abschließend: Was ist deine persönliche Einschätzung – worauf müssen wir uns in Bezug auf KI noch einstellen?
Die Entwicklung geht rasant voran. Die Quantensprünge erfolgen in immer kürzeren Abständen. Ich gehe davon aus, dass wir in den nächsten Jahren weitere riesige Fortschritte im Bereich der Künstlichen Intelligenz sehen werden. Exakte Prognosen sind äußerst schwierig. Dass wir jedoch weiterhin mit noch größeren technologischen Neuerungen und Disruptionen rechnen müssen, steht für mich außer Zweifel.
Titelbild © MEINRAD