1. WER WIR SIND
Allie Fritz, Director of Interpretations bei Lionbridge

Meet the Pride: Allie Fritz

Director of Interpretations bei Lionbridge

mobile-toggle

SPRACHE AUSWÄHLEN:

Ein Geschäftsmann steht auf einer Bühne. Seine neuen Erkenntnisse zur LLM-Leistung werden durch eine leuchtende Laterne symbolisiert.
Ein Geschäftsmann steht auf einer Bühne. Seine neuen Erkenntnisse zur LLM-Leistung werden durch eine leuchtende Laterne symbolisiert.

Webinarzusammenfassung: Lost in Translation?

Bedeutung der LLM-Leistung für die Übersetzungsqualität

„Wenn Sie über interne LLM oder KI-Lösungen verfügen, sollten Sie diese einsetzen … [und] ermitteln, für welche Art von Content sie sich [am besten] eignen. Wir unterstützen Sie gern bei der Analyse der Ausgaben Ihrer eigenen Lösung.“

Simone Lamont, VP Global Solutions

„Lost in Translation“ als vorherrschendes Gefühl? Die rasante Weiterentwicklung der Large Language Models (LLM, große Sprachmodelle) eröffnet Unternehmen neue Wege zur Automatisierung und zur Skalierung des Übersetzungsumfangs. Viele scheitern jedoch an der tatsächlichen LLM-Leistung. Und genau hier liegt der Unterschied zwischen einem erfolgreichen Projekt mit Unterstützung durch generative KI und einem teuren, aber letztlich nutzlosen Experiment.

In unserem Webinar Lost in Translation? befasste Simone Lamont, VP of Global Solutions bei Lionbridge, sich mit den wesentlichen Herausforderungen, die Unternehmen beim Einsatz von LLM für Übersetzungsprojekte bewältigen müssen. Zudem zeigte sie Strategien für die Erstellung von hochwertigem Content in mehreren Sprachen auf.

Möchten Sie sich das Webinar ansehen? Über die Schaltfläche unten gelangen Sie zur Aufzeichnung.

  • #life_sciences
  • #generative-ai
  • #content_transformation
  • #automotive
  • #industrial_manufacturing
  • #technology
  • #ai-training
  • #content_creation
  • #retail
  • #consumer_packaged_goods
  • #ai
  • #legal_services
  • #translation_localization
  • #travel_hospitality

Unternehmen auf der ganzen Welt starten KI-Projekte und integrieren LLM in ihre Workflows. Große Begeisterung schlägt dann oft in große Enttäuschung um.

Tatsächlich werden 72 % der KI-Projekte abgebrochen, bevor sie zur Wertschöpfung beitragen. Warum? Die Qualität der Übersetzungen lässt zu wünschen übrig, häufig treten Halluzinationen und Fehlinterpretationen auf, und den internen Teams fehlt die Expertise zur Anpassung der LLM an die jeweiligen Zielsprachen.

Welche Qualitätsprobleme treten bei KI-Lösungen auf? Wie funktionieren sie im Praxiseinsatz?

LLM versprechen Geschwindigkeit und große Volumen. Ohne sorgfältige Einrichtung können sie aber Fehler produzieren, die der Glaubwürdigkeit von Stakeholdern und Marken schaden.

Unternehmen berichten von Problemen wie fälschlicherweise übersetzten Markennamen, Fehlern bei der Verarbeitung von Zahlen und Maßen sowie inkonsistenter Terminologie. Diese Probleme treten insbesondere bei intern trainierten LLM auf, wenn es an den richtigen linguistischen Assets fehlt.

Eine weitere Herausforderung ergibt sich aus dem Zeitaufwand und der für effektives Prompt-Engineering erforderlichen Kompetenz. Die Anpassung von Lösungen für Sprachen wie Chinesisch, Deutsch oder Französisch setzt sowohl technisches als auch linguistisches Fachwissen voraus, woran es vielen Teams jedoch fehlt. Auch wenn KI-Übersetzungen bei kleineren Projekten funktionieren, lassen sich diese Erfolge nicht direkt auf die viel umfangreicheren Workflows auf Unternehmensebene übertragen.

Labyrinth aus Buchstaben- und Zahlenkacheln, das die Komplexität der LLM-Leistung symbolisiert

Wie schneiden vortrainierte LLM im Vergleich zu MT-Übersetzungslösungen ab?

Ist ChatGPT – oder ein beliebiges LLM – in der Standardvariante gut genug für die auf Unternehmensebene benötigten Übersetzungen? Die Benchmarks in Lionbridge Machine Translation Tracker zeigen, dass vorab trainierte Standard-LLM im Vergleich zu herkömmlichen MT(Machine Translation)-Engines und Hybridlösungen in der Regel schlechtere Übersetzungen liefern. Die Qualität lässt sich durch Feinabstimmung und RAG (Retrieval-Augmented Generation) verbessern. Entscheidend ist jedoch das Wissen, wann und wie diese Techniken eingesetzt und wie die Ausgaben getestet werden müssen, bevor KI-gestützte Lösungen im Unternehmen eingeführt werden.

Inwiefern bestimmt die Art des Contents das Qualitätsniveau?

Qualitätsanforderungen gelten nicht für jeden Content gleichermaßen. Im Webinar wurde betont, dass die Workflows auf die Risiken des jeweiligen Contents und die geschäftlichen Anforderungen abgestimmt werden müssen. Während beispielsweise für eine Pressemitteilung des Marketings höchste Genauigkeit und Markenkonsistenz erforderlich sind, gilt für schnelle Aktualisierungen einer Website häufig, dass kleinere Ungenauigkeiten toleriert werden können.

Die Fehlertoleranz hängt von der Art des Contents ab:
  • Für die Bedienungsanleitung eines Krankenhausbetts ist absolute Genauigkeit nicht so entscheidend wie für die Betriebsanleitung eines Herzschrittmachers.

  • In medizinischen und juristischen Dokumenten sind Fehler nicht tolerierbar.

  • Bei anderen Contentarten tritt die Perfektion möglicherweise hinter Aspekte wie Geschwindigkeit und niedrige Kosten zurück.

Deshalb müssen Sie Ihren Content entsprechend analysieren und kategorisieren. Das Framework REACH von Lionbridge betont die Bedeutung von Wertschöpfung (ROI), Engagement, Zielgruppe (Audience) und Kontrolle (Control). Anhand dieser Aspekte können Sie über die geeignete Herangehensweise entscheiden und für jeden Anwendungsfall bestimmen, wie viel menschliche Beteiligung (Human-in-the-Loop, HITL) erforderlich ist. Dient der Content nur zur Information? Handelt es sich um sehr spezifischen, rechtlich vorgeschriebenen oder besonders relevanten Content? Die Antworten auf diese Fragen ermöglichen die Entscheidung über den geeigneten Workflow – von der LLM-gestützten Übersetzung ohne Korrektorat durch Menschen bis hin zur vollständigen Validierung durch Experten.

Wie lassen sich Übersetzungsworkflows durch Konfiguration und die Einbindung von Menschen verbessern?

Die Konfiguration ist wichtig. Unsere KI-basierte Plattform Lionbridge Aurora AI™ nutzt Translation Memorys (TM), Glossare, dynamische Prompts und LLM für das Post-Editing. Durch diese Herangehensweise kann der menschliche Aufwand bei gleichzeitiger Steigerung der Übersetzungsqualität reduziert werden. Sie können Ton, Stil und Terminologie für jeden Anwendungsfall anpassen – auch für weniger gebräuchliche Sprachen.

Simone betonte, wie wichtig die kontinuierliche Evaluierung sei. Lionbridge kann eine automatische Bewertung der Übersetzungsqualität im Hinblick auf Terminologie, Genauigkeit, Stil, lokale Konventionen und Zielgruppenrelevanz durchführen. Anhand der resultierenden Scorecards können Unternehmen die Stärken und Schwächen ihrer KI-Lösungen identifizieren und gezielte Verbesserungen vornehmen.

Visualisierung eines Computerfehlers, um die aus der benötigten LLM-Leistung resultierenden Herausforderungen zu verdeutlichen.

Wie kann die LLM-Leistung evaluiert und gesteigert werden?

Wie können Sie feststellen, ob Ihre KI-Lösung der Aufgabe gewachsen ist? Im Webinar wurden praktische Schritte zur Evaluierung von LLM-Leistung und Übersetzungsqualität vorgestellt:

  • Beginnen Sie mit einer Bewertung der aktuellen Workflows. Vergleichen Sie die Ausgaben von LLM oder MT (Machine Translation) mit den Ergebnissen menschlicher Übersetzung.

  • Anhand der automatischen Qualitätsbewertungen von Lionbridge können Bereiche mit Verbesserungspotenzial – Terminologie, Stil, Genauigkeit usw. – herausgearbeitet werden.

  • Ordnen Sie die verschiedenen Contentarten geeigneten KI-Workflows zu. Achten Sie dabei auf ein ausgewogenes Verhältnis zwischen Kosten, Bearbeitungszeit und akzeptablen Fehlerquoten.

Der Evaluierungsservice von Lionbridge hilft Unternehmen, die LLM-Leistung mit exakten Daten zu analysieren. Nachdem Teams Beispiele übersetzten Contents übermittelt haben, erhalten sie eine umfassende Scorecard und Einblicke, die unmittelbar in Maßnahmen umgesetzt werden können. Diese Daten verdeutlichen, dass unternehmensinterne LLM für Content mit geringem Risiko genutzt werden können, für Projekte mit hohem Risiko aber professionelle Unterstützung angeraten ist.

Die wichtigsten Ergebnisse des Webinars?

Dieses Webinar erläutert, wie die Leistung gesteigert werden kann, wenn Ihr LLM die gesteckten Ziele nicht erreicht. Die wichtigsten Punkte werden nachstehend zusammengefasst.

  • Die LLM-Leistung variiert stark und hängt von der gewählten LLM-Übersetzungslösung, den zugeordneten linguistischen Assets und dem Umfang der lösungsspezifischen Konfiguration ab.

  • Die erforderliche Übersetzungsqualität wird von der Art des Contents bestimmt. Bei der Wahl der Workflows müssen die gewünschten Ergebnisse einerseits und Kosten, Bearbeitungszeit sowie Risiko andererseits abgestimmt werden.

  • Die Leistung von Standard-LLM erweist sich im Vergleich zu sorgfältig abgestimmten oder hybriden Lösungen meist als unzureichend.

  • Projektspezifische Prompts, Glossare und Translation Memorys (TM) steigern die Übersetzungsqualität.

  • Bei Content mit hohem Risiko und bei rechtlich vorgeschriebenem Content ist eine Überprüfung durch Menschen nach wie vor unverzichtbar.

  • Bewerten Sie die Stärken und Schwächen Ihrer KI-Lösung anhand objektiver Daten, die fundierte Entscheidungen ermöglichen.

  • Lionbridge bietet automatische Bewertungen an, mit deren Hilfe Unternehmen die Übersetzungsergebnisse von LLM evaluieren können.

Haben Sie Interesse an weiteren KI-bezogenen Themen? Möglicherweise gibt es bereits ein entsprechendes Lionbridge-Webinar. Die Seite Lionbridge-Webinare enthält eine Liste mit Webinaraufzeichnungen.

Sprechen Sie uns an

Sie möchten zuverlässige LLM-Ergebnisse und Übersetzungen in der für Ihr Unternehmen erforderlichen Qualität erhalten? Lionbridge unterstützt Sie mit der Bewertung, Optimierung und Konfiguration Ihrer Projekte beim erfolgreichen KI-Einsatz. Kontaktieren Sie uns.

Hinweis: Diese Zusammenfassung wurde von der Lionbridge-App Content Remix erstellt und anschließend von einem Menschen korrigiert.

linkedin sharing button

VERFASST VON
Janette Mandell

Kontakt

Bitte geben Sie eine geschäftliche E-Mail-Adresse an.