1. QUIÉNES SOMOS
Allie Fritz, Directora de interpretación de Lionbridge

Talento en acción: Allie Fritz

Directora de interpretación de Lionbridge

mobile-toggle

SELECCIONAR IDIOMA:

Empresario en un escenario obteniendo nueva información sobre el rendimiento de los LLM, simbolizado por un farol encendido.
Empresario en un escenario obteniendo nueva información sobre el rendimiento de los LLM, simbolizado por un farol encendido.

Resumen del seminario web: ¿Traducciones sin sentido?

Conocer el rendimiento de los LLM para garantizar la calidad de la traducción

«Si cuenta con LLM internos o soluciones de IA en desarrollo, le animamos a utilizarlos... y descubrir para qué tipo de contenido son más adecuados. Estaremos encantados de acompañarle en ese proceso para ayudarle a comprender los resultados que puede esperar de su propia solución».

— Simone Lamont, vicepresidenta de Soluciones Globales

¿Cree que sus traducciones han perdido el sentido? Ante el rápido avance de los modelos lingüísticos de gran tamaño (LLM), las empresas no dejan de explorar nuevas formas de utilizarlos para automatizar y escalar la traducción. Sin embargo, muchos tropiezan al evaluar los resultados real de los LLM, lo que puede marcar la diferencia entre un proyecto de IA generativa de éxito y un experimento costoso y abandonado.

Durante nuestro seminario web, «¿Traducciones sin sentido?», Simone Lamont, vicepresidenta de Soluciones Globales de Lionbridge, analizó los principales retos a los que se enfrentan las organizaciones con el uso de los LLM en sus proyectos de traducción y cómo superarlos para crear contenido multilingüe de alta calidad.

¿Desea ver el seminario web completo? Utilice el botón de abajo para acceder a la grabación.

  • #life_sciences
  • #content_transformation
  • #generative-ai
  • #automotive
  • #industrial_manufacturing
  • #technology
  • #ai-training
  • #retail
  • #content_creation
  • #webinar
  • #consumer_packaged_goods
  • #ai
  • #blog_posts
  • #legal_services
  • #translation_localization
  • #travel_hospitality

Organizaciones de todo el mundo están implementando proyectos de IA e integrando los LLM en sus flujos de trabajo. El interés que suscitan es real, pero también lo es la decepción.

De hecho, el 72 % de los proyectos de IA se abandonan antes de que aporten valor. ¿A qué se debe esto? La calidad de la traducción es deficiente, las alucinaciones y las interpretaciones erróneas son comunes, y los equipos internos carecen de la experiencia necesaria para personalizar los LLM para cada idioma de destino.

¿Cuáles son las preocupaciones y la realidad de la calidad de las soluciones de IA?

Los LLM prometen velocidad y escala, pero sin una configuración cuidadosa, pueden generar errores que dañen la credibilidad de la marca.

Las organizaciones informan de problemas como nombres de marcas mal traducidos, errores en el manejo de números y mediciones, y terminología incoherente, especialmente cuando los LLM se entrenan internamente pero carecen de los recursos lingüísticos adecuados.

Otro reto es el tiempo y las habilidades necesarias para una ingeniería de prompts eficaz. La personalización de soluciones para idiomas como el chino, el alemán o el francés requiere conocimientos técnicos y lingüísticos, de los que muchos equipos carecen. Incluso cuando la traducción basada en IA funciona para proyectos a pequeña escala, no es fácil aplicarla a los flujos de trabajo empresariales.

Laberinto sobre un mosaico de letras y números, que simboliza las complejidades del rendimiento de los LLM.

LLM preentrenados frente a soluciones de traducción automática (TA)

¿Es ChatGPT (o cualquier LLM), tal como viene de serie, lo suficientemente bueno para la traducción empresarial? Según los análisis comparativos realizados por Lionbridge Machine Translation Tracker, los LLM preentrenados estándar suelen tener un rendimiento inferior en las traducciones, en comparación con los motores de traducción automática tradicionales y las soluciones híbridas. El ajuste fino y la generación aumentada por recuperación (RAG) mejoran la calidad. Sin embargo, es fundamental saber cuándo y cómo utilizar estas técnicas, y cómo probar los resultados antes de poner a disposición de su organización soluciones basadas en IA.

¿Cómo debería el tipo de contenido determinar el nivel de calidad?

No todo el contenido necesita el mismo nivel de calidad de traducción. En el seminario web se hizo hincapié en la importancia de clasificar los flujos de trabajo en función del riesgo del contenido y las necesidades empresariales. Por ejemplo, un comunicado de prensa de marketing exige gran precisión y coherencia de marca, mientras que una actualización rápida de un sitio web puede tolerar pequeñas imperfecciones.

La tolerancia a los errores varía según el tipo de contenido:
  • El manual de una cama de hospital y el manual de un marcapasos tienen requisitos de precisión totalmente diferentes.

  • En el caso de los documentos médicos y legales, los errores son absolutamente inadmisibles.

  • La velocidad y el coste pueden superar la necesidad de perfección para otros tipos de contenido.

Comprender su contenido es esencial. El marco REACH de Lionbridge le invita a considerar el ROI, la implicación, el público y el control para determinar el enfoque correcto y el grado de intervención humana necesaria para cada caso. ¿El contenido es solo para fines informativos? ¿Se trata de contenido especializado, regulado o de alto impacto? Estas preguntas dan forma a las decisiones de su flujo de trabajo, desde la traducción impulsada por LLM sin revisión humana hasta la validación completa por expertos.

¿Cómo pueden la personalización y la revisión humana mejorar los flujos de trabajo de traducción?

La personalización es importante. Nuestra plataforma basada en IA, Lionbridge Aurora AI™, utiliza memorias de traducción (TM), glosarios, prompts dinámicos y LLM para posedición. Este enfoque reduce el esfuerzo humano y mejora la calidad de la traducción. Puede personalizar el tono, el estilo y la terminología para cada caso, incluso para idiomas menos comunes.

Simone destacó la importancia de la evaluación continua. Lionbridge proporciona evaluaciones automatizadas que analizan la calidad de la traducción en cuanto a la terminología, la precisión, el estilo, las convenciones locales y la relevancia para la audiencia. Estos controles ayudan a las organizaciones a identificar las fortalezas y debilidades de sus soluciones de IA, lo que permite realizar mejoras específicas.

Imagen de un fallo informático que ilustra los retos relacionados con el rendimiento de los LLM.

¿Cómo se puede evaluar y mejorar el rendimiento de los LLM?

¿Cómo saber si su solución de IA está a la altura de la tarea? En el seminario web se ofrecieron pasos prácticos para evaluar el rendimiento de los LLM y la calidad de la traducción:

  • Comience evaluando sus flujos de trabajo actuales. Compare los resultados del LLM o traducción automática con la traducción humana.

  • Utilice las evaluaciones de calidad automatizadas de Lionbridge para identificar áreas de mejora: terminología, estilo, precisión, etc.

  • Asigne diferentes tipos de contenido a los flujos de trabajo de IA apropiados, equilibrando los costes, los tiempos de respuesta y las tasas de error aceptables.

El servicio de evaluación de Lionbridge ayuda a las organizaciones a acabar con cualquier atisbo de duda sobre el rendimiento de los LLM. Al enviar muestras de contenido traducido, los equipos reciben una puntuación completa y conocimientos prácticos. Estos datos permiten a las empresas utilizar con confianza los LLM internos para contenidos de bajo riesgo específicos y buscar apoyo profesional para proyectos de alto riesgo.

¿Cuáles son las conclusiones clave del seminario web?

En este seminario web se ofreció información sobre cómo maximizar el rendimiento cuando los LLM no cumplen las expectativas. Estos son los puntos principales:

  • El rendimiento de LLM varía considerablemente dependiendo de la solución de traducción del LLM, los recursos lingüísticos asociados y el nivel de personalización.

  • No todo el contenido requiere la misma calidad de traducción: adapte su flujo de trabajo a los resultados deseados del contenido, con un equilibrio del coste, el tiempo de entrega y el riesgo.

  • Los LLM tal como vienen de serie suelen tener un rendimiento inferior al de las soluciones mejoradas o híbridas.

  • Los prompts personalizados, los glosarios y las memorias de traducción (TM) mejoran la calidad de las traducciones.

  • La revisión humana sigue siendo fundamental para el contenido de alto riesgo o regulado.

  • Evalúe las fortalezas y debilidades de su solución de IA con datos objetivos para tomar decisiones fundamentadas.

  • Lionbridge ofrece evaluaciones automatizadas para ayudar a las organizaciones a evaluar los resultados de traducción de sus LLM.

¿Le interesa explorar otros temas de seminarios web relacionados con la IA en los que Lionbridge ha profundizado? Visite la página de seminarios web de Lionbridge para acceder a una biblioteca de grabaciones de seminarios web.

Contacte con nosotros

¿Lo tiene todo preparado para lograr un buen rendimiento de los LLM con la calidad de traducción que su organización busca? Lionbridge puede ayudarle a evaluar, optimizar y personalizar sus proyectos para garantizar el éxito de la IA. Póngase en contacto con nosotros para comenzar hoy mismo.

Nota: Content Remix App de Lionbridge creó inicialmente el blog de resumen, que luego ha retocado un humano.

linkedin sharing button

ESCRITO POR
Janette Mandell

Hablemos

Proporcione un correo electrónico corporativo