Visite Lionbridge Games

SELECCIONAR IDIOMA:

una persona revisando patrones de datos a través de un objetivo naranja
una persona revisando patrones de datos a través de un objetivo naranja

Servicios de datos de IA e IA responsable

Prevención de resultados sesgados y dañinos de su LLM

Ahora que cada vez son más las empresas que empiezan a utilizar sus propios modelos lingüísticos de gran tamaño (LLM), la IA responsable se ha convertido en una preocupación de primer orden. Una parte clave de la IA responsable es utilizar sus servicios de datos de IA y la validación de datos para evitar que se genere contenido de IA intolerante, tendencioso o que incite al odio. Este tipo de contenido puede ser perjudicial y contribuir a problemas sociales generales, incluidos (entre otros):

  • Difusión de discursos de odio
  • Marginación de determinados grupos o comunidades
  • Provocación de angustia emocional

El contenido tendencioso o intolerante también tiene graves consecuencias para las empresas. Continúe leyendo para saber por qué las empresas deberían utilizar servicios de datos de IA para garantizar un uso responsable de la IA e implementar nuestras medidas recomendadas.

¿Por qué la IA responsable es fundamental para el contenido comercial?

Cuando el LLM de una empresa descuida la IA responsable creando contenido intolerante, tendencioso o que incita al odio, no solo crea los problemas sociales antes mencionados. La empresa también puede sufrir algunas consecuencias. Cualquier contenido dirigido al público puede tener repercusiones negativas, entre las que se incluyen:

  • Materiales de marketing impresos
  • Chatbots de sitios web oficiales
  • Publicaciones para redes sociales
  • Correos electrónicos comerciales
  • Contenido de sitios web

La probabilidad de que el LLM de una empresa genere contenido multilingüe ofensivo es mayor si no hay un experto humano involucrado en el proceso. En algunos casos, un experto humano es fundamental para revisar y perfeccionar la localización o traducción de la IA. Estas son las posibles consecuencias a las que puede enfrentarse una empresa:

Posibles consecuencias de descuidar la IA responsable

  • Legales, incluidas demandas por difamación, discriminación o acoso
  • Sanciones normativas, multas, limitaciones, etc.
  • Daños a la reputación ante partes interesadas, clientes, etc.
  • Pérdida de clientes y colaboraciones empresariales
  • Pérdida de ingresos
  • Gastos por mitigación de daños, incluidas nuevas campañas publicitarias para restablecer la confianza, más desarrollo y entrenamiento de la IA, etc.
  • Reducción de la moral, lealtad y productividad de los empleados

Las empresas pueden experimentar solo una de estas consecuencias o una combinación de ellas. Tomar las medidas adecuadas para evitar estos efectos adversos es crucial. Lea nuestras recomendaciones a continuación. 

Cinco tácticas para garantizar el uso de una IA responsable y evitar contenidos dañinos

Plantéese implementar todas o al menos algunas de estas tácticas para garantizar que los resultados de su IA no sean involuntariamente sesgados, racistas, misóginos o simplemente ofensivos o culturalmente inapropiados. Para obtener resultados óptimos, trabaje con un grupo diverso de personas durante todo el proceso de entrenamiento y supervisión de datos de IA. Aportarán una base de conocimientos más amplia y sólida. Considere trabajar con expertos en servicios de datos de IA, como los de Lionbridge, que combinan experiencia en IA, normas socioculturales, industrias y lingüística. Por último, algunas empresas pueden establecer políticas para los desarrolladores y usuarios de la IA. Estas políticas determinan las consecuencias del uso indebido de un sistema de IA. Incentivan a todos a contribuir a que la IA nunca genere contenido dañino u ofensivo.

cintas de datos digitalizados flotando

Táctica n.º 1: Selección y organización de los datos

Al realizar el entrenamiento de datos de IA, la recopilación de los datos adecuados es crucial para enseñar a un LLM a crear contenido libre de prejuicios, racismo, misoginia, etc. Las empresas deben adoptar un enfoque doble. En primer lugar, deben filtrar los datos de fuentes que puedan incluir puntos de vista problemáticos. El segundo paso es asegurarse de que los datos de entrenamiento para un LLM representen una amplia diversidad de voces y puntos de vista. Si el contenido es multilingüe o procede de distintos lugares o culturas, puede ser útil contar con la ayuda de expertos locales o lingüísticos para estas tareas. Lionbridge tiene una sólida base en lingüística y lenguaje. Esta experiencia nos posiciona de manera única para respaldar el procesamiento del lenguaje natural necesario en el aprendizaje automático. 

Táctica n.º 2: Creación de un marco ético

Cuando se entrena a la IA para obtener resultados éticos, es esencial crear un marco ético. Al igual que ocurre con la creación de una guía de estilo o de un glosario de traducción, cada empresa debe elaborar una serie de normas y directrices a las que desea que se atengan todos sus contenidos. Utilice las normas del sector para ayudar a desarrollar el marco, garantizando el cumplimiento y mejores resultados. Es posible que estos marcos deban ampliarse y adaptarse para trabajos multilingües o culturales con el fin de incluir nuevas normas o tabúes lingüísticos y sociales. Las empresas también deben implementar protocolos y estructuras que garanticen un despliegue ético constante del modelo de IA. 

Táctica n.º 3: Entrenamiento previo para producir resultados éticos y sin sesgos

Durante las fases de entrenamiento previo y de perfeccionamiento, las empresas deben dar prioridad a las técnicas de mitigación de sesgos. Mediante el marco ético mencionado anteriormente, se debe enseñar al LLM a identificar y evitar la creación y el consumo de contenidos tendenciosos u ofensivos. Al poner a prueba el LLM durante el entrenamiento previo, es esencial utilizar la validación de datos para actualizar los conjuntos de datos con una comprensión fundamental de la ética y los sesgos. El marco ético también es útil para este paso.

Durante el entrenamiento, considere la posibilidad de crear mecanismos que muestren la toma de decisiones del modelo de la IA a la hora de identificar y rechazar contenido ofensivo. Esta transparencia ayudará más adelante si surgen problemas.

un globo de hexágonos rodeado de estrellas

Táctica n.º 4: Supervisión continua de los resultados

Después de entrenar a su IA, las empresas deben seguir revisando sus resultados. Para los contenidos más importantes, puede merecer la pena recurrir a un revisor humano. Esto es particularmente útil para los contenidos diseñados para clientes que hablan diferentes idiomas y proceden de otras culturas. Es posible que las empresas también quieran recurrir a un revisor humano para realizar auditorías de material programadas periódicamente con el fin de garantizar la calidad y el cumplimiento de su marco ético. También puede considerar la posibilidad de crear oportunidades para que los clientes informen sobre contenido ofensivo e incorporar estos comentarios a los esfuerzos continuos de perfeccionamiento.

Táctica n.º 5: Repetición del entrenamiento según sea necesario

Las empresas deben incluir nuevos ciclos de entrenamiento en sus protocolos por varias razones. En primer lugar, es posible que el modelo de IA no «aprenda» del todo a aplicar correctamente el marco ético desde el principio. Puede crear erróneamente contenido ofensivo o el propio marco ético puede ser deficiente. Una segunda razón a favor de nuevos ciclos de entrenamiento continuo es que las normas culturales cambian constantemente. Aunque un contenido no sea ofensivo hoy, podría serlo mañana, sobre todo si se desarrolla para clientes que hablan varios idiomas o proceden de otras culturas. Cuantas más culturas e idiomas estén involucrados, más matices requiere un marco ético.  

Póngase en contacto con nosotros

Comience a explorar los servicios de datos de IA con los expertos de Lionbridge. Hemos ayudado a incontables clientes a sacar el máximo partido de su LLM. Nos tomamos muy en serio el uso de una IA responsable y la confianza en la IA, y contamos con nuestro marco TRUST. Confíe en nosotros para garantizar que su LLM ayude a su empresa a lograr sus objetivos y genere un retorno de la inversión. Póngase en contacto con nosotros.

  • #technology
  • #ai-training
  • #translation_localization
  • #ai
  • #blog_posts
linkedin sharing button

ESCRITO POR
Samantha Keefe

Hablemos

Proporcione un correo electrónico corporativo