SELECCIONAR IDIOMA:

A woman interacts with a holographic computer interface

Resumen del seminario web: IA generativa para el contenido global

Una descripción general sobre las tecnologías de modelo lingüístico de gran tamaño y de IA generativa, y la forma en que estos motores transformarán de raíz las actividades de localización  

¿Qué son exactamente las tecnologías de modelo lingüístico de gran tamaño (LLM) y de IA generativa? ¿Cómo transformarán la IA generativa y los LLM, como ChatGPT, la traducción y la localización? ¿Cómo puede utilizar los LLM para mejorar sus flujos de trabajo de contenido global?

Vincent Henderson, responsable de los equipos de producto y desarrollo de Lionbridge, ha respondido a estas y otras muchas preguntas en el primero de una serie de seminarios web dedicados a la IA generativa y a los modelos lingüísticos de gran tamaño.

Si no pudo ver el seminario en directo, puede verlo ahora a la carta.  

Si no tiene tiempo en este momento, también puede leer sobre algunos de los temas que abordó Vincent en el seminario.

¿En qué consisten la IA generativa y los modelos lingüísticos de gran tamaño?

La IA generativa y los LLM son motores de inteligencia artificial (IA) que han «aprendido» de qué manera redactan texto los seres humanos, todo ello a partir del corpus de Internet. Cuando se les proporciona un texto, lo completan con la opción que resulta más probable a partir de lo aprendido en el entrenamiento.

Con la nueva IA, estas tecnologías deciden el texto producido empleando todo el conocimiento que han adquirido a partir de una cantidad enorme de datos.

Aunque su capacidad para determinar la continuación más plausible parece algo sencillo, en realidad se trata de una tarea tremendamente sofisticada. Cuando recibe un texto, el modelo lo analiza de forma integral y lo encaja en la imagen global del lenguaje para producir, a partir de ahí, el resultado que ofrece al usuario. Determina qué es lo más importante de la petición y del corpus de entrenamiento, y a qué deberá prestarse atención.

Como resultado, los LLM tienen una insólita capacidad para producir textos que parecen creados por un ser humano. Es como si la tecnología comprendiera nuestra intención, y pensara y actuara como nosotros.

¿Qué pueden hacer los LLM?

A partir de su aprendizaje, un LLM, como ChatGPT, puede hacer varias cosas:

  • Responder preguntas: si se le proporciona un texto formulado en forma de pregunta, responderá con el texto que es más plausible que constituya una respuesta.
  • Seguir instrucciones: si se le proporciona una serie de instrucciones, generará como resultado la forma más probable en la que se aplicaría esa instrucción.
  • Aprender con ejemplos: si se le proporcionan algunos ejemplos con el mismo formato, proporcionará el texto más plausible, aplicando el ejemplo de formato a la información proporcionada.

¿Por qué los LLM repercuten tanto en la traducción?

Para comprender por qué los LLM, como ChatGPT, tienen tantas ventajas para la traducción y la localización, comenzaremos por examinar algunos de los problemas que plantea la traducción automática cuando se emplean modelos de traducción automática neuronal (NMT).

Hasta el momento, las empresas han utilizado motores de traducción automática (TA), que son modelos lingüísticos de gran tamaño muy especializados y optimizados para determinar la traducción de una serie de palabras que se les proporcione. Las empresas que utilizan un motor de TA genérico con resultados poco óptimos podrían mejorar esos resultados ajustando el entrenamiento del motor con decenas de miles de datos pertinentes.

Esta tarea es costosa y, cada vez que ponen en marcha una nueva iniciativa (por ejemplo, con el lanzamiento de un nuevo producto o iniciativa de marketing), las empresas que utilizan motores de TA deben decidir si volver a entrenar el motor merece el esfuerzo y el gasto que conlleva.

En cambio, los LLM aprenden cuáles son las expectativas de una empresa con tan solo unos ejemplos porque estos motores ya «saben mucho». También pueden aplicar su aprendizaje en nuevas tareas. De esta forma, se pueden conseguir los resultados de traducción deseados con peticiones de menor volumen y ligadas al contexto sin necesidad de realizar un entrenamiento del modelo específico para la tarea que implique un gran volumen de datos.

Sin embargo, en el momento de escribir este artículo, los LLM con esta capacidad están sometidos a una gran presión de demanda y todavía no son capaces de atender los volúmenes de contenido que implica la localización a escala industrial. Esta situación cambiará pronto, pero no se puede determinar en qué momento.

¿Cómo se obtienen mejores resultados de traducción: con LLM o con motores de TA?

¿Cómo es el rendimiento bruto de traducción de los LLM en comparación con el de los motores de TA? Lionbridge realizó una comparación de la calidad de la traducción que ofrecen los principales motores de TA y los modelos de GPT para una oración en las combinaciones del inglés al chino, del inglés al español y del inglés al alemán.

En términos generales, GPT no ofrece tan buenos resultados como los mejores motores de TA del momento. Sin embargo, los LLM están acortando distancias. En un caso (como muestra la figura 1), GPT-4 obtuvo una calidad ligeramente superior a la del motor de TA Yandex en la combinación del inglés hacia el chino.

Comparación del grado de calidad de la traducción automática entre los modelos de GPT y los principales motores de TA neuronal en la combinación lingüística inglés-chino

Si desea conocer otros resultados comparativos de los motores en diferentes ámbitos e idiomas, consulte la página de Lionbridge Machine Translation Tracker, la herramienta de medición del rendimiento global de la traducción automática con mayor trayectoria.

¿En qué otros términos se pueden comparar los LLM, como GPT, con los principales motores de TA?

Vocabulario, gramática y precisión

Sin instrucciones específicas, los LLM, como GPT, realizan traducciones más coloquiales que los principales motores de TA. Esta práctica puede ser contraria a la de los traductores profesionales y considerarse un error. Además, en ocasiones GPT puede inventar neologismos, o expresiones nuevas, que los traductores evitan.

Conseguir que los LLM utilicen una terminología determinada es sencillo: basta con pedírselo. En cambio, conseguir que los motores de TA incorporen cierta terminología requiere más trabajo. Para ello, hay entrenar el motor de TA o construir una superestructura por encima de él para insertar la terminología en los resultados o en el texto de origen. Se trata de una práctica que, habitualmente, generará problemas de conjugación o concordancia.

Dado que GPT está tan centrado en la lengua, no suele cometer errores lingüísticos, como los de concordancia, y suele corregirse si se le pide.

¿Qué más pueden hacer los modelos lingüísticos de gran tamaño?

Mejora y análisis del texto de origen o de destino

Los LLM son versátiles. No solo puede utilizarlos para mejorar el texto de destino, sino también el de origen. Además, el análisis va más allá de vistas cuantitativas de frecuencias, volúmenes y extensiones, y alcanza la evaluación cualitativa y las mejoras automáticas. Para obtener el resultado deseado, basta con indicar al LLM que haga las cosas de una determinada forma.

Puede utilizar ChatGPT para lo siguiente:

  • Simplificar la terminología compleja o reescribir el contenido de forma más sencilla para mejorar la legibilidad y la traducibilidad.
  • Acortar frases largas sin cambiar el significado para mejorar la legibilidad y la traducibilidad.

Al utilizar los LLM para facilitar la lectura del contenido, este se vuelve más accesible al público. Mejorar el texto de origen y reducir el número de palabras puede rebajar sus costes de localización.

Posedición y garantía de calidad lingüística

Puede pedir a los LLM que hagan una posedición de sus traducciones, al igual que lo haría con un traductor profesional. ¿Los LLM hacen un buen trabajo de posedición? En un análisis realizado, se determinó que reducían considerablemente el esfuerzo necesario para conseguir la versión final de una oración (la «distancia de edición»), del 48 % al 32 %. También pueden encontrar errores como espacios sobrantes, sugerir palabras más adecuadas y mejorar el texto de destino con una nueva redacción.

DNA strand

¿Cómo pueden los prestadores de servicios lingüísticos, como Lionbridge, respaldar las mejoras en los flujos de trabajo de contenido resultantes de la IA generativa?

La IA generativa transformará de raíz los flujos de trabajo de contenidos multilingües. Lionbridge puede prestar los servicios asociados a estos cambios.

Servicios de generación de contenido multilingüe

Es probable que la capacidad que tienen los LLM de generar contenido multilingüe sea el cambio más importante en el mundo de la localización desde la introducción de las memorias de traducción (MT).

Esta es la manera en que los LLM pueden generar contenido multilingüe desde cero. En primer lugar, hay que proporcionarles información. Luego, hay que pedirles que generen contenido derivado y que produzcan ese contenido multilingüe desde cero.

Con la ayuda de los LLM, las empresas podrán generar descripciones de productos, tuits y otros materiales a partir de los datos que ya tienen para no correr el riesgo de obtener ciertas «alucinaciones» que suelen generar los LLM cuando se les pregunta por cosas reales.

Históricamente, los procesos de contenido global se han basado en dos flujos de trabajo independientes: uno para la producción nacional de contenido y otro para la producción global. Con los LLM, para producir contenido derivado no tendrá que contratar primero a redactores en el idioma de origen y luego poner en marcha un flujo de trabajo de localización: el contenido derivado se produce en todos los idiomas que desee y, a continuación, se posedita el texto recurriendo a poseditores para cada idioma, incluido el nacional.

Gracias a su amplio equipo de traductores, Lionbridge está en la posición ideal para prestar servicios de posedición multilingües basados en contenido generado de forma multilingüe.

Respaldo de iniciativas de IA generativa multilingüe de los clientes

Utilizar LLM para generar contenido multilingüe requiere ciertos conocimientos en materia de ingeniería de peticiones, lo que lleva mucho tiempo y suele implicar un proceso de «ensayo y error». Ayudar a las empresas a crear peticiones adecuadas es una categoría de servicios que surge en el ámbito de la localización, y Lionbridge puede colaborar en esa tarea.

Lionbridge puede simplificar el uso de la IA con el desarrollo de backend y ayudar a los clientes a seleccionar el tipo de contenido que utilizan en forma de ejemplos y peticiones para las iniciativas de IA generativa multilingüe que llevan a cabo para sí mismos.

Optimización de materiales multilingües

GPT puede modificar materiales lingüísticos, como memorias de traducción (MT) y reglas de estilo.

Lionbridge utilizó la potencia de GPT-4 para cambiar el tono de formal a informal de toda una memoria de traducción en francés, lo que permitió adaptar el tono y el estilo a las especificaciones del cliente de una forma más asequible que antes.

Caso práctico: detalles

250

unidades de traducción

4,5

millones de palabras

98,5 %

índice de precisión

Mejoras en los flujos de trabajo de localización

Esta categoría se refiere al uso de los LLM para conseguir que las tareas de posedición sean más fáciles, rápidas y asequibles, con lo que todo el proceso traducción se vuelve más eficaz y rentable.

Si se mejoran los flujos de trabajo de localización, las empresas podrán localizarlo todo de manera más accesible.

A futuristic circuit board

En conclusión: ¿cuáles son las perspectivas de futuro?

Los LLM van a transformar la localización para siempre. Con el tiempo, los flujos de trabajo se simplificarán.

En lugar de trabajar con flujos de trabajo independientes (nacional y global), las empresas podrán definir objetivos en materia de contenido, así como planificarlo y generarlo inmediatamente en varios idiomas.

Aunque las nuevas tecnologías despiertan el miedo a la desaparición de empleos, en Lionbridge estamos convencidos de que los LLM no van a terminar con los prestadores de servicios lingüísticos ni con la necesidad de traductores.

Las empresas que utilicen LLM para generar contenido de forma multilingüe seguirán necesitando a expertos que revisen la producción automática. Puede que lo que hoy consideramos posedición para traducción automática se llame de otra forma en el futuro.

«La industria lingüística en su conjunto debe responder a los desafíos que plantean los LLM. Y esto es algo fascinante. Estamos en los albores de una multiplicación explosiva de las aplicaciones que podrá abarcar la tecnología de los LLM».

– Vincent Henderson, responsable de servicios de productos lingüísticos de Lionbridge

Para obtener más información sobre la IA generativa y verla en acción en demostraciones, vea el seminario web ya mismo.

Póngase en contacto con nosotros

Si desea saber cómo Lionbridge puede ayudarle a aumentar la eficiencia en sus necesidades de contenido global con la última tecnología, póngase en contacto con nosotros hoy mismo.

linkedin sharing button

ESCRITO POR
Janette Mandell
  • #technology
  • #webinar
  • #translation_localization
  • #ai
  • #generative-ai
  • #blog_posts