Documentos y publicaciones

búsqueda de iconos

Acerca de Systran

Con más de 50 años de experiencia en tecnologías de traducción, SYSTRAN ha sido pionera en las mayores innovaciones en el campo, incluyendo los primeros portales de traducción basados en la web y los primeros motores de traducción neuronal que combinan inteligencia artificial y redes neuronales para empresas y organizaciones públicas.

SYSTRAN ofrece a los usuarios empresariales soluciones de traducción automática avanzadas y seguras en diversas áreas como: colaboración global, producción de contenido multilingüe, atención al cliente, investigación electrónica, análisis de Big Data, comercio electrónico, etc. SYSTRAN ofrece una solución a medida con una arquitectura abierta y escalable que permite una integración perfecta en las aplicaciones de terceros e infraestructuras informáticas existentes.

Rosetta-LSF: un corpus alineado de francés y lengua de signos para la traducción de texto a signo

Rosetta-LSF: un corpus alineado de francés y lengua de signos para la traducción de texto a signo

Elise Bertin-Lemée, Annelies Braffort, Camille Challant, Claire Danet, Boris Dauriac, Michael Filhol, Emmanuella Martinod, Jérémie Segouat.

13.ª Conferencia sobre Recursos Lingüísticos y Evaluación (LREC 2022), junio de 2022, Marsella, Francia.

Generación conjunta de subtítulos y subtítulos con decodificación dual

Generación conjunta de subtítulos y subtítulos con decodificación dual

A medida que aumenta la cantidad de contenido audiovisual, la necesidad de desarrollar soluciones automáticas de subtitulado y subtitulado para satisfacer las expectativas de una creciente audiencia internacional parece ser la única forma viable de aumentar el rendimiento y reducir los costos de posproducción relacionados. Los subtítulos automáticos a menudo deben estar estrechamente entrelazados para lograr un nivel adecuado... Continuación

Actas de la XIX Conferencia Internacional sobre Traducción de Lenguas Habladas (IWSLT 2022), mayo de 2022, Dublín, Irlanda

SYSTRAN @ WMT 2021: Tarea de Terminología

SYSTRAN @ WMT 2021: Tarea de Terminología

Este artículo describe las presentaciones de SYSTRAN a la tarea compartida de terminología WMT 2021. Participamos en la dirección de traducción del inglés al francés con una red de traducción automática neuronal Transformer estándar que mejoramos con la capacidad de incluir dinámicamente restricciones de terminología, una práctica industrial muy común. Se evalúan dos métodos de inserción terminológica de última generación basados en (i) el uso … Continuación

MinhQuang Pham, Antoine Senellart, Dan Berrebbi, Josep Crego y Jean Senellart

Actas de la Sexta Conferencia sobre Traducción Automática (WMT), en línea, del 10 al 11 de noviembre de 2021

Revisar la traducción automática multidominio

Revisar la traducción automática multidominio

Cuando se construyen sistemas de traducción automática, a menudo se necesita aprovechar al máximo los conjuntos heterogéneos de datos paralelos en la capacitación y manejar de manera robusta las entradas de dominios inesperados en las pruebas. Este escenario multidominio ha atraído mucho trabajo reciente que cae bajo el paraguas general del aprendizaje por transferencia. En este estudio, revisitamos … Continuación

MinhQuang Pham, Josep Maria Crego, François Yvon

Transacciones de la Asociación de Lingüística Computacional 9: 17–35, 1 de febrero de 2021

Integración de la terminología de dominio en la traducción automática neuronal

Integración de la terminología de dominio en la traducción automática neuronal

Este artículo amplía el trabajo existente sobre la integración terminológica en la traducción automática neuronal, una práctica industrial común para adaptar dinámicamente la traducción a un dominio específico. Nuestro método, basado en el uso de marcadores de posición complementados con anotación morfosintáctica, aprovecha de manera eficiente la capacidad de la red neuronal para lidiar con el conocimiento simbólico para superar la generalización de la superficie... Continuación

Elise Michon, Josep Maria Crego, Jean Senellart

Actas de la 28.ª Conferencia Internacional sobre Lingüística Computacional, diciembre de 2020

Un estudio de adaptadores residuales para la traducción automática neuronal multidominio

Un estudio de adaptadores residuales para la traducción automática neuronal multidominio

La adaptación del dominio es un problema antiguo e inquietante para los sistemas de traducción automática. El enfoque más común y exitoso para la adaptación supervisada es ajustar un sistema de referencia con datos paralelos en el dominio. Sin embargo, el ajuste fino estándar modifica todos los parámetros de red, lo que hace que este enfoque sea computacionalmente costoso y propenso a sobreajustes. Un enfoque reciente y ligero, en cambio, aumenta … Continuación

MinhQuang Pham, Josep Maria Crego, François Yvon, Jean Senellart

Actas de la Quinta Conferencia sobre Traducción Automática, noviembre de 2020

Traducción de máquina neuronal de cebado

Traducción de máquina neuronal de cebado

El cebado es un fenómeno psicológico bien conocido y estudiado basado en la presentación previa de un estímulo (señal) para influir en el procesamiento de una respuesta. En este trabajo, proponemos un marco para imitar el proceso de cebado en el contexto de la traducción automática neuronal (NMT). Evaluamos el efecto del uso de traducciones similares como … Continuación

MinhQuang Pham, Jitao Xu, Josep Maria Crego, François Yvon, Jean Senellart

Actas de la Quinta Conferencia sobre Traducción Automática, noviembre de 2020

Traducción automática neuronal eficiente y de alta calidad con OpenNMT

Traducción automática neuronal eficiente y de alta calidad con OpenNMT

Este artículo describe las presentaciones de OpenNMT a la tarea compartida de eficiencia WNGT 2020. Exploramos la formación y la aceleración de modelos de transformadores con varios tamaños que se entrenan en una configuración maestro-estudiante. También presentamos un motor de inferencia C++ personalizado y optimizado que permite una decodificación rápida de CPU y GPU con pocas dependencias. Combinando optimizaciones adicionales… Continuación

Guillaume Klein, Dakun Zhang, Clément Chouteau, Josep Crego, Jean Senellart

Actas del Cuarto Taller sobre Generación Neuronal y Traducción, páginas 211--217, Asociación de Lingüística Computacional, julio de 2020

Impulsar la traducción automática neuronal con traducciones similares

Impulsar la traducción automática neuronal con traducciones similares

Esta presentación demuestra los métodos de aumento de datos para la traducción automática neuronal para hacer uso de traducciones similares, de una manera comparable un traductor humano emplea coincidencias difusas. Mostramos cómo simplemente alimentamos el modelo neuronal con información tanto del lado de la fuente como del objetivo de los partidos difusos, y también extendemos la similitud para incluir … Continuación

Jitao Xu, Josep Crego, Jean Senellart

Actas de la Sexta Conferencia sobre Traducción Automática (WMT), en línea, del 10 al 11 de noviembre de 2021

Incrustaciones de palabras genéricas y especializadas para traducción automática multidominio

Incrustaciones de palabras genéricas y especializadas para traducción automática multidominio

La traducción automática supervisada funciona bien cuando los datos del tren y de la prueba se muestrean de la misma distribución. Cuando este no es el caso, las técnicas de adaptación ayudan a garantizar que el conocimiento aprendido de los textos fuera de dominio se generalice a oraciones en dominio. Estudiamos aquí un entorno relacionado, la adaptación multidominio, donde el número de dominios es potencialmente grande y … Continuación

Minh Quang Pham, Josep Crego, François Yvon, Jean Senellart

Libro: "International Workshop on Spoken Language Translation", "Proceedings of the 16th International Workshop on Spoken Language Translation (IWSLT)", noviembre de 2019, Hong-Kong, China