Études & Publications
À propos de SYSTRAN
Depuis sa création en 1968, SYSTRAN est pionnier dans le domaine des technologies de traduction automatique. Les innovations développées par SYSTRAN sont désormais couramment utilisées par les entreprises et utilisateurs professionnels. Avec une forte orientation vers la recherche et le développement, SYSTRAN, 50 ans plus tard, est plus innovante que jamais.
SYSTRAN propose aux utilisateurs professionnels des solutions de traduction automatisée avancées et sécurisées dans divers domaines tels que la collaboration à l'international, la production de contenu multilingue, le support client, l'eDiscovery, l'analyse de Big Data, le e-commerce, etc. SYSTRAN propose une solution sur-mesure avec une architecture ouverte et évolutive qui permet une intégration transparente dans les applications tierces existantes et les infrastructures informatiques.
Modèle de transformateur amélioré pour la génération de données en texte
Modèle de transformateur amélioré pour la génération de données en texteLes modèles neuronaux ont récemment montré des progrès significatifs dans les tâches de génération de données en texte dans lesquelles des textes descriptifs sont générés en fonction des enregistrements de base de données. Dans ce travail, nous présentons un nouveau modèle de génération de données en texte basé sur Transformer qui apprend la sélection de contenu et la génération de résumés de bout en bout. Nous introduisons deux extensions au modèle de transformateur de base : Premièrement, nous modifions... Suite
Li Gong, Josep Crego, Jean Senellart
Ouvrage : Proceedings of the 3rd Workshop on Neural Generation and Translation, pages 148-156, Association for Computational Linguistics, novembre 2019, Hong-Kong, ChineSYSTRAN @ WAT 2019 : Actualités russo-japonaises
SYSTRAN @ WAT 2019 : Actualités russo-japonaisesCet article décrit les soumissions de Systran{'}s à la tâche de commentaire des actualités russo-japonaises de WAT 2019. Une tâche de traduction difficile en raison des ressources extrêmement faibles disponibles et de la distance de la paire de langues. Nous avons utilisé l'architecture du Transformateur neuronal apprise sur les ressources fournies et nous avons réalisé des expériences de génération de données synthétiques qui visent à atténuer les ... Suite
Jitao Xu, TuAnh Nguyen, MinhQuang Pham, Josep Crego, Jean Senellart
Proceedings of the 6th Workshop on Asian Translation, pages 189-194, Association for Computational Linguistics, novembre 2019, Hong-Kong, ChineSYSTRAN @ WNGT 2019 : Tâche DGT
SYSTRAN @ WNGT 2019 : Tâche DGTCet article décrit la participation de SYSTRAN à la tâche partagée de génération et de traduction au niveau du document (DGT) du 3ème atelier sur la génération et la traduction neuronales (WNGT 2019). Nous participons pour la première fois en utilisant un réseau Transformer enrichi d'intégrations d'entrée modifiées et en optimisant une fonction objective supplémentaire qui prend en compte la sélection de contenu. Le réseau prend en charge des éléments structurés... Suite
Li Gong, Josep Crego, Jean Senellart
Proceedings of the 3rd Workshop on Neural Generation and Translation, pages 262-267, Association for Computational Linguistics, novembre 2019, Hong-Kong, ChineParticipation de SYSTRAN à la tâche partagée WMT2018 sur le filtrage de corpus parallèle
Participation de SYSTRAN à la tâche partagée WMT2018 sur le filtrage de corpus parallèleCet article décrit la participation de SYSTRAN à la tâche partagée sur le filtrage de corpus parallèle lors de la troisième Conférence sur la traduction automatique (WMT 2018). Nous participons pour la première fois à l'aide d'un classificateur de similarité de phrases neuronales qui vise à prédire la parenté des paires de phrases dans un contexte multilingue. L'article décrit les principales caractéristiques... Suite
Minh Quang Pham, Josep Crego, Jean Senellart
Troisième conférence sur la traduction automatique (WMT18), 31 octobre - 1er novembre 2018, Bruxelles, BelgiqueCorrection des divergences de translation dans les corps parallèles pour la MT neuronale
Correction des divergences de translation dans les corps parallèles pour la MT neuronaleLes approches de traduction automatique par corpus reposent sur la disponibilité de corpus parallèles propres. De telles ressources sont rares, et en raison des processus automatiques impliqués dans leur préparation, elles sont souvent bruyantes. % peut contenir des paires de phrases qui ne sont pas aussi parallèles que prévu. Cet article décrit une méthode non supervisée de détection des divergences de traduction... Suite
Minh Quang Pham, Josep Crego, Jean Senellart, François Yvon
Conférence 2018 sur les méthodes empiriques dans le traitement du langage naturel, 31 octobre - 4 novembre 2018, Bruxelles, BelgiqueAnalyse de la distillation des connaissances dans la traduction automatique neuronale
Analyse de la distillation des connaissances dans la traduction automatique neuronaleLa distillation des connaissances a récemment été appliquée avec succès à la traduction automatique neuronale. Il permet essentiellement de construire des réseaux rétrécis tandis que les systèmes résultants conservent la plupart de la qualité du modèle original. Malgré le fait que de nombreux auteurs parlent des avantages de la distillation de la connaissance, peu d'œuvres discutent des raisons réelles pour lesquelles elle fonctionne, surtout dans le contexte... Suite
Dakun Zhang, Josep Crego et Jean Senellart
15e atelier international sur la traduction en langue parlée, 29-30 octobre 2018, Bruges, BelgiqueDescription du système OpenNMT pour WNMT 2018 : 800 mots/s sur un processeur monocœur
Description du système OpenNMT pour WNMT 2018 : 800 mots/s sur un processeur monocœurNous présentons une description système de l'entrée OpenNMT Neural Machine Translation pour l'évaluation WNMT 2018. Dans ce travail, nous avons développé un modèle d'inférence NMT fortement optimisé ciblant un système CPU haute performance. Le système final utilise une combinaison de quatre techniques, toutes conduisant à des accélérations significatives en combinaison: (a) distillation séquentielle, (b) ... Suite
Jean Senellart, Dakun Zhang, Bo Wang, Guillaume Klein, J.P. Ramatchandirin, Josep Crego, Alexander M. Rush
Publié dans « Proceedings of the 2nd Workshop on Neural Machine Translation and Generation », pages 122-128, Association for Computational Linguistics, 20 juillet 2018, Melbourne, AustralieArchitectures de réseau neuronal pour l'identification de dialecte arabe
Architectures de réseau neuronal pour l'identification de dialecte arabeSYSTRAN participe pour la première fois cette année à la tâche partagée DSL, dans la sous-tâche Identification du dialecte arabe. Nous participons en formant plusieurs modèles de Neural Network montrant que nous pouvons obtenir des résultats compétitifs malgré la quantité limitée de données de formation disponibles pour l'apprentissage. Nous rendons compte de nos expériences et détaillons l'architecture et les paramètres du réseau... Suite
Elise Michon, Minh Quang Pham, Josep Crego, Jean Senellart
Publié dans « Proceedings of the Fifth Workshop on NLP for Similaire Languages, Varieties and Dialects », Association for Computational Linguistics, pages 128-136, 20 août 2018, Nouveau-Mexique, États-UnisStimuler la traduction automatique neuronale [PDF]
Stimuler la traduction automatique neuronale [PDF]L'efficacité de la formation est l'un des principaux problèmes de la traduction automatique neuronale (NMT). Les réseaux profonds nécessitent des données très volumineuses ainsi que de nombreuses itérations de formation pour atteindre des performances de pointe. Il en résulte un coût de calcul très élevé, qui ralentit la recherche et l'industrialisation. Dans cet article, nous proposons de pallier ce problème avec plusieurs méthodes de formation... Suite
Dakun Zhang, Jungi Kim, Josep Crego, Jean Senellart
Publié dans « Proceedings of the Eighth International Joint Conference on Natural Language Processing » (Volume 2 : Short Papers), Asian Federation of Natural Language Processing, 2017, Taipei, TaiwanOpenNMT : Boîte à outils Open-Source pour la traduction automatique neuronale [PDF]
OpenNMT : Boîte à outils Open-Source pour la traduction automatique neuronale [PDF]Nous décrivons une boîte à outils open-source pour la traduction automatique neuronale (NMT). La boîte à outils privilégie l'efficacité, la modularité et l'extensibilité dans le but de soutenir la recherche NMT sur les architectures de modèles, les représentations de fonctionnalités et les modalités de source, tout en maintenant des performances compétitives et des exigences de formation raisonnables. La boîte à outils comprend un support de modélisation et de traduction, ainsi qu'une documentation pédagogique détaillée sur... Suite
Guillaume Klein, Yoon Kim, Yuntian Deng, Jean Senellart, Alexander Rush
Publié dans « Proceedings of ACL 2017, System Demonstrations », pages 67-72, Association for Computational Linguistics, 2017, Vancouver, Canada