Papiere und Veröffentlichungen
Über Systran
SYSTRAN verfügt über mehr als 50 Jahre Erfahrung in Übersetzungstechnologien und leistet Pionierarbeit bei den größten Innovationen in diesem Bereich. Dazu gehören die ersten webbasierten Übersetzungsportale und die ersten neuronalen Übersetzungsmodule, die künstliche Intelligenz und neuronale Netzwerke für Unternehmen und öffentliche Organisationen kombinieren.
SYSTRAN stellt Geschäftskunden hoch entwickelte und sichere automatisierte Übersetzungslösungen in verschiedenen Bereichen zur Verfügung, wie z. B. globale Zusammenarbeit, Erstellung mehrsprachiger Inhalte, Kundensupport, elektronische Ermittlungen, Big Data-Analyse, E-Commerce, etc. SYSTRAN bietet eine maßgeschneiderte Lösung mit einer offenen und skalierbaren Architektur, die eine nahtlose Integration in bestehende Anwendungen und IT-Infrastrukturen von Drittanbietern ermöglicht.
Verbessertes Transformatormodell für die Generierung von Daten in Text
Verbessertes Transformatormodell für die Generierung von Daten in TextNeuronale Modelle haben in letzter Zeit einen signifikanten Fortschritt bei der Generierung von Daten-zu-Text-Aufgaben gezeigt, bei denen beschreibende Texte unter der Bedingung erzeugt werden, dass sie auf Datenbankdatensätzen basieren. In dieser Arbeit präsentieren wir ein neues transformatorbasiertes Daten-zu-Text-Generierungsmodell, das Content-Auswahl und Zusammenfassung-Generierung in einer End-to-End-Weise lernt. Wir führen zwei Erweiterungen des Baseline-Transformatormodells ein: Erstens ändern wir ... Fortsetzung
Li Gong, Josep Crego, Jean Senellart
Buch: Proceedings of the 3rd Workshop on Neural Generation and Translation, Seiten 148-156, Association for Computational Linguistics, November 2019, Hongkong, ChinaSYSTRAN @ WAT 2019: Russisch-Japanische Nachrichten Kommentar Aufgabe
SYSTRAN @ WAT 2019: Russisch-Japanische Nachrichten Kommentar AufgabeIn diesem Artikel werden die Beiträge von Systran{‘}zur WAT 2019 Russisch-Japanische Nachrichten-Kommentar-Aufgabe beschrieben. Eine anspruchsvolle Übersetzungsaufgabe aufgrund der extrem geringen verfügbaren Ressourcen und der Entfernung der Sprachkombination. Wir haben die neuronale Transformatorarchitektur verwendet, die über die bereitgestellten Ressourcen gelernt wurde, und wir haben Experimente zur Erzeugung synthetischer Daten durchgeführt, die darauf abzielen, die... Fortsetzung
Jitao Xu, TuAnh Nguyen, MinhQuang Pham, Josep Crego, Jean Senellart
Proceedings of the 6th Workshop on Asian Translation, Seiten 189-194, Association for Computational Linguistics, November 2019, Hongkong, ChinaSYSTRAN @ WNGT 2019: DGT-Aufgabe
SYSTRAN @ WNGT 2019: DGT-AufgabeIn diesem Beitrag wird die Teilnahme von SYSTRAN an der gemeinsamen Aufgabe der Generierung und Übersetzung auf Dokumentebene (DGT) des 3. Workshops zur neuronalen Generierung und Übersetzung (WNGT 2019) beschrieben. Wir beteiligen uns zum ersten Mal mit einem Transformator-Netzwerk, das mit modifizierten Input-Einbettungen erweitert wurde und eine zusätzliche objektive Funktion optimiert, die die Content-Auswahl berücksichtigt. Das Netzwerk nimmt strukturierte ... Fortsetzung
Li Gong, Josep Crego, Jean Senellart
Proceedings of the 3rd Workshop on Neural Generation and Translation, Seiten 262-267, Association for Computational Linguistics, November 2019, Hongkong, ChinaSYSTRAN Teilnahme an der WMT2018 Shared Task auf Parallel Corpus Filtering
SYSTRAN Teilnahme an der WMT2018 Shared Task auf Parallel Corpus FilteringDieses Paper beschreibt die Teilnahme von SYSTRAN an der gemeinsamen Aufgabe zur parallelen Korpusfilterung auf der Dritten Konferenz für maschinelle Übersetzung (WMT 2018). Wir nehmen zum ersten Mal an einem neuronalen Satzähnlichkeitsklassifikator teil, der darauf abzielt, die Verwandtschaft von Satzpaaren in einem mehrsprachigen Kontext vorherzusagen. Das Papier beschreibt die wichtigsten Merkmale ... Fortsetzung
Minh Quang Pham, Josep Crego, Jean Senellart
Dritte Konferenz über maschinelle Übersetzung (WMT18), 31. Oktober - 1. November 2018, Brüssel, BelgienKorrektur von Übersetzungsdivergenzen in Parallelkorpora für neuronale MT
Korrektur von Übersetzungsdivergenzen in Parallelkorpora für neuronale MTKorpusbasierte Ansätze zur maschinellen Übersetzung beruhen auf der Verfügbarkeit sauberer, paralleler Korpora. Solche Ressourcen sind knapp, und aufgrund der automatischen Prozesse bei ihrer Vorbereitung sind sie oft laut. % kann Satzpaare enthalten, die nicht so parallel sind, wie man erwarten würde. Dieses Dokument beschreibt eine unbeaufsichtigte Methode zur Erkennung von Übersetzungsabweichungen... Fortsetzung
Minh Quang Pham, Josep Crego, François Yvon, Jean Senellart
Konferenz 2018 über empirische Methoden in der natürlichen Sprachverarbeitung, 31. Oktober - 4. November 2018, Brüssel, BelgienAnalyse der Wissensdestillation in der neuronalen maschinellen Übersetzung
Analyse der Wissensdestillation in der neuronalen maschinellen ÜbersetzungDie Wissensdestillation wurde kürzlich erfolgreich auf die neuronale maschinelle Übersetzung angewendet. Es ermöglicht im Grunde den Aufbau von geschrumpften Netzwerken, während die resultierenden Systeme den größten Teil der Qualität des ursprünglichen Modells behalten. Trotz der Tatsache, dass viele Autoren über die Vorteile der Wissensdestillation berichten, diskutieren nur wenige Werke die tatsächlichen Gründe, warum es funktioniert, vor allem im Kontext ... Fortsetzung
Dakun Zhang, Josep Crego und Jean Senellart
15. Internationaler Workshop zur gesprochenen Übersetzung, 29.-30. Oktober 2018, Brügge, BelgienOpenNMT Systembeschreibung für WNMT 2018: 800 Wörter/s auf einer Single-Core-CPU
OpenNMT Systembeschreibung für WNMT 2018: 800 Wörter/s auf einer Single-Core-CPUWir präsentieren eine Systembeschreibung des OpenNMT Neural Machine Translation Eintrags für die WNMT 2018 Evaluation. In dieser Arbeit entwickelten wir ein stark optimiertes NMT-Inferenzmodell, das auf ein leistungsstarkes CPU-System abzielt. Das endgültige System verwendet eine Kombination von vier Techniken, die alle zu signifikanten Beschleunigungen in Kombination führen: a) Sequenzdestillation, b) ... Fortsetzung
Jean Senellart, Dakun Zhang, Bo Wang, Guillaume Klein, J.P. Ramatchandirin, Josep Crego, Alexander M. Rush
Veröffentlicht in "Proceedings of the 2nd Workshop on Neural Machine Translation and Generation", Seiten 122-128, Association for Computational Linguistics, Juli 20 2018, Melbourne, AustralienNeuronale Netzwerkarchitekturen für die arabische Dialektidentifikation
Neuronale Netzwerkarchitekturen für die arabische DialektidentifikationSYSTRAN tritt in diesem Jahr zum ersten Mal an der gemeinsamen DSL-Aufgabe im arabischen Dialekt Identification Subtask an. Wir nehmen teil, indem wir mehrere neuronale Netzwerkmodelle trainieren, die zeigen, dass wir trotz der begrenzten Menge an Trainingsdaten, die für das Lernen zur Verfügung stehen, wettbewerbsfähige Ergebnisse erzielen können. Wir berichten über unsere Experimente und erläutern die Netzwerkarchitektur und -parameter... Fortsetzung
Elise Michon, Minh Quang Pham, Josep Crego, Jean Senellart
Veröffentlicht in "Proceedings of the Fifth Workshop on NLP for Similar Languages, Varities and Dialects", Association for Computational Linguistics, Seiten 128-136, 20. August 2018, New Mexico, USAFörderung der neuronalen maschinellen Übersetzung [PDF]
Förderung der neuronalen maschinellen Übersetzung [PDF]Die Trainingseffizienz ist eines der Hauptprobleme bei der neuronalen Maschinellen Übersetzung (NMT). Tiefe Netzwerke benötigen sehr große Daten sowie viele Trainingseinheiten, um eine Leistung auf dem neuesten Stand der Technik zu erreichen. Dies führt zu sehr hohen Rechenkosten, die Forschung und Industrialisierung bremsen. In diesem Papier schlagen wir vor, dieses Problem mit mehreren Trainingsmethoden zu lindern ... Fortsetzung
Dakun Zhang, Jungi Kim, Josep Crego, Jean Senellart
Veröffentlicht in "Proceedings of the Eighth International Joint Conference on Natural Language Processing" (Band 2: Short Papers), Asian Federation of Natural Language Processing, 2017, Taipeh, TaiwanOpenNMT: Open-Source-Toolkit für neuronale maschinelle Übersetzung [PDF]
OpenNMT: Open-Source-Toolkit für neuronale maschinelle Übersetzung [PDF]Wir beschreiben ein Open-Source-Toolkit für neuronale maschinelle Übersetzung (NMT). Das Toolkit priorisiert Effizienz, Modularität und Erweiterbarkeit mit dem Ziel, die NMT-Forschung in Bezug auf Modellarchitekturen, Featuredarstellungen und Quellmodalitäten zu unterstützen und gleichzeitig eine wettbewerbsfähige Leistung und angemessene Schulungsanforderungen aufrechtzuerhalten. Das Toolkit umfasst Modellierungs- und Übersetzungsunterstützung sowie detaillierte pädagogische Dokumentation über ... Fortsetzung
Guillaume Klein, Yoon Kim, Yuntian Deng, Jean Senellart, Alexander Rush
Veröffentlicht in "Proceedings of ACL 2017, System Demonstrations", Seiten 67-72, Association for Computational Linguistics, 2017, Vancouver, Kanada