Facebook crée le premier modèle d’IA capable de traduire 100 langues

Facebook crée le premier modèle d’IA capable de traduire 100 langues

Facebook crée le premier modèle d’IA capable de traduire 100 langues 2000 1500 Sharing

C’est une nouveauté dans le monde de la traduction automatique. Facebook a récemment créé le M2M-100, un nouveau modèle d’Intelligence Artificielle permettant de traduire plus efficacement 100 paires de langues. Après les années de recherche menées par la Fair (Facebook Artificial Intelligence Research), le réseau social de Mark Zuckerberg consolide son statut de premier réseau social mondial. Facebook se démarque par une traduction automatique multilingue qui ne ressemble pas aux autres.

Le premier modèle de traduction non basée sur l’anglais

Pour traduire une langue vers une autre, les modèles de traduction qu’on a l’habitude d’utiliser sont basés sur l’anglais. Pour traduire le chinois vers le français par exemple, il faut d’abord traduire le chinois en anglais puis l’anglais en français. La raison en est que les ressources en anglais sont les plus accessibles. Avec le M2M-100, ce ne sera plus le cas. La traduction automatique ne sera plus centrée sur l’anglais. Elle se fera directement entre la langue source et la langue cible quelle que soit la direction linguistique. Ce modèle a pour effet d’améliorer significativement la qualité de la traduction pour tous, même pour les langues à faibles ressources. En créant le M2M-100, Facebook a pour objectif de briser les barrières linguistiques. Le réseau souhaite également rassembler les gens et les protéger des contenus haineux. En cette période, il permet aussi de mieux communiquer les informations sur le Covid-19.

Une bien meilleure performance par rapport aux autres modèles

Le M2M-100 est fondé sur 7,5 milliards de paires de phrases collectées sur le web dans 100 langues différentes. Il est formé sur un total de 2200 directions linguistiques, c’est-à-dire 10 fois plus que les meilleurs modèles centrés sur l’anglais. Afin de créer son MMT (Multilingual Machine Traduction), Facebook a pris en compte 15 milliards de paramètres. Il s’agit d’un modèle universel. Facebook s’est aussi appuyé sur les recherches déjà réalisées depuis plusieurs années avec CcMatrix, CcAligned et Laser. Le réseau est d’ailleurs en train de créer un nouveau protocole de minage nommé Laser 2.0. Il servira à perfectionner les traductions du M2M-100. Après les nombreux tests de conformité auxquels ce nouveau modèle de traduction automatique sera soumis, Facebook l’utilisera pour améliorer la traduction instantanée sur sa plateforme. Les socionautes y créent aujourd’hui des milliards de publications dans plus de 160 langues.

Actuellement, Facebook effectue déjà 20 milliards de traductions par jour sur Facebook News Feed. Toutes les ressources d’exploration de données que le réseau utilise pour le M2M-100 sont accessibles au public et sont en open source.