ElevenLabs sort de la phase bêta avec un modèle de voix IA à 28 langues après une valorisation de 11 milliards de dollars
Darius Baruo 06 mars 2026 12h27
ElevenLabs lance Eleven Multilingual v2 prenant en charge 28 langues, sortant officiellement de la phase bêta quelques semaines après avoir obtenu un financement Séries A de 500 millions de dollars avec une valorisation de 11 milliards de dollars.
ElevenLabs est officiellement sorti de la phase bêta et a lancé Eleven Multilingual v2, un modèle vocal IA fondamental prenant en charge 28 langues. Le lancement intervient quelques semaines seulement après que la société ait conclu un tour de financement Séries A de 500 millions de dollars qui l'a valorisée à 11 milliards de dollars.
Le nouveau modèle identifie automatiquement le texte écrit dans près de 30 langues et génère ce que l'entreprise décrit comme un discours « émotionnellement riche ». Plus important encore pour les créateurs de contenu, les caractéristiques vocales, y compris les accents d'origine, restent cohérentes dans toutes les langues prises en charge. Une seule voix clonée peut désormais produire du contenu en chinois, japonais, arabe, coréen et 24 autres langues sans perdre ses qualités distinctives.
18 mois de recherche portent leurs fruits
ElevenLabs a passé un an et demi à construire de nouveaux mécanismes pour comprendre le contexte et transmettre l'émotion dans la parole synthétisée. Le timing n'est pas accidentel. Avec 330 millions de dollars de revenus annuels récurrents déclarés pour 2025 et plus d'un million d'utilisateurs sur la plateforme, l'entreprise avait besoin d'une infrastructure capable d'évoluer à l'échelle mondiale.
Cette évolution a reçu un coup de pouce le mois dernier lorsque ElevenLabs a étendu son partenariat avec Google Cloud, obtenant l'accès aux GPU NVIDIA Blackwell pour gérer la demande croissante.
La liste des langues comprend désormais le chinois, le coréen, le japonais, le turc, l'indonésien, le philippin, l'ukrainien, le grec, le tchèque, le finnois, le roumain, le danois, le bulgare, le malais, le slovaque, le croate, l'arabe classique et le tamoul. Celles-ci rejoignent les huit langues d'origine : l'anglais, le polonais, l'allemand, l'espagnol, le français, l'italien, l'hindi et le portugais.
Qui en bénéficie le plus
Les développeurs et éditeurs de jeux ont beaucoup à gagner. Les studios indépendants peuvent désormais localiser le contenu vocal pour un public international sans avoir à embaucher des comédiens de doublage pour chaque marché. Embark Studios et Paradox Interactive utilisent déjà la plateforme.
Les établissements d'enseignement bénéficient d'une génération instantanée de contenu audio dans les langues cibles, utile pour les programmes d'apprentissage des langues et pour accueillir des étudiants internationaux. Les éditeurs de livres audio comme Storytel, déjà partenaire d'ElevenLabs, peuvent étendre leurs catalogues vers de nouveaux marchés plus rapidement.
L'aspect accessibilité est également important. Le contenu visuel peut désormais être complété par une parole multilingue pour les utilisateurs malvoyants, sans le coût d'enregistrement de pistes audio séparées pour chaque langue.
Et ensuite
ElevenLabs prévoit d'introduire un mécanisme de partage de voix qui permet aux utilisateurs de monétiser leurs voix clonées lorsque d'autres les utilisent pour la création de contenu. Le PDG Mati Staniszewski l'a présenté comme une « collaboration humain-IA », bien que les détails du partage des revenus restent flous.
La trajectoire de l'entreprise, passant d'une valorisation de 100 millions de dollars en juin 2023 à 11 milliards de dollars en février 2026, reflète l'appétit plus large du marché pour la technologie vocale IA. Avec 781 millions de dollars de financement total sur cinq tours, ElevenLabs dispose de la marge nécessaire pour poursuivre son objectif déclaré : rendre le contenu accessible dans n'importe quelle langue, avec n'importe quelle voix.
Source de l'image : Shutterstock- elevenlabs
- voix IA
- synthèse vocale
- IA multilingue
- séries d


