Suite à mes premières expériences avec l’apprentissage profond (deep machine learning) pour réaliser un système de synthèse vocale pour la langue luxembourgeoise, dont les résultats ont été publiés sur mon blog “Mäi Computer schwätzt Lëtzebuergesch“, j’ai constaté que le recours au seul corpus de données Marylux-648 ne permet pas d’entraîner un meilleur système que le modèle VITS, présenté le 6 janvier 2022. Il fallait donc étendre la base de données TTS (text-to-speech) luxembourgeoise pour améliorer les résultats.
Le ZLS (Zentrum fir d’Lëtzebuerger Sprooch) m’a offert sa collaboration pour enregistrer un texte d’envergure par deux orateurs, l’un féminin, l’autre masculin, dans son studio d’enregistrement. Comme un tel projet demande de grands efforts, j’ai proposé d’explorer d’abord tous les enregistrements audio, avec transcriptions, qui sont disponibles sur le web. Une telle approche est typique pour le Grand-Duché de Luxembourg : réaliser des grands exploits avec un minimum de moyens.
Une première source pour l’extension du corpus TTS constitue les dictées luxembourgeoises publiées sur le site web infolux de l’Institut de linguistique et de littératures luxembourgeoises de l’Université du Luxembourg, dirigé par Pr Peter Gilles. Avec l’accord aimable de tous les ayants droit, j’ai converti les fichiers audio et texte de ces dictées dans un format qui convient pour l’apprentissage profond, avec les mêmes procédures que celles décrites dans mon dépôt Github Marylux-648.
Pour faciliter l’apprentissage du corpus TTS luxembourgeois étendu, j’ai seulement retenu les dictées lues par des orateurs féminins. Heureusement c’est le cas pour la majorité des dictées. Les oratrices sont Caroline Doehmer, Nathalie Entringer et Sara Martin.
Les résultats sont les suivants:
10 Übungsdictéeën : 179 échantillons, 2.522 mots, ca 26 minutes
100 Sätz : 100 échantillons, 1.117 mots, ca 9 minutes
Walfer-Dictéeën : 78 échantillons, 1.177 mots, ca 9 minutes
Ensemble avec Marylux-648, la nouvelle base de données TTS comprend 1005 échantillons, avec quatre voix. J’appelle ce corpus “Luxembourgish-TTS-Corpus-4-1005”. Dans une première étape j’ai utilisé ces données pour entraîner le modèle COQUI-TTS-VITS-multispeaker à partir de zéro.
Entraînement TTS avec quatre voix à partir de zéro
Après 32.200 itérations, les métriques des performances du modèle, affichés régulièrement dans les logs lors de l’entraînement, n’ont plus progressé. Mais comme lebest_model.pth.tar, sauvegardé à cette occasion, n’est pas nécessairement le plus performant pour la synthèse de textes luxembourgeois inconnus, j’ai continué l’entraînement jusqu’à 76.000 itérations. Le checkpoint le plus avancé est dénommé checkpoint_76000.pth.tar.
Lors de la synthèse vocale, il faut spécifier non seulement le texte à parler, le fichier de configuration, le fichier du modèle TTS et le nom du ficher audio à sauvegarder, mais également la voix à utiliser pour la synthèse. Comme dans mes expériences précédentes, j’ai utilisé la fable “De Nordwand an d’Sonn” comme texte à synthétiser. A titre d’information j’indique un exemple de commande entrée dans le terminal linux pour procéder à la synthèse.
tts --text "An der Zäit hunn sech den Nordwand an d’Sonn gestridden, wie vun hinnen zwee wuel méi staark wier, wéi e Wanderer, deen an ee waarme Mantel agepak war, iwwert de Wee koum. Si goufen sech eens, datt deejéinege fir dee Stäerkste gëlle sollt, deen de Wanderer forséiere géif, säi Mantel auszedoen. Den Nordwand huet mat aller Force geblosen, awer wat e méi geblosen huet, wat de Wanderer sech méi a säi Mantel agewéckelt huet. Um Enn huet den Nordwand säi Kampf opginn. Dunn huet d’Sonn d’Loft mat hire frëndleche Strale gewiermt, a schonn no kuerzer Zäit huet de Wanderer säi Mantel ausgedoen. Do huet den Nordwand missen zouginn, datt d’Sonn vun hinnen zwee dee Stäerkste wier." --use_cuda True --config_path /media/mbarnig/T7/lb-vits-multispeaker/vits_vctk-January-21-2022_07+56AM-c63bb481/config.json --model_path /media/mbarnig/T7/lb-vits-multispeaker/vits_vctk-January-21-2022_07+56AM-c63bb481/checkpoint_76000.pth.tar --out_path /media/mbarnig/T7/lb-vits/vits_vctk-January-21-2022_07+56AM-c63bb481/walfer_checkpoint_76000.wav --speakers_file_path /media/mbarnig/T7/lb-vits-multispeaker/vits_vctk-January-21-2022_07+56AM-c63bb481/speakers.json --speaker_idx "VCTK_walfer"
Je vais présenter ci-après les auditions pour les différents cas de figure :
Voix “Judith”
Voix “Caroline”
Voix “Sara”
Voix “Nathalie”
Même si les résultats sont impressionnants à la première écoute, il ne s’agit pas encore de l’état d’art en matière d’apprentissage profond pour la création d’un modèle de synthèse vocale.
Entraînement TTS avec quatre voix et apprentissage par transfert
Un des atouts des réseaux neuronaux qui sont à la base de l’apprentissage profond des machines est l’apprentissage par transfert (transfer learning). Wikipedia le décrit comme suit :
L’apprentissage par transfert est l’un des champs de recherche de l’apprentissage automatique qui vise à transférer des connaissances d’une ou plusieurs tâches sources vers une ou plusieurs tâches cibles. Il peut être vu comme la capacité d’un système à reconnaître et appliquer des connaissances et des compétences, apprises à partir de tâches antérieures, sur de nouvelles tâches ou domaines partageant des similitudes.
Dans le cas de la synthèse vocale, l’apprentissage par transfert consiste à utiliser un modèle TTS, entraîné avec une large base de données dans une langue à ressources riches, pour l’entraîner dans la suite avec une petite base de données dans une langue à faibles ressources, comme le Luxembourgeois.
La communauté COQUI-TTS partage un modèle TTS-VITS anglais, entraîné avec le corpus VCTK pendant un million d’itérations et avec un large jeu de phonèmes IPA, y compris ceux que j’ai retenu pour mes modules de phonémisation luxembourgeoise gruut et espeak-ng. La base de données de référence VCTK comprend environ 44.000 échantillons, prononcés par 46 orateurs et 63 oratrices.
J’ai téléchargé ce modèle tts_models–en–ljspeech–vits et j’ai continué son entraînement avec ma base de données “Luxembourgish-TTS-Corpus-4-1005”. Le best_model.pth.tar a été sauvegardé à 1.016.100 itérations. Après mon interruption de l’entraînement, le dernier checkpoint a été enregistré à 1.034.000 itérations. Je présente ci-après seulement les auditions des synthèses réalisées avec ce checkpoint.
Voix “Judith”
Voix “Caroline”
Voix “Sara”
Voix “Nathalie”
Spécifications techniques
Contrairement à ma première contribution “Mäi Computer schwätzt Lëtzebuergesch“, je n’ai pas présenté des détails techniques dans le présent rapport pour faciliter la lecture. Je vais toutefois publier prochainement les graphiques, métriques et autres caractéristiques techniques en relation avec les entraînements sur mon dépôt Github Luxembourgish-TTS-Corpus-4-1005. Avis aux amateurs des technologies de l’intelligence artificielle.
Conclusions
Les résultats obtenus avec l’apprentissage par transfert donnent envie à parfaire le modèle de synthèse vocale luxembourgeois. Plusieurs pistes restent à creuser :
création d’une base de données TTS luxembourgeoise multi-voix plus large avec les contenus audio et texte disponible sur le site web de RTL-Radio. Un grand Merci aux responsables de RTL qui m’ont autorisé à utiliser les ressources afférentes pour constituer un tel corpus.
utilisation d’un modèle TTS pré-entraîné avec une large base de données allemande, au lieu du modèle TTS anglais, pour l’apprentissage par transfert
utilisation d’un modèle TTS pré-entraîné multi-voix et multilingue pour l’apprentissage par transfert
perfectionnement du modèle de phonémisation luxembourgeoise
réalisation de tests avec d’autres architectures de modèles TTS
En parallèle à mes expériences de création d’un système de synthèse vocale luxembourgeoise, j’ai démarré les premiers essais avec un système de reconnaissance de la langue luxembourgeoise (STT : speech to text) avec transcription automatique, en utilisant mes bases de données TTS luxembourgeoises, converties dans un format approprié. Les premiers résultats sont encourageants.
Application interactive de démonstration
J’ai publié le 12 juillet 2022 une application interactive étendue multilingue et multivoix lb-de-en-fr-pt-COQUI-STT de mon modèle sur la plateforme d’intelligence artificielle Huggingface.
En 1960, J.C.R. Licklider a publié son fameux article au sujet de la symbiose homme-machine qui préfigurait l’informatique interactive. Huit ans plus tard, en 1968, il publiait, ensemble avec Robert W. Taylor, la contribution visionnaire The Computer as a Communication Device. Le dessin humoristique qui suit, réalisé à l’époque pour cette publication par Rowland B. Wilson, montre l’ordinateur OLIVER qui annonce à un visiteur que son patron n’est pas au bureau.
Toutefois il fallait attendre presque 40 ans avant que cette vision soit devenue une réalité. Aujourd’hui la reconnaissance de la parole humaine et la synthèse vocale sont des tâches quotidiennes effectuées par les ordinateurs. La parole devient de plus en plus importante pour la communication Homme-Machine.
Hélas la majorité des humains est encore écartée de la facilité de s’entretenir avec un ordinateur dans sa langue maternelle. Des interfaces vocales performantes sont disponibles depuis quelques années pour les langues les plus parlées : anglais, mandarin, hindi, espagnol, français, allemand, … Plus que la moitié de la population mondiale parle une des autres 7.000 langues qui existent sur la planète. Parmi ce groupe il y a de nombreuses langues à faibles ressources qui ne disposent pas de règles pour l’écriture ou pour la vocalisation.
Depuis l’antiquité les humains ont été fascinés par les technologies de synthèse vocale. J’ai raconté l’histoire de ces technologies dans mon livre Synthèse vocale mécanique, électrique, électronique et informatique. Un des systèmes TTS (Text-to-Speech) informatiques les plus universels et performants est MaryTTS de l’université de la Sarre, dont le développement remonte à l’année 2000. En 2015, la langue luxembourgeoise a été ajoutée à ce système sous le nom de Marylux. La base de données Marylux comporte un fichier audio enregistré en 2014 par Judith Manzoni sur base de phrases luxembourgeoises (63 minutes), françaises (47 minutes) et allemandes (22 minutes), avec les textes correspondants.
Pour donner une idée sur la qualité de la voix synthétique Marylux je vais présenter l’enregistrement original et la génération synthétique par MaryTTS de la fable d’Esope “Borée et le Soleil” en langue luxembourgeoise. Voici le texte de cette fable :
Den Nordwand an d’Sonn.
An der Zäit hunn sech den Nordwand an d’Sonn gestridden, wie vun hinnen zwee wuel méi staark wier, wéi e Wanderer, deen an ee waarme Mantel agepak war, iwwert de Wee koum. Si goufen sech eens, datt deejéinege fir dee Stäerkste gëlle sollt, deen de Wanderer forcéiere géif, säi Mantel auszedoen. Den Nordwand huet mat aller Force geblosen, awer wat e méi geblosen huet, wat de Wanderer sech méi a säi Mantel agewéckelt huet. Um Enn huet den Nordwand säi Kampf opginn. Dunn huet d’Sonn d’Loft mat hire frëndleche Strale gewiermt, a schonn no kuerzer Zäit huet de Wanderer säi Mantel ausgedoen. Do huet den Nordwand missen zouginn, datt d’Sonn vun hinnen zwee dee Stäerkste wier.
On peut écouter ci-après la parole enregistrée
et la parole synthétisée de ce texte avec MaryTTS :
Les figures suivantes montrent l’évolution du son dans le temps pour la première phrase de la fable, ainsi que les spectrogrammes correspondants :
Synthèse vocale avec réseaux neuronaux
La technologie de synthèse Marylux reposait sur un modèle informatique utilisant une méthode de sélection d’unités. Cette technique est devenue obsolète aujourd’hui, suite à la progression fulgurante des technologies d’apprentissage approfondi des machines (deep machine learning) sur base de réseaux neuronaux.
Lors de la conférence Interspeech 2017 à Stockholm, Google a présenté un nouveau système de synthèse vocale appelé Tacotron qui repose sur la superposition de deux réseaux neuronaux. Les résultats étaient proches d’une prononciation par des humains. La publication académique afférente porte les noms de 14 auteurs.
Depuis cette date ce modèle a été perfectionné et de nouveaux modèles neuronaux TTS ont été développés : Tacotron2-DCA, Tacotron2-DDC, GlowTTS, Fast-Pitch, Fast-Speech, AlignTTS, Speedy-Speech, VITS, … En 2021 on a pu découvrir tous les quelques jours une nouvelle publication scientifique au sujet de TTS dans l’archive ouverte de prépublications électroniques ArXiv sur Internet.
Marylux-648
Pour entraìner un modèle TTS neuronal avec la base de données Marylux, enregistrée en 2014, j’ai ajusté les fichiers correspondants pour les adopter d’une façon optimale aux besoins de l’apprentissage automatique profond (deep machine learning). J’ai publié la nouvelle base de données publique sous le nom de Marylux-648-TTS-Corpus sur mon dépôt de développement Github. Il s’agit de 648 clips audio luxembourgeois, chacun ayant une durée inférieure à 10 secondes, et des transcriptions y associées. La durée totale est de 57 minutes et 31 secondes. Le lecteur intéressé est invité à consulter les détails sur Github.
Comme les modèles TTS neuronaux sont gourmands en données et entraînés en général avec des enregistrements audio d’une durée de plusieurs dizaines d’heures, j’ai exploré dans une première phase le potentiel et les contraintes de différents modèles TTS face à une base de données dont la durée totale n’atteint même pas une heure.
Avant de présenter les résultats de mes premiers tests, je vais décrire sommairement le cadre de mes expériences.
Modèles TTS neuronaux à source ouverte
Les modèles TTS neuronaux les plus courants peuvent être répartis en quatre grandes familles:
Tacotron
Glow
Forward-Feed
Vits
Pour les trois premières familles, la synthèse (inference) de la parole à partir d’un texte se fait en deux étapes. Le texte est d’abord converti en spectrogramme, puis transformé en signal audio avec un vocodeur (vocoder). Les vocodeurs les plus courants sont relevés ci-après:
Griffin-Lim
WaveNet
WaveRNN
WaveGrad
WaveGAN
HifiGAN
MelGAN
UnivNet
À l’exception du premier vocodeur (Griffin-Lim) qui est algorithmique, les autres vocodeurs sont également entraìnés avec des réseaux neuronaux sur base d’enregistrements audio, de préférence avec la même base de données que celle utilisée pour l’apprentissage du modèle TTS. Hélas les différents vocodeurs ne sont pas tous compatibles avec les différents modèles TTS.
La quatrième famille (VITS) dispose d’une architecture de bout-à-bout (end-to-end) avec vocodeur intégré.
A côté du type de modèle TTS et du type de vocodeur, on fait la distinction entre les caractéristiques suivantes:
support d’une seule langue avec une voix (mono-speaker)
support d’une seule langue avec plusieurs voix (multi-speaker)
support de plusieurs langues avec une voix (multilingual, mono-speaker)
support de plusieurs langues avec plusieurs voix (multilingual, multi-speaker)
En ce qui concerne le choix des modèles TTS et des vocodeurs pour mener mes tests, je me suis limité à l’utilisation de projets tiers à source-ouverte (open-source) et avec des licences libres de droits (MIT, CC, …). À côté de projets de développeurs individuels que je vais présenter dans la suite, je me suis notamment basé sur les développements réalisés par les communautés Coqui-TTS et Rhasspy.
Entraînement d’un modèle TTS avec une nouvelle base de données
L’entraînement d’un modèle TTS avec une nouvelle base de données peut se faire à partir de zéro (from scratch) ou à partir d’un modèle existant. Dans le deuxième cas on parle de transfert d’apprentissage (transfer learning) ou de fin réglage (fine tuning).
Les 648 échantillons de la base de données Marylux-648 sont d’abord mélangés (shuffling), puis répartis en 640 exemples pour l’entraînement proprement dit et en 8 exemples pour l’évaluation, effectuée après chaque cycle d’apprentissage. Les six phrases de la fable “De Nordwand an d’Sonn”, qui ne font pas partie du jeu d’apprentissage, sont utilisées pour les tests automatiques réalisés après chaque évaluation.
Pour l’entraînement des modèles j’utilise les infrastructures suivantes:
mon ordinateur personnel avec carte graphique NVIDIA RTX 2070, système d’exploitation Linux Ubuntu 20.4 et système de développement Python 3.8
mon compte Google-Colab pro dans les nuages, avec CUDA P100 et système de développement Python 3.7
Un cycle d’apprentissage complet est appelé une époque (epoch). Les itérations sont effectuées par lot (batch). La durée d’une itération est fonction de la taille du lot. On a donc intérêt à choisir une taille élevée pour un lot. La différence s’exprime par des durées d’apprentissage de plusieurs heures, jours, semaines ou voire des mois. Hélas la taille des lots est tributaire de la taille de mémoire disponible sur la carte graphique (CUDA).
En général je ne peux pas dépasser une taille de lot supérieure à 10 sur mon ordinateur personnel, sans provoquer une interruption de l’entraînement à cause d’un débordement de la mémoire (memory overflow). Sur Google-Colab je ne peux guère dépasser une valeur de 32.
Pour faciliter la comparaison des performances et qualités des différents modèles TTS, j’ai défini une limite de 1000 époques pour chaque entraînement. Sur mon ordinateur personnel une époque prend donc 64 itérations, sur Google-Colab le nombre se réduit à 20. Le temps d’exécution d’une époque est en moyenne de 95 secondes sur mon ordinateur personnel, ce qui fait environ 26 heures pour l’entraînement complet d’un modèle TTS avec Marylux-648 (64.000 itérations).
Avec un lot de 32, on s’attend à une réduction du temps d’entraînement d’un facteur 3,2, c.à.d. à environ 8 heures. Or à cause du partage des ressources entre plusieurs utilisateurs sur Google-Colab, le gain est plus faible. J’ai observé un temps de calcul moyen de 72 secondes par époque, ce qui donne une durée totale d’entraînement d’environ 20 heures pour 1000 époques (20.000 itérations).
Pour entraîner une base de données de référence comme LJSpeech, VCTK ou Thorsten Voice, qui ont chacune une durée d’enregistrement d’environ 24 heures, le temps de calcul se situe donc entre 3 et 4 semaines, dans les mêmes conditions. On peut réduire le temps d’apprentissage en augmentant la taille des lots à 64, voire à 128 échantillons. Une autre possibilité consiste à utiliser plusieurs cartes graphiques connectées en réseau. Le projet Coqui-TTS supporte une telle interconnexion CUDA. Des témoignages recueillis auprès de développeurs de modèles TTS neuronaux confirment que dans la pratique il faut compter une à deux semaines pour exécuter un entraînement avec une nouvelle base de données, ayant une durée d’enregistrements d’une dizaine d’heures, sur un ensemble ordinateur & CUDA performant.
Marylux-648 Tacotron2-DCA
Pour présenter les résultats obtenus avec l’entraînement de la base de données Marylux-648, il convient de commencer avec le doyen des modèles TTS neuronaux: Tacotron. L’apprentissage profond a été réalisé à partir de zéro. Avant d’entrer dans les détails, nous allons écouter la synthèse de la fable “De Nordwand an d’Sonn”.
Le résultat n’est pas fameux !
La prochaine image montre la séquence temporelle des signaux audio. La figure confirme qu’il y a problème.
En utilisant un vocodeur entraìné au lieu du vocodeur algorithmique Griffin-Lim, on peut améliorer la qualité de la synthèse. La première phrase de la fable Nordwand sert d’échantillon de comparaison. La synthèse avec vocodeur Griffin-Lim est reprise ci-après, suivie par la synthèse avec un vocodeur Hifigan.
Le signal temporel de ces deux clips audio est affiché dans l’image qui suit. Une différence notable entre les deux clips est bien visible, mais la qualité auditive n’est pas encore satisfaisante.
Le modèle Coqui-TTS Tacotron2-DCA (Dynamic Convolution Attention) constitue une n-ième évolution du premier modèle TTS Tacotron avec une nouvelle architecture qui est cofigurée par un ensemble de plus de 150 hyper-paramètres, en format json. La liste complète de configuration peut être téléchargée sur mon site web, un extrait est présenté dans la figure qui suit.
Une possibilité théorique d’améliorer la qualité de synthèse d’un modèle TTS est de mieux régler la configuration, suivant une procédure “essai-erreur (trial and error)” ou sur base d’analyses complexes supplémentaires de la base de données. Avec le grand nombre de paramètres de configuration et les durées d’entraînement dépassant une journée pour effectuer un nouveau essai avec la base de données Marylux-648, ce n’est guère praticable.
Une deuxième possibilité consiste à prolonger l’apprentissage en continuant l’entraînement pendant plusieurs époques supplémentaires. Mais comme dans notre cas le dernier fichier de contrôle (checkpoint) avec le nom “best_model.pth.tar” a été enregistré après xxx itérations (steps), cela ne fait pas de sens de dépasser mon seuil fixé à 1000 époques (64.000 itérations).
La seule solution valable consiste à étudier en détail la progression du livre de bord (logs), enregistré lors de l’entraînement. Le modèle TTS Tacotron2-DCA de coqui.ai, comme d’ailleurs tous les modèles TTS partagés par cette jeune start-up, utilisent le fameux kit de visualisation de TensorFlow, appelé TensorBoard. L’outil permet le suivi et la visualisation de métriques relatifs à l’apprentissage profond (deep machine learning), telles que la perte (loss) et la justesse. TensorBoard peut également afficher des histogrammes de pondérations et de biais, des images, des textes et des données audio, au fur et à mesure de leur évolution.
Les métriques générés lors de l’entraînement du modèle TTS Tacotron2-DCA permettent l’affichage, sous forme graphique, de la progression des résultats relatives aux évaluations (13 scalaires, 4 images, 1 fichier audio), aux époques, respectivement aux tests (16 scalaires, 12 images, 6 fichiers audio) et aux itérations, respectivement à l’entraînement (16 scalaires, 4 images, 1 fichier audio).
Les trois images qui suivent donnent un aperçu sur l’affichage de scalaires, d’images (spectrogrammes et attentions) et de fichiers audio du modèle TTS Tacotron2-DCA, à la fin de l’entraînement avec la base de données Marylux-648.
On peut également consulter les paramètres de configuration en vigueur pour l’entraînement dans le menu “Text”.
Google, le créateur des outils TensorFlow et TensorBoard, offre une plateforme gratuite de partage des résultats d’expériences d’apprentissage profond, sous le nom de TensorBoard.dev. Malheureusement cette plateforme ne permet pas encore le partage des spectrogrammes et des données audio. J’ai toutefois installé mon livre de bord relatif au modèle Tacotron2-DCA sur cette plateforme, ce qui permet à chacun d’analyser l’évolution des scalaires afférents en temps réel.
La prochaine image donne un aperçu sur cet outil TensorBoard.dev.
Sans vouloir entrer dans les détails, l’exploration du livre de bord montre que l’entraînement dun modèle TTS Tacotron2-DCA avec la base de données Marylux-648 est entré dans une phase de sur-apprentissage (overfitting), ce qui ne permet pas de synthétiser correctement des mots ou phrases non vus lors de l’apprentissage. Il faut se rendre à l’évidence que la taille de la base de données Marylux-648 est insuffisante pour entraîner un modèle TTS Tacotron2-DCA.
Il est vrai que Tacotron est connu pour être gourmand en données.
Je vais présenter les résultats obtenus avec d’autres modèles TTS lors de prochaines contributions sur mon présent site web. Mais pour ne pas laisser le lecteur intéressé sur sa faim jusque-là, je vais rapidement introduire le dernier né des familles TTS neuronaux. Il s’appelle VITS.
Marylux-648 VITS
VITS est l’abréviation pour Conditional Variational Autoencoder with Adversarial Learning for End-to-End Text-to-Speech. La prochaine figure montre les signaux temporels des six phrases de la fable “Nordwand”, synthétisées avec le modèle Coqui-TTS VITS. L’allure donne confiance, et l’audition qui suit confirme que la qualité de la synthèse dépasse largement celle du modèle Tacotron2-DCA.
Les deux figures qui suivent montrent un aperçu de l’évolution des métriques lors de l’entraînement de la base de données Marylux-648 avec le modèle TTS VITS. Les graphiques peuvent être visualisés en détail sur TensorBoard.dev.
Mot de la fin
L’apprentissage profond de machines est une technique passionnante. Le comportement des réseaux neuronaux à la base des architectures de systèmes de synthèse de la parole me rappellent parfois les réactions de mes cinq petits-enfants lorsqu’ils faisaient de nouvelles découvertes ou lors d’un nouvel apprentissage. J’ai également constaté que des anciennes techniques réapparaissent dans des nouveaux systèmes. Les spectrogrammes utilisés dans les modèles neuronaux TTS ont déjà été utilisés dans la machine Pattern Playback, développé par Franklin S. Cooper à la fin des années 1940.
Furbies were the first successful attempt to produce and sell domestically-aimed robots. They were launched in 1998. In April 2012, it was announced that Hasbro will be making a new line of Furbies, which was released in September 2012. The Furby 2012 was first launched in six colors, one month later four other colors were added. A second generation of six Furbies, with styleable tufts of hair on their heads, was relased in December 2012. Compared to the original Furby, the Furby 2012 has more expressive LCD eyes, a wider range of motions, its own iOS and Android app (to feed, care and control the Furby), and the ability to adapt its personality in reaction to user behavior.
Angry Personality : Furby will act grumpy and irritable. Get this by overfeeding.
Diva Personality : Furby may turn into this personality if it listens to music for an extended period of time.
Valley Girl Personality : Furby resembles a stereotypical teenage girl. Get this by talking for a long time.
Cute Personality : Furby will act friendly and sing a lot. Get this by repeatedly petting it.
Crazy Personality : Comedic and funny personality. Furby will often laugh like crazy over almost anything. Get by shaking and pulling tail.
Default Personality : When you put the batteries in for the first time. To get it back, hold it upside down, hold the tongue, then hold the tail for a few seconds. Instead of flashing eyes, furby will reboot.
In February 2013 the Furby Party Rockers were launched. They can sing and chat with Furby 2012 and with other Party Rockers, have a new voice and can be used with the app’s for IOS and Android. They only speak Furbish. There are 4 rockers in the 1st generation (Fussby, Loveby, Twittby, Scoffby) and 2 rockers in the 2nd generation (Wittby and Nerdby).
Furby Party Rockers : Fussby, Twittby, Lovely, Scoffby, Wittby, Nerdby
In August 2013, the new Furby Boom was launched and became the No1 best seller this Christmas 2013. Furby Boom is packed with loads of new features and can be encouraged to lay eggs into your tablet, via the new iOS and Android app, which then grow to become a small virtual Furby (Furbling) that you can then feed, maintain and play games with, like the former Tamagotchis. By caring the Furbling you earn Furbucks to unlock other features and extras. Up to 50 eggs can be collected and will unlock a whole Furby Boom City.
The first species of Furbies (1998 – 2005) communicate with infrared ports. The Furbies 2012 and later use an audio protocol to communicate with other nearby Furbies and with the apps. Igor Afanasyev (iafan) from Moscow, Russia, analyzed and recreated this audio protocol to communicate with Furbies using a computer.
OpenWorm aims to build the first comprehensive computational model of the Caenorhabditis elegans (often called C. elegans, even if this term is a species abbreviation), a free-living, transparent nematode (roundworm), about 1 mm in length, that lives in temperate soil environments. With only a thousand cells, it solves basic problems such as feeding, mate-finding and predator avoidance.
The basic anatomy of C. elegans includes a mouth, pharynx, intestine, gonad, and collagenous cuticle. C. elegans has two sexes: hermaphrodites and males (0.05%).
C. elegans is one of the simplest organisms with a nervous system. In the hermaphrodite, this comprises 302 neurons whose pattern of connectivity (connectome) has been completely mapped and shown to be a small-world network. C. elegans was also the first multicellular organism to have its genome completely sequenced. The genome consists of six chromosomes (named I, II, III, IV, V and X) and a mitochondrial genome. The sequence was first published in 1998 with regular updates, because DNA sequencing is not an error-free process. The latest version released in the WormBase () is WS238.
WormBase is an international consortium of biologists and computer scientists dedicated to providing the research community with accurate, current, accessible information concerning the genetics, genomics and biology of C. elegans and related nematodes. Founded in 2000, the WormBase Consortium is led by Paul Sternberg of CalTech, Paul Kersey of the EBI, Matt Berriman of the Wellcome Trust Sanger Institute, Lincoln Stein of the Ontario Institute for Cancer Research, and John Spieth of the Washington University Genome Sequencing Center. Richard Durbin served as a principal investigator until 2010.
Additional informations about C. elegans are available at the following links :
WormBook – a free online compendium of all aspects of C. elegans biology
WormAtlas – an online database for behavioral and structural anatomy of C. elegans
Despite being extremely well studied in biology, the C. elegans still eludes a deep, principled understanding of its biology. The OpenWorm project uses a bottom-up approach, aimed at observing the worm behaviour emerge from a simulation of data derived from scientific experiments carried out over the past decade. To do so, the data available in the scientific community is incorporated into OpenWorm software models.
An open-source simulation platform called Geppetto is used by the OpenWorm Project to run these different models together. An OpenWorm Browser enables ready access to a cell-by-cell 3D representation of the nematode C. elegans in a WebGL enabled browser. The 3d browser was created with the help of the Google Labs Body Browser team. The browser has also been ported to an iOS app to support the project. All the code produced in the OpenWorm project is Open Source and available on GitHub.
The OpenWorm project was realized by a highly motivated group of individuals who believe in Open Science.
The early core team members of the OpenWorm project were :
Andrey Palyanov, A.P. Ershov Institute of Informatics Systems (IIS), Russian Academy of Science
Balazs Szigeti, University of Edinburg, School of Informatics
Artificial General Intelligence (AGI) is an emerging research field aiming at the building of thinking machines; that is, general-purpose systems with intelligence comparable to that of the human mind (and perhaps ultimately well beyond human general intelligence). While this was the original goal of Artificial Intelligence (AI), the mainstream of AI research has turned toward domain-dependent and problem-specific solutions; therefore it has become necessary to use a new name to indicate research that still pursues the Grand AI Dream. Similar labels for this kind of research include Strong AI, Human-level AI, etc. Other AI researchers prefer the term of Synthetic Intelligence.
The research on AGI is interdisciplinary, focused on whole systems and includes scientific and philosophical investigation and software engineering.
Artificial General Intelligence Research Institute
The term AGI was first used by Mark Avrum Gubrud in November 1997. Fifty years after the launch of the Artificial Intelligence Project in Dartmouth in 1956, Ben Goertzel, Phil Goetz, Pei Wang and Bruce Klein organized the first Artificial General Intelligence Research Institute (AGIRI) workshop in May 2006 to bridge the gap between narrow AI and general-purpose AI. The AGI Research Institute was founded in 2001 with the mission to foster the creation of powerful and ethically positive Artificial General Intelligence. The institute is sponsored by Novamente LLC.
The first conference on Artificial General Intelligence (AGI-08) was organized by AGIRI in March 2008 in Memphis, Tennessee, USA, in association with the Association for the Advancement of Artificial Intelligence (AAAI).
promote the study of artificial general intelligence (AGI), and the design of AGI systems
facilitate co-operation and communication among those interested in the study and pursuit of AGI
hold conferences and meetings for the communication of knowledge concerning AGI
produce publications regarding AGI research and development
publicize and disseminate by other means knowledge and views concerning AGI
The organization of the annual Artificial General Intelligence conference series, which was started in 2008 by AGIRI, has been taken over by the AGI society. The next conference (AGI-2013) will be held in Beijing, China, July 31 – August 3, 2013.
Some additional informations about AGI are available at the following links :
The DARPA PAL (the Personalized Assistant that Learns) program focused on improving the way that computers support humans through the use of cognitive systems. These are systems that reason, learn from experience and accept guidance in order to provide effective, personalized assistance. DARPA’s five-year contract (2003 – 2008) brought together over 300 researchers from 25 of the top university and commercial research institutions, with the goal of building a new generation of a cognitive personalized assistant that can reason, learn from experience, be told what to do, explain what they are doing, reflect on their experience, and respond robustly to surprise. Among the contributors were the Carnegie Mellon University, the University of Massachusetts, the University of Rochester, the Institute for Human and Machine Cognition, Oregon State University, the University of Southern California, and Stanford University, as well as from SRI.
SRI International has led the PAL Framework effort to make available many of the successful machine learning and reasoning technologies developed on the PAL program for use by the broader DARPA, research, and military communities. SRI was founded as Stanford Research Institute in 1946 and is a nonprofit research institute headquartered in Menlo Park, California. The institute formally separated from Stanford University in 1970 and is now one of the largest contract research institutes in the world.
One of the components of PAL was CALO (Cognitive Assistant that Learns and Organizes), an artificial intelligence project that attempted to integrate numerous AI technologies into a cognitive personalized assistant. The CALO effort has had many major spin-offs :
the Siri intelligent software assistant that is now part of the Apple iOS
Artificial intelligence (AI) is the intelligence of machines and the branch of computer science which aims to create it.The term was coined by John McCarthy in 1955. The field of AI research was founded at a conference on the campus of Dartmouth College in the summer of 1956. The attendees, including John McCarthy, Marvin Minsky, Allen Newell and Herbert A. Simon, became the leaders of Artificial Intelligence research for many decades.
Good Old-Fashioned Artificial Intelligence (GOFAI)
AI research began in the mid 1950s after the Dartmouth conference. The field AI was founded on the claim that a central property of humans, intelligence, can be so precisely described that it can be simulated by a machine. The first generation of AI researchers were convinced that this sort of AI was possible and that it would exist in just a few decades.
In the early 1970s, it became obvious that researchers had grossly underestimated the difficulty of the project. By the 1990s, AI researchers had gained a reputation for making promises they could not keep. The AI research suffered from longstanding differences of opinion how it should be done and from the application of widely differeing tools.
The field of AI regressed into a multitude of relatively well insulated domains like logics, neural learning, expert systems, chatbots, robotics, semantic web, case based reasoning etc., each with their own goals and methodologies. These subfields, which often failed to communicate with each other, are often referred as applied AI, narrow AI or weak AI.
After the AI winter, the mainstream of AI research has turned with success toward domain-dependent and problem-specific solutions. These subfields of weak AI have grown up around particular institutions and individual researchers, some of them are listed hereafter:
Peter Norvig, Google’s head of research, and Eric Horvitz, a distinguished scientist at Microsoft Research, are optimistic about the future of machine intelligence. They spoke recently to an audience at the Computer History Museum in Palo Alto, California, about the promise of AI. Afterward, they talked with Technology Review‘s IT editor, Tom Simonite.
A few AI searchers continue to believe that artificial intelligence could match or exceed human intelligence. The term strong AI, now in wide use, was introduced for this category of AI by the philosopher John Searle of the University of California at Berkeley. Among his notable concepts is the Chinese Room, a thought experiment which is an argument against strong AI.
Strong Artificial Intelligence
Strong AI is the intelligence of a machine that could successfully perform any intellectual task that a human being can. Strong AI is associated with traits such as consciousness, sentience, sapience (wisdom) and self-awareness observed in living beings.
There is a wide agreement among AI researchers that strong artificial intelligence is required to do the following :
reason, use strategy, solve puzzles and make judgements under uncertainty
represent knowledge, including commonsense knowledge
plan
learn
communicate in natural language
integrate all these skills towards common goals
Other important capabilities include the ability to sense (see, …) and the ability to act (move and manipulate objects, …) in the observed world.
Some AI researchers adopted the term of Artificial General Intelligence (AGI) to refer to the advanced interdisciplinary research field of strong AI. Other AI researchers prefer the term of Synthetic Intelligence to make a clear distinction with GOFAI.
The following links provide some informations about the history and the concepts of Artificial Intelligence :
The global brain is a metaphor for the worldwide intelligent network formed by all the individuals of this planet, together with the information and communication technologies that connect them into a self-organizing whole. Although the underlying ideas are much older, the term was coined in 1982 by Peter Russell in his book The Global Brain.
The first peer-refereed article on the subject was written by Gottfried Mayer-Kress and Cathleen Barczys in 1995. The first algorithms that could turn the world-wide web into a collectively intelligent network were proposed by Francis Heylighen and Johan Bollen in 1996. Francis Heylighen reviewed the history of the concept and its usage, he distinguished four perspectives :
organicism
encyclopedism
emergentism
evolutionary cybernetics
These perspectives now appear to come together into a single conception.
Bio:Fiction was the world’s first synthetic biology film festival. The first and original festival took place at the Museum of Natural History in Vienna, Austria, from 13-14th of May 2011. Since then Bio:Fiction is officially on tour around the world. The festival provided information and dialogue about synthetic biology in an attractive, factual and entertaining way.
Synthetic biology aims at applying engineering principles to biology. The DNA of an organism is no longer manipulated, but programmed on a computer and built up from scratch.
The Festival marked also the beginning of the synbio art exhibition Synth-ethics in the Museum, that presented biotech art objects related to synthetic biology. The exhibition featured 10 artist and lasted from May 14th to June 26th, 2011.
Theo Jansen, born 14 March 1948, is a Dutch artist and kinetic sculptor. Since 1990 he builds large works, called strandbeests, which resemble skeletons of animals, that are able to walk using wind power on the beaches of the Netherlands. Not pollen or seeds but plastic yellow tubes are used as the basic material of this new creatures. Eventually he wants to put these animals out in herds on the beaches, so they will live their own lives.
Some beach animals have a stomach consisting of recycled plastic bottles containing air, that can be pumped up to a high pressure by the wind. Others are able to detect once they have entered water and walk away from it, and one species will even anchor itself to the earth if it senses a storm approaching.
The artworks of Theo Jansen have been presented on numerous websites, TV shows, videos, books, conferences and exhibitions. The movie Strandbeesten, directed by Alexander Schlichter (2008), was presented at the Bio:Fiction festival in 2011.
An assembly kit of a miniature version of the strandbeests Animaris Ordis Parvusis available at the website of the artist. It is produced by Gakken Education Publishing Co. Ltd. Japan. After assembling, the mini strandbeest walks on the wind, by hand or by blowing against the propeller. Another strandbeest, the mini Rhinocerus, has been published by the same company in Japan.