Rédacteur 4 étoiles LLRedac, 16 Janvier 2022
Table des matières LLredac
Comme Google Home en 2016 ou Duplex en 2018,
Google a présenté
LaMDA lors de sa conférence annuelle des
développeurs I/O.
Il s'agit d'une
intelligence artificielle censée animer les discussions sur n'importe quel sujet.
Cet outil sera intégré à la recherche Google
Lors de la réunion, le PDG de l
'entreprise Google, l'a présenté sur la scène de LaMDA.
Pour chaque requête, l'outil répondra de trois à quatre phrases, ce qui ressemble à une conversation naturelle entre deux personnes.
Au fil du temps, LaMDA peut être intégré aux produits Google, notamment l'Assistant, l'espace de travail et, surtout, la recherche.
Selon Google, les capacités de dialogue naturel de LaMDA ont le potentiel de faciliter
fondamentalement l'accès et l'utilisation des informations et des calculs.
La
démo LaMDA offre une fenêtre sur la vision de la recherche Google. Cette vision est centrée sur l'AI, qui peut inférer un sens à partir du langage humain, participer à des conversations et répondre à de nombreuses questions comme un expert.
MUM : un autre outil d'intelligence artificielle
Google a lancé un autre outil
d'IA appelé Multitasking Unified Model (MUM), signifie en français: Modèle unifié multitâche, qui peut prendre en charge la recherche de texte et d'images.
Un jour, l'utilisateur peut prendre en photo une paire de chaussures, puis demander au moteur de recherche si elle est adaptée à l'ascension du mont Fuji. MUM génère des résultats dans 75 langues, et Google affirme que cela lui donne une compréhension plus complète du monde.
MUM est conçu pour réduire le nombre de recherches nécessaires pour trouver des réponses pertinentes. De plus, l'outil peut résumer et générer du texte.
Mais s'appuyer davantage sur l'intelligence artificielle pour casser le texte est aussi associé à des risques, car les ordinateurs ont encore du mal à comprendre toute la complexité du langage.
Une des IA les plus avancées pour la génération de texte GPT-3
L'
intelligence artificielle la plus avancée utilisée pour générer du texte ou répondre à des questions, connues sous le nom de modèles de langage à grande échelle, produit un article nouveau, singulier et pertinent.
Dans un article et une présentation publiés en ligne l'année dernière, des chercheurs du Massachusetts d'Intel et de
Facebook ont découvert que les principaux modèles linguistiques présentaient des préjugés stéréotypés basés sur la race, le sexe, la religion et la profession.
Un modèle linguistique plus large
Le
lancement de BERT en 2018 a déclenché une compétition entre les géants de la technologie pour construire des modèles linguistiques plus larges et améliorer les classements de performances pour des tâches telles que GLUE et d'autres compréhensions de langues populaires ou répondre à des questions.
Les
ingénieurs évaluent souvent ces modèles sur la base d'un ensemble de paramètres, qui est une mesure de la relation entre les neurones artificiels dans un système d'apprentissage en profondeur.