You are viewing a single comment's thread from:

RE: [QuoiDeNeuf?] Google Duplex, vrai ou fausse intelligence?

in #fr6 years ago

Merci @french-tech pour l'article. Effectivement Duplex est une belle invention, et les possibilités qu'elle offre sont assez larges. En tous cas, ce qui est sûr, c'est que ca va donner un bel avantage compétitif à ceux qui pourront utiliser cette techno..

Par contre, ce n'est pas simplement du deep learning, mais une accumulation de plusieurs réseaux profonds pour analyser, structurer, organiser, chercher, synthétiser et transcrire. Rien que la dernière étape a été faite grace à du WaveNet, les autres avec des choses plus anciennes. Et le tout a un effet de mémoire (surement de type LSTM).

Bref une belle mécanique pour un résultat bluffant !

J'ai eu la chance d'être dans l'auditoire pendant ces présentations, et si ca vous intéresse, j'ai synthétisé les différents usages du machine/deep learning que Google a présenté pendant la semaine. Si ca t'intéresse, ainsi que @kaliangel , @zonguin et les autres, c'est par ici :
https://busy.org/@iero/google-i-o-2018-machine-learning

Sort:  

Merci pour le lien, je vais aller jeter un coup d'oeil. Ce qui me déplait le plus c'est que actuellement cette IA a besoin de puissance et de données pour fonctionner, cela elle va le chercher sur les serveurs Google, donc Google a accès à tout donc niveau vie privée... En plus de cela ça utilise du Deep Learning et cette technologie fonctionne avec des quantités monstreuses de données, données qui sont sans doute pris aux utilisateurs et ce pas forcément de manière anonyme.

Effectivement, avec un bémol, car la puissance nécessaire n'est plus un problème pour ces acteurs qui utilisent leurs milliers de TPU/GPU non utilisés par leurs clients. AWS a bénéficié de ce support le premier et a été capable de sortir un Alexa performant.. mais à base de quelles données ??

Ce ne sont pas non plus les données qui ont servi à faire les entrainements qui me posent le plus de questions, car des données textuelles/vocales, il y en a beaucoup de disponibles, et on peut (ca veut pas dire qu'ils le font) respecter, avec quelques procédés, l'anonymat des sources et des concepts (privacité différentielle et compagnie).

Mais c'est surtout la façon dont elles ont été annotés/labélisées qui me sidère. Pour obtenir une telle qualité de réponses (même si ca ne doit pas fonctionner à tous les coups), ca demande un travail de labélisation/corrections monstrueux.

Je suis vraiment très curieux de savoir quelles sont les étapes mises en place pour arriver à faire ce travail. Surement un mix de supervisé/non-supervisé avec beaucoup d'humain derrière..

Coin Marketplace

STEEM 0.28
TRX 0.12
JST 0.034
BTC 63138.90
ETH 3290.65
USDT 1.00
SBD 3.89