Deep Learning et Machine Learning : des concepts qui datent déjà du milieu du 20ème siècle mais actuellement en plein développement.
Tweeter |
C’est dans les années 1950 que le mathématicien britannique Alan Turing (1) va imaginer une machine capable d’apprendre, une « Learning Machine ».
Au cours des décennies suivantes, différentes techniques de Machine Learning ont été développées pour créer des algorithmes capables d’apprendre et de s’améliorer de manière autonome.
- Parmi ces techniques, on compte les réseaux de neurones artificiels.
C’est sur ces algorithmes que reposent le Deep Learning, mais aussi des technologies comme la reconnaissance d’images ou la vision robotique.
Les réseaux de neurones artificiels sont bâtis sur le modèle des neurones du cerveau humain.
Ils sont constitués de neurones artificiels connectés entre eux.
Plus le nombre de neurones est élevé, plus le réseau est «profond ».
Au sein du cerveau humain, chaque neurone reçoit environ 100 000 signaux électriques des autres neurones.
Chaque neurone en activité peut produire un effet excitant ou inhibiteur sur ceux auxquels il est connecté.
Au sein d’un réseau artificiel, le principe est similaire.
Les signaux voyagent entre les neurones. Toutefois, au lieu d’un signal électrique, le réseau de neurones assigne un certain poids à différents neurones.
Un neurone qui reçoit plus de charge exercera plus d’effet sur les neurones adjacents. La couche finale de neurones émet une réponse à ces signaux.
Afin de parvenir à la résolution de problèmes, le réseau de neurones doit être entraîné.
Pour ce faire, il est nécessaire de compiler un ensemble d’images d’entraînement pour pratiquer le Deep Learning.
Cet ensemble va regrouper des milliers de photos différentes d’un certain objet mélangés avec des images d’objets d’une autre nature.
Ces images sont ensuite converties en données et transférées sur le réseau.
Les neurones artificiels assignent ensuite un poids aux différents éléments.
La couche finale de neurones va alors rassembler les différentes informations pour déduire s’il s’agit ou non de l’objet considéré.
Le réseau de neurones va ensuite comparer cette réponse aux bonnes réponses indiquées par les humains.
Si les réponses correspondent, le réseau garde cette réussite en mémoire et s’en servira plus tard pour reconnaître l’objet choisi au départ.
Dans le cas contraire, le réseau prend note de son erreur et ajuste le poids placé sur les différents neurones pour corriger son erreur.
Le processus est répété des milliers de fois jusqu’à ce que le réseau soit capable de reconnaître l’objet considéré sur une photo dans toutes les circonstances.
- Cette technique d’apprentissage est appelée « supervised learning » ou apprentissage supervisé.
- Une autre technique d’apprentissage est celle de l’ « unsupervised learning », ou apprentissage non supervisé.
Cette technique repose sur des données qui ne sont pas étiquetées. Les réseaux de neurones doivent reconnaître des patterns au sein des ensembles de données pour apprendre par eux-mêmes quels éléments d’une photo peuvent être pertinents.
- Parmi les autres techniques populaires de Machine Learning, on trouve l’«adaptative boosting » (AdaBoost).
Cette technique introduite en 2001 par Paul Viola et Michael Jones de Mitsubishi Electric Research Laboratories permet de détecter les visages en temps réel sur une image :
Plutôt que de reposer sur un réseau de neurones interconnectés, AdaBoost filtre une image à partir d’un ensemble de décisions simples pour repérer les visages.
Cette technique notamment a failli supplanter les réseaux de neurones.
Toutefois, grâce à l’explosion du nombre de données étiquetées, les réseaux de neurones sont bientôt revenus sur le devant de la scène.
Ainsi, en 2007, une base de données regroupant des millions d’images étiquetées en provenance d’internet, ImageNet, a été lancée.
Grâce à des services comme Amazon Mechanical Turk, proposant aux utilisateurs deux centimes pour chaque image étiquetée, la base de données a très rapidement pu être alimentée.
Aujourd’hui, ImageNet regroupe 10 millions d’images étiquetées.
- Les réseaux de neurones d’apprentissage profond ont également évolué et contiennent désormais bien plus de couches différentes.
Le deep learning de Google Photos comporte par exemple 30 couches.
- Une autre évolution massive est celle des réseaux de neurones convolutifs.
Ces réseaux s’inspirent non seulement du fonctionnement du cerveau humain, mais aussi du système visuel.
Au sein d’un tel réseau, chaque épaisseur applique un filtre sur les images pour identifier des patterns ou des éléments spécifiques.
Les premières épaisseurs détectent les principaux attributs, tandis que les dernières épaisseurs repèrent les détails les plus subtils et les organisent en éléments concrets.
Ainsi, ces réseaux convolutifs sont en mesure d’identifier des attributs hautement spécifiques, comme la forme des pupilles ou la distance entre le nez et les yeux, afin de reconnaître un personnage avec une précision inespérée.
Voir :
«Imitation Game », ou « Le Jeu de l'imitation » sort sur les écrans français : L’occasion de découvrir, au-delà de l’approche toujours réductrice d’un film hollywoodien, la vie et les travaux du célèbre mathématicien et cryptanalyste anglais Alan Turing. Hommage à un génie trop resté dans l’oubli. - News - publié le 24/01/2015
Ce mathématicien génial, esprit universel méconnu à l'exception des scientifiques, a enfin son heure de gloire avec un film hollywoodien, Imitation Game. Mathématicien, héros (longtemps oublié) de la Seconde Guerre mondiale, il a aussi contribué à accélérer la victoire des Alliés en cassant les codes allemands. |
Selon un rapport publié par le Forum Economique Mondial, l’IA et le Cloud seraient des menaces pour le système financier. - News - publié le 19/08/2018
Selon ce rapport, l’émergence de ces technologies dans le monde de la finance pourrait créer des risques de cybersécurité, mais aussi compromettre la confidentialité des opérations des consommateurs. |
Avec ses puces Deimos et Hercules, Arm veut contrecarrer la domination d'Intel sur le marché des PC. - News - publié le 19/08/2018
Arm estime que ses processeurs disposeront de suffisamment de puissance pour contester la domination exercée depuis des décennies par Intel sur le marché des PC. |