Le deep learning (aussi appelé “apprentissage profond”) est une méthode d’apprentissage permettant aux machines d’assimiler des concepts en analysant des bases de données.

Mais ce principe peut sembler obscur, c’est pourquoi nous vous proposons de vous pencher sur l’histoire de l’apprentissage de la machine.

C’est dans les années 1950 que cette idée a vu le jour : Alan Turing, mathématicien et cryptologue anglais travaillant sur l’informatique, conceptualise une « Learning Machine » qui serait capable d’apprendre avec l’expérience, comme un humain le ferait naturellement. En 1936, cet homme s’était déjà illustré avec son expérience de pensée, la machine de Turing. Cette machine est en réalité un modèle abstrait permettant de mesurer les algorithmes. Avant même l’invention de l’ordinateur, Turing avait imaginé une machine destinée à mettre en œuvre des mécanismes de calcul.

Se basant sur cette idée, de nombreuses techniques ont été mises au point au fil des années pour créer des algorithmes qui peuvent apprendre et progresser en toute autonomie.

Le deep learning est donc une branche du machine learning. Cette méthode repose sur l’utilisation de réseaux de neurones artificiels. En s’inspirant du fonctionnement du cerveau humain, ces systèmes sont composés de neurones connectés entre eux. Les systèmes les plus puissants sont ceux qui possèdent le plus grand nombre de neurones. Cependant, à l’inverse de l’homme, le signal transporté n’est pas électrique mais un poids. La couche finale de neurones recevra donc des signaux d’un poids différent, et c’est cette différence qui permet au réseau de trier l’information.

En vous présentant un exemple plus appliqué, mettons-nous dans une situation où la machine doit traiter un grand nombre d’images pour apprendre le concept de “visage”. Pour qu’elle puisse systématiquement identifier les personnes de manière autonome sur les photos, elle doit d’abord apprendre ce qui définit un visage : elle passe par une phase d’entraînement. Il y a deux techniques différentes : l’une, supervisée, fait appel à l’homme pour vérifier les résultats de la machine. L’autre, sans supervision humaine, laisse la machine déduire elle-même le concept qu’elle doit analyser et apprendre elle-même quels éléments sont pertinents dans l’ensemble de l’image. Par exemple, le réseau de Google Photos contient 30 couches de neurones, chacun analysant des séquences ou éléments spécifiques.

Permettant d’abord d’améliorer la reconnaissance sonore et physique, l’explosion de données étiquetées sur Internet a rendu le deep learning essentiel pour trier la quantité croissante d’informations.

Depuis les années 2000, cette technique c’est fortement répandu dans de nombreuses entreprises que nous côtoyons tous les jours comme Google, Facebook, IBM, Microsoft, Amazon… Grâce aux progrès technologiques, elle reste en perpétuelle expansion et les domaines d’implantation se multiplient. Qu’il s’agisse d’automobile avec les voitures autonomes, de l’analyse numérique, de la santé ou même de l’art, avec par exemple Google. L’entreprise a récemment lancé « Deep Dream », un système qui trouve et associe des formes qui se ressemblent pour recréer des photos grâce au deep learning.

Si beaucoup de scientifiques s’inquiètent des progrès de l’IA dus à cette méthode, les chercheurs en deep learning viennent temporiser le tableau. Yoshua Bengio par exemple, déclare que l’IA est encore très loin de pouvoir comprendre les concepts qu’elle analyse ou qu’elle crée. Il n’y pas encore de conscience de la machine à proprement parler, même si cette dernière peut désormais découvrir par elle-même des concepts sans avoir été entraînée à les distinguer.

Répondre