« Deep Learning », une révolution en silence !

medalimahjoub
Mohamed Ali Mahjoub – Maître de conférences à l’Eniso

Tribune | Mohamed Ali Mahjoub – Maître de conférences à l’Eniso

Durant ces dernières années, les yeux des observateurs, en Tunisie comme ailleurs, sont braqués sur les événements sociaux-politiques qui secouent les pays d’Afrique du Nord et du Moyen-Orient. Les médias, de différentes sortes, inondent, chaque jour, nos écrans d’images des révolutions du « Printemps arabe ».

Pendant ce temps, pourtant, une autre révolution se dessine et prend forme et passe pratiquement inaperçue. Cette fois-ci il est question du monde scientifique informatique. C’est la révolution de l’intelligence artificielle. Elle est la troisième dans l’histoire.

L’apprentissage profond appelé aussi « Deep Learning » une technologie d’apprentissage informatique, basée sur des réseaux de neurones artificiels, a complètement bouleversé, en moins de cinq ans, le domaine de l’intelligence artificielle. De quoi s’agit-il exactement et quel est son impact à moyen et long terme ? Dans quelle mesure l’intelligence artificielle peut-elle changer nos vies ?

Pour beaucoup d’experts, on assiste de nos jours, à un seuil d’une mutation qui touche au cœur pensant de notre humanité, une mutation symbolisée sans doute par les progrès et les perspectives de l’intelligence artificielle (IA). Après une soixantaine d’années de maturation plus ou moins en dents de scie, l’intelligence artificielle entre dans une troisième révolution qui semble être déterminante car elle ouvre la voie vers une véritable pensée artificielle auto-apprenante, de plus en plus autonome.

Les premiers travaux de recherche dans le domaine des machines pensantes ont été une synthèse d’idées qui se sont mises au point progressivement au début des années 1950. C’était une période de découverte, de conquêtes de nouvelles contrées du savoir. Trois domaines précis sur lesquels se fond l’intelligence artificielle sans en prétendre former l’intégralité : La perception de l’environnement, domaine qui va conduire par exemple aux voitures autonomes, la résolution de problèmes combinatoires comme les jeux, et enfin l’apprentissage.

Mais atteindre ou même approcher ces objectifs s’est avéré, par le passé, plus difficile que prévu et de nombreuses promesses sont tombées dans l’eau entrainant ce que les informaticiens ont appelé les nuits – ou hivers – de l’intelligence artificielle. Dans les années 1980, des solutions d’IA baptisées « systèmes experts » ont été adoptées par les entreprises, motivés par l’annonce à l’époque par le gouvernement japonais de son initiative « ordinateurs de cinquième génération ».

Finalement, ces programmes, modélisant les connaissances d’experts, se sont révélés bénéfiques, car c’était la première fois que des techniques IA aboutissent à une application pratique, et concluante même à un certain niveau.

Par ailleurs, le physicien John Hopfield a pu montrer en 1982, qu’un réseau de neurones artificiels (RN) pouvait apprendre et traiter de l’information d’une façon inédite. Au cours de la même période, un autre scientifique a rendu populaire une nouvelle méthode de construction des RNs appelée « méthode de rétropropagation du gradient ». Ces deux nouvelles découvertes ont fait relancer le champ du connexionnisme qui avait été pratiquement abandonné depuis début 1970.

Les neurosciences, de leur côté, progressent dans la connaissance du cerveau et de ses mécanismes les plus fins. Elles ne fournissent non seulement aux machines des modèles de la cognition, mais en expérimentant à partir du cerveau, elles jettent les bases d’une externalisation des facultés mentales.

deep-learning

Ainsi, il apparaît que l’idée de réseaux de neurones profonds (deep learning) remonte à la fin des années 80. Cependant, cette technique vient seulement aujourd’hui de connaître son heure de gloire. En effet, si la théorie était déjà connue depuis une bonne période, les moyens, eux, ne sont mis en place que récemment. La puissance des ordinateurs d’aujourd’hui, combinés à la masse de données désormais accessible, a nettement amélioré l’efficacité du deep learning.

Les progrès enregistrés ont atteint un niveau, que certains n’hésitent pas à évoquer un avènement d’une quatrième révolution industrielle, basée sur l’IA, la nanotechnologie et la robotique. Concrètement, le deep learning est une technique d’apprentissage permettant, par exemple, à un programme de décortiquer et représenter le sens et le contenu d’une image, d’une vidéo ou de comprendre le langage parlé.

Il s’agit de défis complexes, sur lesquels les chercheurs en IA se sont longtemps cassé le nez. Autrement dit, la technologie du deep learning est une technologie qui apprend à représenter le monde d’une façon rapide, efficace et surtout sémantique et c’est là toute l’originalité.

Pour mieux comprendre cette technique, il faut revenir sur l’apprentissage supervisé, une méthode courante en IA, permettant aux machines d’apprendre. Concrètement, pour qu’un programme apprenne à reconnaître un visage, par exemple, on « l’alimente » de milliers d’images de visages, étiquetés comme tels. Un « entraînement » (apprentissage), qui peut nécessiter des heures, voire des jours. Une fois entraîné, il peut reconnaître des visages sur de nouvelles images.

L’originalité réside dans la manière de représentation de l’information. Pour une image de page numérisée avec un visage dessus, à un certain niveau de représentation, il y a des pixels et cela serait comme un premier niveau brut. Il y a un niveau plus élevé, où on va identifier dans l’image des bords, les bords de régions, ensuite il y a un niveau de représentation où la machine devra repérer des traits qui correspondent à des parties du visage. Et à un niveau plus élevé, ces traits pourraient être combinés pour former un visage complet.

Ainsi, avec le deep learning l’apprentissage est supervisé, mais c’est la structure interne du système qui est nouvelle : il s’agit d’un système complexe composé de milliers d’unités, les neurones, qui réalisent chacune des calculs élémentaires. La spécificité, c’est que les résultats d’une couche de neurones vont servir d’entrée au calcul de la couche suivante.

L’apprentissage est qualifié de profond grâce à ce fonctionnement par couches. Inspiré des prouesses du cerveau humain, l’apprentissage profond est un modèle reposant sur une architecture informatique visant à mimer la « profondeur » des couches d’un cerveau, dans le sens où chaque action est le résultat d’une longue chaîne de communications synaptiques.

Quand on arrive à des niveaux plus élevés d’abstraction, la représentation de la sémantique devient souvent très difficile : si on est, par exemple, en présence de plusieurs mots manuscrits dans l’image, plusieurs interprétations deviennent possibles. C’est là qu’une méthode complètement automatique pour découvrir ces différents niveaux d’abstractions, devient importante.

deep-learning-2

Une des réalisations phares du deep learning a eu lieu en 2012, quand Google Brain (application google) a été capable de découvrir, par lui-même, de nouveaux concepts : la machine a analysé, pendant trois jours, dix millions de captures d’écran issues de bases de données de YouTube, choisies sans étiquetage. Un apprentissage « aléatoire » qui a été concluant.

Cette fois, l’apprentissage est non supervisé. Les technologies évoluent, les résultats commencent toutefois à se montrer de plus en plus prometteurs. On commence à établir des records. Les responsables des grandes entreprises se sont aperçus que ces nouveaux systèmes fonctionnent très bien. En 2013, Geoffry Hintonn (professeur canadien spécialiste du deep learning) a remporté la prestigieuse compétition ImageNet, consacrée à la reconnaissance d’image.

Grâce à la technique de deep learning, il a gagné avec un taux d’erreur deux fois moins élevé que les compétiteurs les plus proches! On est passé d’une attitude très sceptique à une situation où plusieurs chercheurs se sont mis à y travailler.

On a beaucoup critiqué les réseaux de neurones à cause de leur attitude d’apprendre sans comprendre, mais aujourd’hui le système qui était jadis presque opaque, est devenu un système intelligent grâce à la sémantique modélisée à travers ses différentes couches. Une révolution est en cours. Avec le deep learning et l’émergence du big data, les avancées dans le domaine de l’IA sont en train de faire un grand bond en avant.

On admet que plus le nombre de couches augmente, plus le réseaux apprend des choses sophistiquées, abstraites, qui correspondent plus à la manière dont un humain raisonne. Pour beaucoup, le deep learning va, dans une échéance de quelques années, se généraliser dans pas mal de domaines, en particulier dans toute l’électronique de décision, comme par exemples dans les voitures ou les avions. On pense aussi à l’aide au diagnostic en médecine, où certains systèmes déjà développés « se trompent moins qu’un médecin pour certains diagnostics ».

Les robots seront eux aussi, dans le proche avenir, dotés de cette technique IA. Avec l’augmentation de la puissance informatique et les très lourds investissements ont été déjà engagés par des firmes comme Microsoft, IBM, Apple, Google, et Facebook, le développement de l’intelligence artificielle s’accélère. Aujourd’hui moyennant certaines conditions, l’ordinateur sait reconnaître sur des images des visages, des animaux aussi bien que l’homme.

Des centaines de millions d’utilisateurs se connectent à Facebook tous les jours, et chacun pourrait voir des centaines voire des milliers d’éléments d’informations par jour. Personne n’a le temps de le faire, mais il est évident qu’il faut faire une sélection et savoir ce qui serait intéressant pour chaque utilisateur, que ce soit du texte, de l’image ou de la vidéo. C’est le problème principal de Facebook : faciliter la communication entre les gens, faire remonter les informations pertinentes. C’est là que l’intelligence artificielle s’avère utile, en particulier la technique de deep learning.

En dépit de ces avancées scientifiques majeures, il faut rester prudent : comme ils le soulignent certains experts « Des gens promettent la lune, et c’est n’est pas bon pour le Deep Learning » ! En effet, ces derniers mois, plusieurs scientifiques, parmi lesquels Bill Gates et l’astrophysicien Stephen Hawking avaient avoué leurs inquiétudes par rapport aux progrès de l’intelligence artificielle, qui pourrait selon eux représenter un danger potentiel.

D’autres se veulent pragmatique, et rappellent que le domaine de l’IA a souvent souffert des attentes exagérées. Ils espèrent que, cette fois, la discipline ne sera pas victime de cette « inflation des promesses ». Quoi qu’il en soit, le domaine de l’informatique inspiré par le cerveau humain, ou informatique cognitive, n’en est qu’à ses prémices, il reste encore beaucoup à faire dans ce domaine très passionnant.

A titre indicatif, le nombre d’exemples nécessaires pour l’apprentissage reste volumineux, et encore plus faramineux le nombre de neurones nécessaires pour obtenir une approximation des fonctions cognitives et biologiques.

Commentaires:

Commentez...