L’intelligence artificielle – Comment et pourquoi ?

Le Larousse définit l’intelligence artificielle comme l’ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence humaine.
John MacCarthy, pionnier en la matière et dans le prolongement de vouloir lier sciences cognitives et technologie, optimiste quant au potentiel de la machine, déclara « toute activité intellectuelle peut être décrite avec suffisamment de précision pour être simulée par une machine ». Dés lors, il s’agit d’étudier la capacité d’une machine à reproduire des opérations de logique, du calcul brut à une réponse concrète.
Efficacité croissante, maillon essentiel de la recherche technologique, l’IA devient un enjeu pour une multitude d’acteurs, accessibilité oblige.

 

Le développement de la machine à calculer

La première machine mécanique à calculer est symbolisée par la Pascaline de Blaise Pascal, conçue après presque 3 ans de recherche, en 1645. Le but étant de faciliter les travaux de calcul à l’aide d’une machine capable d’effectuer des opérations logiques jusque là réservées à l’esprit humain. Une succession de perfectionnements fut encouragée par une demande croissante de ces machines, notamment dans les secteurs commerciaux, ce qui s’est traduit entre autre par le développement du clavier ou l’utilisation d’une imprimante afin de laisser une trace.

C’est en 1946 qui inauguré le premier « ordinateur », l’ENIAC, toujours dans une optique de répondre aux besoins croissant d’effectuer rapidement des calculs. Celui-ci est capable de produire 330 multiplications par seconde, mais pèse 30 tonnes et occupe 72m². Ce type de machine se révèle être un enjeu pendant la Guerre Froide, et l’URSS développe le MESM 5 années plus tard. L’ordinateur commercial arrive sur le marché mais demeure onéreux et peu pratique jusqu’en 1981 avec l’arrivée de la micro l’ouverture du bal par Commodore avec son VIC 20 à 300$.
Au début de l’année 1984, Steve Jobs présente fièrement l’Apple Macintosh au grand public, qui donne l’impression de posséder une forme d’intelligence humaine. Il sera allumé et se présentera de manière assez surprenante « Hello I am Macintosh and I am glad to be out of that bag ».
L’ordinateur semble s’intellectualiser et cacher cet aspect purement calculatoire de la machine, à travers le principe de système d’exploitation.
C’est véritablement au début des années 2000 qu’il est question d’intelligence artificielle, au regard des capacités des machines à « répondre », à « réagir » à l’homme. Malgré l’éclatement de la bulle Internet, des leaders du secteur s’affirment progressivement, les « GAFAM », et l’IA devient un enjeu concret dans un monde multipolaire à la diversité grandissante d’acteurs (Etats, entreprises…).

 

Un enjeu économique et politique

La Chine et les Etats-Unis dominent la Recherche et Développement en terme de dépenses (source : Banque Mondiale) et s’affirment comme les deux géants de l’intelligence artificielle.
Dans une interview par 52 Insight pour son livre AI Superpower, Lee Kai-Fu, ancien directeur de Google Chine, souligne le poids qu’a l’IA dans les objectifs du gouvernement chinois. Bien qu’il soit critique à l’égard de cette euphorie de la révolution par l’IA, Lee Kai-Fu dresse les E-U et la Chine comme les deux puissances ayant une réelle avance dans ce secteur. De surcroit, il ne cache pas non-plus le souhait de ces deux pays à développer l’IA dans le domaine de l’armement tout en affirmant « Je pense que le vœu le plus cher du gouvernement est d’apporter la prospérité au peuple chinois à travers l’IA ».

Répondre