Logo of MSmédecine/sciences : m/s
Med Sci (Paris). 36(10): 919–923.
doi: 10.1051/medsci/2020145.

Parcourir l’histoire de l’intelligence artificielle, pour mieux la définir et la comprendre

Jacques Haiech1

1Biotechnologie et signalisation cellulaire, École supérieure de biotechnologie de Strasbourg (ESBS), Pôle API , 300 boulevard Sébastien Brant - CS 10413 , 67412Illkirch Cedex , France
Des définitions

Les définitions que nous utilisons ici nous sont personnelles et ont pour but de donner une cohérence à l’ensemble de notre propos.

L’intelligence artificielle a pour objectif de construire des dispositifs simulant les processus cognitifs humains…

L’intelligence artificielle dite faible se focalise sur un domaine d’expertise particulier, alors que l’intelligence artificielle dite forte couvre un périmètre large de domaines, avec la possibilité d’arriver à produire des raisonnements analogiques/métaphoriques et des généralisations.

Le développement de dispositifs d’intelligence artificielle a pour objectifs :

1) d’amplifier les capacités cognitives et de raisonnement de l’être humain ; dans ce cas, c’est un dispositif technique, qui relève d’une démarche d’ingénierie, dispositif qui pourrait être utilisé pour réparer l’être humain ou amplifier ses capacités ;

2) de permettre de comprendre les processus cognitifs humains par la démarche « comprendre en construisant ». On est dans ce cas dans la démarche d’un scientifique essayant de comprendre les mécanismes régissant les processus cognitifs des êtres vivants. Cela relève à la fois des neurosciences et des sciences cognitives.

«Chez les êtres humains, les processus cognitifs renvoient à des enchaînements d’opérations mentales, en relation avec la saisie des informations, leur stockage et leur traitement » [ 1 ], et débouchent éventuellement sur une action.

… ce qui conduit à définir l’intelligence comme la capacité à capter des informations, les stocker, les traiter et utiliser le résultat de ces traitements pour éventuellement déclencher une action .

Différentes formes d’intelligence peuvent être définies, en fonction des types d’informations, de leurs modes de stockage, de leurs modes de traitements et des types d’actions générés ou pas.

On peut considérer que toute structure vivante, à différents niveaux de complexité (de la macromolécule jusqu’à la société, en passant par les organelles, les cellules, les tissus, les organes, les systèmes physiologiques et l’individu), possède une ou des formes d’intelligence.

Ainsi, la vision, qui consiste à détecter des photons, conduisant à la création d’une image éventuellement mémorisée, image que notre cerveau va traiter pour en extraire des informations, informations qui vont également être traitées pour conduire à une ou des actions, est un processus cognitif focalisé et largement étudié.

Simuler et/ou modéliser la vision, c’est :

1) améliorer celle-ci, puis créer un œil artificiel (lentilles puis capteur de photons et rétines artificielles)

2) stocker les images, en utilisant le moins de mémoires possibles (par des algorithmes de compaction d’images)

3) traiter les images et en extraire de l’information (ce qui sous-tend la reconnaissance d’objets dans l’image, en utilisant des méthodes d’apprentissage, par exemple)

4) utiliser cette information pour accroître les capacités du radiologue, par exemple, ou éventuellement remplacer celui-ci (grâce à des « détections de tumeurs », etc.), pour poser un diagnostic qui conduira éventuellement à proposer un ou des traitements.

L’optimisation d’un système de vision procède de l’optimisation de ces quatre dispositifs, mais aussi de leurs interactions et de leurs éventuelles synergies avec d’autres systèmes d’information.

Dans la nature, il existe différents types d’yeux qui sont, chacun, adaptés aux différents environnements rencontrés par l’animal qui les possède. L’évolution a en effet permis d’engendrer une grande diversité de «  caméras  ».

Les capacités de stockage d’images vont avoir une influence sur les possibilités de traitement de l’information qu’elles apportent. Ainsi, la possibilité de stocker une image unique ne permettra pas de créer des trajectoires temporelles et, à fortiori, de construire des fonctions d’évolution temporelle, ce qui empêche toute possibilité de prédiction et d’anticipation. À l’inverse, une caméra, plutôt qu’un appareil photo, en instituant une flèche temporelle, permet le passage d’un mode descriptif à un mode anticipatif. Enfin, la capacité de construction d’un monde virtuel 1 , que l’on compare à ce que nos sens capturent, permet de prendre conscience de notre existence dans un monde sensible, c’est-à-dire perçu par l’intermédiaire de nos sens. Cela nous permet de construire des modèles explicatifs de notre environnement, et, donc, de l’explorer mentalement (parce qu’il est devenu un objet abstrait, il peut alors être la cible d’une intelligence qui pourra projeter des possibles virtuels) et non plus simplement physiquement.

Nos capacités intellectuelles dépendent ainsi fortement de nos capacités de traitement de l’information. L’étape ultime du traitement de l’information consistera en la possibilité de créer un environnement virtuel dans notre cerveau, intégrant notre « avatar » (notre représentation virtuelle) 2 , et de pouvoir agir mentalement sur cet écosystème virtuel et sur notre interaction avec ce monde via notre avatar. Il s’agit donc d’une définition de la notion de conscience, allant au-delà de notre simple reconnaissance dans un miroir.

Une brève histoire de l’intelligence artificielle

Parce que très parlante, je commencerai par le récit des conférences de Macy, au nombre de dix, qui se sont tenues de 1946 à 1953. Ces conférences ont été précédées par un évènement fondateur qui avait eu lieu en mai 1942 : une réunion sur l’inhibition cérébrale, organisée par Frank Fremont-Smith, l’administrateur de la fondation Josiah Macy Jr 3 . Cette réunion interdisciplinaire rassemblait, sur invitation :

1) Warren McCulloch et Arturo Rosenblueth (neurobiolologistes et physiciens), qui seront les premiers à modéliser la cellule neuronale selon une logique binaire ; cette modélisation sera à la base des premières constructions de neurones virtuels, puis de réseaux neuronaux ; ils sont les défenseurs d’une modélisation du cerveau par une approche digitale (c’est-à-dire l’information codée sous forme de 0 et de 1) ;

2) Margaret Mead et Gregory Bateson (anthropologues) et Lawrence Kubie (psychiatre et psychanalyste), tenants d’une approche complexe et systémique 4 pour comprendre le fonctionnement de la pensée humaine : ainsi, pour eux, le cerveau fonctionne de manière analogique, c’est-à-dire selon une logique multimodale (par exemple, une assertion peut être fausse, un peu fausse, un peu vraie, vraie) ;

3) Frank Fremont-Smith et Lawrence Kelso Frank, les administrateurs de la fondation Josiah Macy Jr, convaincus qu’il faut développer l’interdisciplinarité et marier les sciences « dures » et les sciences humaines et sociales.

Cette conférence a donné lieu à des échanges informels autour de présentations d’autres personnalités invitées, telles que Milton Erickson sur l’hypnose et Howard Liddell sur le réflexe conditionné.

Suite à cette première conférence et face à la richesse de ses échanges et aux idées qu’elle avait faites émerger, une série de conférences sur la cybernétique, au nombre de dix, désormais connues sous le nom de conférences de Macy, furent « instituées », sous la houlette des deux administrateurs de la fondation Macy. Ceux-ci demandèrent à Warren McCulloch (déjà présenté ci-dessus) d’en assurer la coordination scientifique.

Ces conférences avaient pour objectif de développer une théorie générale du fonctionnement de la pensée humaine. Organisées seulement sur invitation, elles rassemblaient un groupe de scientifiques, dont la composition s’est seulement légèrement modifiée au cours du temps, de même que celle de participants invités en fonction des thèmes traités. Le groupe des scientifiques au cœur de ces conférences comprenait 24 membres, 22 hommes et 2 femmes, dont 12 issus des sciences « dures » et 12 des sciences humaines et sociales. Les personnalités marquantes, outre les fondateurs, étaient Julian Bigelow (physicien et ingénieur informaticien), John von Neumann (mathématicien et fondateur de la théorie des jeux, il quittera l’assemblée lors de la 6 e conférence), Walter Pitts (neurobiologiste), Norbert Wiener (mathématicien et inventeur de la cybernétique [ 4 ], qui quittera l’assemblée à la 8 e conférence), Heinz von Foerster (physicien biologiste), et Hans Lukas Teuber (psychologue) qui, avec Margaret Mead, constituaient le comité de rédaction de ces conférences.

Cinquante personnalités ont été invitées tout au long de ces conférences, dont Max Delbrück (physicien et généticien) qui refusera de participer au groupe des permanents, et Claude Shannon (père de la théorie de l’information), qui sera invité à toutes les conférences à partir de la 6 e . Ross Asby (psychiatre qui a joué un rôle important en cybernétique) a participé à la 9 e conférence.

Ces conférences thématiques, dont les discussions ont ensuite été rapportées et discutées en conférences plénières, ont permis d’approfondir les champs de connaissances abordés. L’objectif de départ, qui consistait à établir les bases d’une théorie du mode de fonctionnement du cerveau et des processus cognitifs, ne sera cependant pas atteint. Toutefois, ces conférences ont rassemblé la majorité des acteurs qui joueront un rôle important en ingénierie de l’intelligence (intelligence artificielle, aujourd’hui que l’on peut considérer comme l’aspect d’ingénierie des sciences cognitives) et en sciences cognitives.

Elles ont permis d’acter une fracture entre deux communautés : celle qui veut simuler les processus cognitifs, en utilisant des machines digitales, et celle qui veut comprendre ces processus, en prenant en compte les caractéristiques émotionnelles et sociales. Jean-Pierre Dupuy (ingénieur et philosophe français) [ 5 ] a analysé le rôle de ces conférences dans la naissance des sciences cognitives. Pour construire des dispositifs capables de comprendre ces processus cognitifs, on peut s’inspirer du vivant (biomimétisme) ou pas. Dans tous les cas, il est toutefois nécessaire d’aborder un domaine que l’on peut interroger, ce qui soulève trois questions importantes :

1. comment simuler un de nos sens ? Comme évoqué plus haut, on se focalisera sur la vue (reconnaissance et traitement d’image) et sur l’ouïe (reconnaissance et traitement de la parole) ;

2. comment devenir un joueur imbattable ? Les échecs vont constituer un fantastique terrain de jeu (théorie des jeux et systèmes experts) ;

3. comment simuler le processus de recherche d’un scientifique ? Cela s’appliquera, d’abord, à la démonstration de théorèmes mathématiques (calcul symbolique).

En juillet 1956, une réunion de travail, qui va en fait durer huit semaines au cours de l’été, est organisée à Dartmouth (États-Unis). Elle est initiée par deux jeunes chercheurs (John McCarthy et Marvin Minsky, qui a été un étudiant de McCullogh et de Pitts) et deux chercheurs seniors (Nathaniel Rochester et Claude Shannon), tous américains et chercheurs en mathématique ou en informatique. Prévue pour réunir 11 participants, la réunion de travail en accueillera 20, dont quatre anciens piliers des conférences de Macy (Warren McCullogh, Julian Bigelow, Claude Shannon et Ross Ashby).

Le terme « Intelligence artificielle » a été choisi en juillet 1956 par John McCarthy, pour ne pas faire allégeance à la « cybernétique » et à son chef de file, Norbert Wiener. Ce dernier va se rapprocher du «  ratio club  », un club anglais fondé par John Bates, qui réunira ses membres de 1949 à 1958, et où l’on trouve Ross Ashby (psychiatre-ingénieur anglais venu très tôt à la cybernétique) et, après la première réunion, Alan Turing. Un nouveau domaine de recherche ayant pour objet la simulation et la compréhension des processus cognitifs est, à cette époque, en train de naître. On assiste alors à une bataille sémantique, porté par les ego de chacun, et la création de deux communautés distinctes (l’intelligence artificielle qui a ses racines plutôt américaines et la cybernétique/systémique qui a plutôt ses racines en Europe). Ces deux communautés sont cependant en interaction permanente, mais avec des niveaux de financements qui varient dans le temps. Pour l’intelligence artificielle, on parlera d’une succession de périodes hivernales (hivers de l’IA), dans les moments où elle ne sera pas ou peu financée par les institutions aux États-Unis et en Europe.

La cybernétique, quant à elle, est un domaine qui est lié au concept d’homéostasie, cher à Claude Bernard (qu’il propose en 1865 dans son Introduction à l’étude de la médecine expérimentale ) et que l’on va retrouver dans la théorie générale des systèmes de Ludwig von Bertanlanffy (en 1968) 5, , un biologiste qui, dans l’ouvrage dont il est auteur, va généraliser une approche systémique qu’il a progressivement mise au point dans son travail sur le vivant : tout système qui nécessite un état stationnaire pour survivre a mis en place des systèmes de rétrocontrôle positifs ou négatifs qui s’activent quand l’état du système s’éloigne de l’objectif à atteindre 6, . La France a joué un rôle important dans la théorisation mathématique de ce concept, avec Louis Couffignal mais aussi avec Szolem Mandelbrojt, l’oncle du père des fractales, Benoit Mandelbrot 7 .

Dans les années 1960, on assiste à la convergence de quatre sous-domaines :

1. la cybernétique, avec son aspect robotique et automate (Norbert Wiener et John von Newman), qui est focalisée sur le rétrocontrôle ( feedback ) des structures vivantes (de la cellule jusqu’aux sociétés). Le vivant apparaît comme stable face aux agressions non programmables de l’environnement. On retrouvera ces paradigmes dans les travaux de Francisco Varella 8 et de son mentor Umberto Maturana et, en France, ceux d’Henri Atlan (qui fut influencé par les travaux d’Heinz von Foerster, le rédacteur en chef des conférences de Macy) ;

2. la théorie générale des systèmes de Ludwig von Bertalanffy (influencé par les travaux de Ross Ashby, cité plus avant), qui sera à l’origine de la biologie des systèmes. Tout système vivant est constitué d’éléments qui interagissent entre eux et ce sont les différents modes d’interaction qui font émerger des comportements et des structures complexes. On y associe l’aphorisme selon lequel le Tout est supérieur fonctionnellement à la somme de ses éléments. On y perçoit aussi l’importance des flux d’information au-delà des flux de matière et d’énergie, et l’importance de l’émergence de la complexité par itération de lois simples : la fractalisation du vivant. Edgar Morin, lorsqu’il organise avec Jacques Monod et Massimo Piatelli-Palmarini le colloque de Royaumont en septembre 1972 sur l’unité de l’homme, va déboucher sur le concept de pensée complexe qu’il a emprunté à Ross Ashby 9 ;

3. l’intelligence artificielle dans sa phase d’ingénierie qui, partant de l’analogie entre cerveau et ordinateur digital, va permettre de construire les machines, les langages et les modes de représentation de données, pour fabriquer des dispositifs capables de jouer mieux ou aussi bien qu’un être humain (théorie des jeux, recherche opérationnelle) ou de démontrer des théorèmes mieux ou aussi bien qu’un mathématicien (raisonnement symbolique) ;

4. les méthodes de classification, capables d’annoter des groupes d’objets à partir d’un langage de description prédéfini, ou capables de définir le meilleur langage de description, pour obtenir la meilleure annotation souhaitée. Dans le premier cas, on a affaire à une classification non supervisée et dans l’autre cas, à une classification supervisée. Les méthodes utilisées s’appuient sur les statistiques descriptives (avec les travaux de Jean-Pierre Benzecri, un mathématicien et statisticien français spécialiste de l’analyse de données), jusqu’aux réseaux neuronaux monocouches et multicouches, en pointe aujourd’hui avec les travaux de Yan LeCun sur le deep learning , en passant par les outils de statistiques peu enseignés, comme les inférences bayésiennes 10 .

Ces différents sous-domaines ont induit la création de communautés avec leurs lots de jargons, de conférences et de journaux, et leurs leaders majeurs d’opinion. Peu ou pas de fertilisation croisée, et peu ou pas d’enseignements permettant d’avoir une vision globale et comparative de ces différentes positions et méthodes.

Intelligence artificielle et biologie/médecine/santé

En ce qui concerne l’intelligence artificielle, si l’on essaie de suivre les domaines abordés en biologie et en médecine en fonction du temps, on observe les étapes suivantes :

1. dans les années 1950 et 1960, la vision a été le domaine d’étude de prédilection, avec une approche biomimétique, évoquée plus haut. La reconnaissance des chiffres et des lettres se fera en utilisant une machine inspirée de la modélisation d’un réseau neuronal. C’est le perceptron de Rosenblatt, un classificateur composé de neurones 11 ;

2. dans les années 1970, l’objectif est d’extraire la connaissance d’un domaine par les experts, de la transcrire sous forme de règles, et de l’intégrer dans un système expert. Mycin, un système expert d’aide au diagnostic, est l’exemple le plus connu de cette époque ;

3. dans les années 1980, on va essayer de construire des machines qui apprennent, c’est-à-dire capables de classer les objets. Dans le domaine de la biologie, les bases de données de séquences prennent de l’ampleur. On va donc essayer de réaliser des détecteurs de motifs (promoteurs, exons-introns, zones codantes, etc.). La bioinformatique, telle que nous la connaissons aujourd’hui, est alors en train de naître et se développer. Elle emprunte toutes les techniques de classification, y compris les moteurs d’apprentissage. Si on voit se développer les réseaux neuronaux, ce sont surtout les moteurs d’apprentissage à base de règles 12 qui sont utilisés, ainsi que tous les outils de la statistique qui sont disponibles (statistique descriptive, avec les méthodes de classification et les méthodes de réduction de dimensionnalité, les chaînes de Markov, les inférences bayésiennes, etc.) ;

4. dans les années 1990, la puissance des ordinateurs continue de s’accroître ; ils permettent désormais d’analyser de plus grandes quantités de données. Les classificateurs évoluent, comme SVM ( support vector machine ) ;

5. les années 2000 vont voir l’arrivée en force des représentations de données sous forme de graphes. Ces outils seront utiles pour analyser les différents niveaux d’interaction dans une cellule, mais aussi entre cellules et entre individus. L’analyse de ces réseaux va permettre de faire émerger des communautés et de les annoter (communautés de gènes, de protéines, de cellules, etc.). Le développement d’outils de classification à base de réseaux neuronaux multicouches apparaît alors. Ces réseaux sont à la base des dispositifs d’apprentissage profond : une couche apprend des caractéristiques spécifiques de l’objet, c’est-à-dire les mots permettant de décrire au mieux l’objet ; la couche suivante utilise ce langage pour classifier au mieux les objets étudiés. L’architecture et l’optimisation de ces réseaux sont les problèmes centraux qui ont été abordés par une communauté restreinte (dont Yan LeCun est le chef de file) [ 6 ] ;

6. c’est dans les années 2010 que ces architectures neuronales vont montrer leurs supériorités pour résoudre des problèmes de reconnaissance d’image et de traduction des langues. Elles sont désormais utilisées en imagerie médicale, mais encore délaissées pour analyser les données -omiques.

C’est l’accroissement de la puissance des ordinateurs, mais aussi leurs structures et leurs environnements logiciels qui ont permis les différents développements que nous venons de décrire.

Les perspectives

Nous voyons que développer une machine capable de simuler les processus cognitifs nécessite quatre sous-systèmes en interaction :

1) La capacité de « sentir » notre écosystème et de nous y projeter. Si la vue et l’ouïe ont été les sources d’étude et d’inspiration principales, il manque les trois autres sens et, éventuellement, le développement de capteurs qui intéressent des sens absents chez l’homme (le champ électromagnétique, présent chez les oiseaux, par exemple).

2) Ces sens nous procurent une image du monde qui nous entoure. Stocker ces images en les compactant est nécessaire, mais comment le faire pour des « images » sensibles du goût, du toucher, ou de l’odorat ?

3) Il faut également décrire ces images et en extraire des connaissances pour, ensuite, reconstruire une réalité virtuelle de l’environnement et de notre présence dans cette réalité. Les images obtenues doivent donc être décrites, en utilisant un vocabulaire et une syntaxe optimaux, afin que des connaissances puissent être produites. Comme le décrit Yan LeCun, des caractéristiques spécifiques doivent être extraites : elles constitueront le socle qui permettra de décrire l’objet. Si la description est bonne, on pourra facilement apprendre et ainsi classifier les objets. Si nous sommes capables d’appréhender le monde qui nous entoure, de nommer les objets et, ensuite, de construire les interactions entre ces différents éléments, alors nous pourrons bâtir un monde virtuel dans lequel il nous sera possible de faire des expériences de pensée. Nous serons alors capables d’expérimenter, sans subir les inconvénients des échecs du monde réel. Par ce mode d’apprentissage, que Yan LeCun appelle auto-supervisé, nous apprendrons plus rapidement avec moins d’exemples réels, et nous deviendrons capables de mettre en place des capacités d’anticipation et de stratégie à moindre coût. Faut-il attendre les ordinateurs quantiques pour avoir l’apparition de la conscience dans un dispositif artificiel (calcul symbolique sur une multitude d’hypothèses en parallèle) ?

4) Ayant la capacité de tester virtuellement plusieurs scénarios, le dernier étage de notre dispositif peut alors permettre de choisir parmi différents plans et d’adopter le meilleur dans un contexte donné.

Quand tous les défis scientifiques pour construire ces sous-systèmes, les optimiser et les interconnecter, via une architecture adéquate, auront été résolus, alors nous pourrons disposer d’un robot médecin, d’un assistant chercheur ou d’un coach pédagogue pour les professions de santé, tous ayant une apparence humanoïde. Le robot médecin sera capable de générer un avatar de son patient et de l’utiliser pour tester les différentes options thérapeutiques. L’assistant chercheur sera capable de garantir notre intégrité scientifique, en organisant notre processus de publication. Quant au coach pédagogue, il éclairera le chemin d’apprentissage de l’étudiant, qui sera aisément personnalisé pour faciliter sa formation de professionnel en santé. Peut-on imaginer un expert artificiel qui serait capable de classer une publication en acceptable ou non ? Rien ne semble l’interdire si l’on est capable de fournir suffisamment d’exemples ? En revanche, cet expert artificiel sera-t-il apte à détecter une recherche disruptive qui propose de nouveaux concepts ? C’est peu probable. En effet, il sera sans doute plus à même de favoriser une recherche confirmatoire, sans grande créativité et originalité [ 7 ] ( ).

(→) Voir le Forum de J. Haiech et T. Jouault, m/s n° 6-7, juin-juillet 2020, page 651

Mais cette apparence humanoïde n’est en fait pas nécessaire : un ensemble de capteurs dans le cadre de l’internet des objets (IoT- internet of things ), dont les informations seraient stockées dans un nuage ( cloud ), pourrait constituer une entité pensante lorsque les traitements des informations permettront de créer une réalité sociale virtuelle. Une telle réalité pourrait être au service d’un projet politique. Mais n’est-ce pas ce que l’on voit émerger en République populaire de Chine, avec la mise en place d’un indicateur de socialisation par individu ?

Des dispositifs « pensants » qui seront des humanoïdes en silicones ou des clones organiques, mélange de robotique et de biologie de synthèse, pourront-ils se reproduire et évoluer, au risque de créer une ou des nouvelles entités ? Et seront-ils empathiques, altruistes, collaboratifs ? Aimeront-ils ? Seront-ils meilleurs que nous ?

Liens d’intérêt

L’auteur déclare n’avoir aucun lien d’intérêt concernant les données publiées dans cet article.

 
Footnotes
1 Monde en deux ou trois dimensions (3D), créé artificiellement par un logiciel informatique ou par notre cerveau et pouvant héberger une communauté d’utilisateurs présents sous forme d’avatars ayant la capacité de s’y déplacer et d’y interagir.
2 En informatique, l’avatar désigne la représentation informatique d’une personne ou d’une situation, que ce soit sous forme 2D, ou sous forme 3D.
3 La Josiah Macy, Jr. Foundation, appelée également fondation Macy, est un organisme américain d’aide dans le domaine de la santé et de l’éducation, fondée en 1930. Elle est connue pour ses conférences réunissant des scientifiques d’horizons variés, les conférences Macy, qui ont joué un rôle majeur dans l’élaboration de la cybernétique.
4 Une pensée complexe au sens d’Edgar Morin est une approche globale d’un problème à l’inverse d’une approche réductionniste [ 2 ]. Elle s’appuie sur trois théories, la théorie de l’information, la cybernétique et la théorie des systèmes. Une approche systémique consiste à considérer un objet de recherche comme un ensemble d’éléments en interactions et échangeant des flux de matière, d’énergie et d’information [ 3 ].
5 Ouvrage publié en langue anglaise par Georges Brazziler, Inc. New York 1968, et Paris : Bordas, 1973 pour la traduction française.
6 L’objectif est le maintien du système vivant, i.e. les éléments et l’ensemble d’interaction entre les éléments.
7 Le terme « fractale » est un néologisme créé par Benoît Mandelbrojt en 1974 à partir de la racine latine fractus, qui signifie « brisé », « irrégulier ». Une figure fractale est un objet mathématique, telle une courbe ou une surface, dont la structure est invariante par changement d’échelle. On peut considérer qu’il existe une filiation entre systèmes vivants et fractales.
8 Neurobiologiste chilien qui a révolutionné les sciences cognitives en les ancrant dans les sciences du vivant. Avec Maturana, il souligne les capacités d’auto-organisation du vivant avec le concept d’autopoïèse.
9 Voir note 4.
10 Méthode d’inférence par laquelle on calcule les probabilités de diverses causes hypothétiques à partir de l’observation.
11 Le perceptron est l’un des tout premiers algorithmes d’apprentissage, et le réseau de neurones artificiels le plus simple (il s’agit d’un réseau avec un seul noeud, considéré comme le réseau neuronal le plus simple). Il a été inventé en 1957 par Frank Rosenblatt au laboratoire d’aéronautique de l’université Cornell.
12 Une règle est une assertion construite à partir d’un vocabulaire permettant de décrire les objets que l’on veut classifier (A,T,G et C pour l’ADN) et d’opérateurs logiques, par exemple ou, et, non. Si l’on a deux classes d’objets que l’on veut distinguer, on cherche des règles qui sont majoritairement vraies sur une classe d’objet et majoritairement fausses sur l’autre classe d’objet. Un moteur d’apprentissage à base de règles est un logiciel capable de construire un ensemble de règles qui seront ensuite utilisées pour classer un nouvel objet dans la classe 1 ou la classe 2.
References
4.
Wiener N . Cybernétique et société. 1952 ; Point Sciences. Paris: : Seuil;
5.
Dupuy JP . Aux origines des sciences cognitives. . Paris: : La Découverte; 2005 , :1994. .
6.
Le Cun Y . Quand la machine apprend. 2019 ; Paris: : Odile Jacob;
7.
Haiech J , Jouault T . Think small! Science disruptive et petites équipes. . Med Sci (Paris). 2020; ; 36 : :651. – 3 .