I. Modèles dynamiques en Sciences cognitives

Retour Epistémologie

Retour Liste publications

Retour Jean Petitot page personnelle

Return Jean Petitot's Home Page

1. Modèles morphodynamiques, modèles connexionnistes et systèmes complexes

1.1. Réseaux de neurones et systèmes dynamiques complexes

Les modèles dynamiques constituent une part essentielle de la modélisation cognitive. Ils sont utilisés pour modéliser certaines performances cognitives fondamentales. Implémentés dans des réseaux de neurones formels, ils permettent de développer un point de vue physicaliste, mais non éliminativiste, sur les sciences cognitives. Ils participent ainsi activement à la naturalisation des sciences humaines.

Lorsque les sorties d'un réseau de neurones sont bouclées sur les entrées (feed back intégral), le réseau devient un système dynamique. Un input externe (stimulus) le met dans un état global instantané initial. Celui-ci évolue alors à travers l'itération de la loi de transition globale agrégeant les lois de transition individuelles des unités. En général, l'état initial est asymptotiquement capturé par un attracteur de la dynamique. Cet attracteur est la réponse (dynamique) du réseau au stimulus.

Les dynamiques que l'on peut obtenir ainsi peuvent être d'une grande complexité. On y retrouve la physique statistique des verres de spins ainsi que de nombreux scénarios classiques de route vers le chaos et, en particulier, la route par doublement de période (cascade sous-harmonique de Coullet-Feigenbaum-Tresser).

Nous avons utilisé, à la suite de René Thom et Christopher Zeeman, des résultats de cet ordre pour développer la thèse que les contenus mentaux sont des attracteurs de systèmes dynamiques implémentés dans des réseaux de neurones et que, par conséquent, les fonctions cognitives doivent être conçues en termes de morphodynamique et de thermodynamique neurales. Sur cette base, nous avons étudié un certain nombre de problèmes, en particulier ceux liés à l'apprentissage et à la catégorisation.

Retour

1.2. Réseaux d'oscillateurs, constituance et "labeling hypothesis"

Un exemple particulièrement intéressant de systèmes complexes pouvant présenter des patterns hautement structurés morphologiquement est fourni par les réseaux d'oscillateurs faiblement couplés. De tels modèles physiques ont été transférés aux sciences neurocognitives, et cela pour des raisons théoriques fondamentales.

Le problème cognitif général considéré est celui de la constituance des représentations mentales, par exemple des scènes perceptives. Il est central pour tous les traitements cognitifs de haut niveau car ceux-ci sont causalement sensibles à la structure en constituants des représentations mentales (cela est particulièrement évident dans le cas du langage). On l'appelle aussi le "binding problem", celui du lien entre les constituants. Il est facile à comprendre. Au niveau neuronal, les représentations mentales sont implémentées de façon distribuée sur un très grand nombre d'unités élémentaires. Comment donc arriver à déterminer des constituants globaux et des relations entre eux?

L'une des hypothèses les plus travaillées repose sur le codage temporel fin des processus mentaux. Elle est que la cohérence, l'unité, des constituants d'une représentation se trouve encodée par la synchronisation de réponses neuronales oscillatoires. La phase commune des oscillateurs synchronisés implémentant un constituant peut alors servir "d'étiquette" (de label) pour ce constituant dans des processus de traitement ultérieurs. D'où le nom de "labeling hypothesis".

Il existe de nombreuses confirmations expérimentales d'oscillations synchronisées des colonnes et hypercolonnes corticales (en particulier dans le cortex visuel primaire), la synchronisation étant sensible à la constituance des stimuli, i.e. à la cohérence de leurs constituants (travaux de Ch. Gray, W. Singer, P. König, A. Engel, etc.). On peut accélérer la synchronisation en introduisant des cycles marqués: cela permet aux oscillateurs de se caler sur les points marqués (F. Varela). Il faut toutefois noter que certains auteurs estiment que le codage temporel n'est pas un codage par synchronisation mais par ordre temporel des décharges neuronales ("rank coding" de S. Thorpe).

En ce qui concerne la modélisation, on montre d'abord que des colonnes corticales peuvent effectivement fonctionner comme des oscillateurs élémentaires. Elles sont constituées d'un grand nombre de neurones excitateurs et inhibiteurs. En moyennant sur ces deux groupes les équations standard des réseaux de neurones (modèle de Hopfield), on obtient un système de deux équations (équations de Wilson-Cowan). On montre alors que l'état d'équilibre subit une bifurcation de Hopf lorsque l'intensité du stimulus dépasse un certain seuil.

On est ainsi conduit à étudier des réseaux constitués d'un grand nombre N d'oscillateurs dont la fréquence propre dépend de l'intensité du stimulus. Ce sont des systèmes typiquement complexes que l'on doit étudier avec des méthodes de physique statistique (travaux de Kuramoto, Daido, Lumer, Sompolinsky, Samuelides, etc.) et de dynamique qualitative (travaux d'Ermentrout et Kopell, etc.).

Une fois mieux comprises les propriétés de synchronisation de tels systèmes d'oscillateurs, on peut construire, sur la base de la "labeling hypothesis", des modèles de fonctions cognitives de haut niveau, comme par exemple le processus de focalisation de l'attention.

Nous avons appliqué ces modèles à l'analyse de la constituance des scènes visuelles en relation avec les algorithmes d'analyse multi-échelle.

Retour

2. Apprentissage et catégorisation

2.1. Apprentissage et systèmes lents rapides

Dans la théorie des réseaux de neurones, l'apprentissage peut se concevoir comme le problème inverse de celui qui, étant donnée la matrice w des poids synaptiques, consiste à trouver les attracteurs de la dynamique correspondante. Il s'agit de se donner a priori des attracteurs et de trouver une matrice w. Certains algorithmes ont été développés à cette fin, en particulier celui dit de rétropropagation. Ils définissent des dynamiques dans les espaces W, dits espaces de contrôle ou espaces "externes", des poids synaptiques. Ces dynamiques "externes" sont "lentes" relativement à celles, dites "internes", déterminant les attracteurs du réseau.

L'un des principaux problèmes est alors que dans de tels systèmes lents/rapides il existe dans W une stratification catégorisant les dynamiques en différents types qualitatifs. Cette stratification est une partition de W par un fermé catastrophique K (un système de frontières). Les algorithmes comme la rétropropagation fournissent des dynamiques externes qui ne sont définies que dans les strates ouvertes (les composantes connexes de W­K). Mais en général, une trajectoire d'apprentissage conduit d'une dynamique interne initiale Xinit à une dynamique interne finale Xfin qui n'est pas du tout de même type qualitatif (qui ne possède pas le même nombre d'attracteurs). Lorsque l'on déforme continûment Xinit en Xfin le long de la trajectoire correspondante de la dynamique externe, la dynamique interne Xw subit donc nécessairement des changements de type qualitatif, c'est-à-dire des bifurcations. Ces phénomènes de bifurcation sont intimement liés aux propriétés d'instabilité structurelle de Xw pour certaines valeurs - dites critiques - de W. Les théories de la stabilité structurelle et de la bifurcation sont donc nécessaires pour la bonne compréhension de l'apprentissage comme phénomène dynamique. Le propre d'un apprentissage est de transformer le type qualitatif des dynamiques internes et il faut donc comprendre comment les dynamiques de rétropropagation définies sur les différentes strates ouvertes se recollent le long de K.

Ce problème n'est pas abordé par les théories connexionnistes standard. Nous l'avons étudié dans les cas simples.

Retour

2.2. Catégorisation, typicalité et perception catégorielle

Un autre problème cognitif central pour la solution duquel les modèles morphodynamiques s'avèrent très utiles est celui de la catégorisation. En général, les modèles connexionnistes de catégorisation reposent sur l'idée que les attracteurs d'une dynamique (définie sur un espace interne approprié M) fonctionnent comme des prototypes, que leurs bassins d'attraction partitionnent M en domaines que l'on peut traiter comme des catégories, que les fonctions de Liapounov sur ces bassins s'identifient alors à ce que les psychologues appellent des gradients de typicalité, et que la capture d'une condition initiale (stimulus) par un des attracteurs s'identifie à la réalisation physique d'une relation type-occurrence. Ces modèles restent toutefois très largement insuffisants. En effet, dans de nombreux cas, la catégorisation se manifeste lorsque l'on fait varier des indices qui appartiennent à des espaces de contrôle. Le changement de catégorie s'identifie alors à un phénomène de bifurcation contrôlé par ces paramètres. La catégorisation se réalise donc non seulement dans les espaces internes, mais également dans les espaces externes.

Nous avons développé des modèles de catégorisation fondés sur la théorie des bifurcations, en particulier en ce qui concerne la catégorisation phonétique et les phénomènes associés dits de perception catégorielle. Dans ce cas, les dynamiques internes sont des dynamiques acoustiques (définissant en particulier les formants, i.e. les pics du spectre continu modulant le spectre harmonique, pics qui reflètent la géométrie des résonateurs du tractus vocal) et les contrôles externes sont des indices acoustiques comme le voisement ou des indices articulatoires comme le point d'articulation. Les hypothèses développées à ce propos ont été confirmées expérimentalement par certains travaux (en particulier ceux de J.L. Schwartz, C. Abry, P. Escudier et L.J. Boë) de l'Institut de la Communication Parlée de Grenoble (prolongeant ceux de l'équipe Chistovich de l'Institut Pavlov de Saint-Petersbourg). Nous avons repris les modèles connus (des travaux de G. Fant jusqu'à ceux contemporains) sur la façon dont les paramètres articulatoires contrôlent la structure formantielle des spectres continus. La fonction de transfert du tractus vocal (qui donne le spectre continu) se ramène à l'inverse d'un polynôme P(s,C) dont les paires de zéros conjugués correspondent aux formants et dont les coefficients C=(ci) dépendent de façon non triviale des paramètres articulatoires. En fait, ces polynômes sont des déploiements universels qui déploient des singularités cuspoïdes de type s2n (pour n formants) et les phénomènes de perception catégorielle sont intimement liés à leurs ensembles catastrophiques canoniques.

Retour

3. Géométrie différentielle multi-échelle et vision

3.1. Mesure du signal optique et detection de traits géométriques

Les travaux sur la vision naturelle et la vision artificielle venant des neurosciences cognitives, de l'analyse du signal et de l'IA permettent de reprendre sur des bases complètement nouvelles les problèmes de l'espace et du statut cognitif de la géométrie.

L'espace et la structure géométrique des images sont le résultat d'un formatage du signal optique par des processus de mesure qui s'effectuent au moyen de champs rétinotopiques de cellules opérant comme des filtres. Il existe dans le système visuel des cellules (par exemple les cellules ganglionnaires de la rétine, ou les cellules du cortex visuel primaire détectant les orientations) possédant des champs récepteurs dont les profils récepteurs sont des dérivées de gaussiennes jusqu'à l'ordre au moins 3 (sans doute 4) d'échelles différentes (par exemple les cellules ganglionnaires ont un profil récepteur en forme de laplacien de gaussienne). Des champs de tels profils agissent par convolution sur le signal. Il est facile de construire à partir d'eux des détecteurs de traits géométriques locaux multi-échelle (par exemple des détecteurs de bords, de coins, de points d'inflexion, etc.).

Retour

3.2. Lien avec les algorithmes de type ondelettes (Mallat, etc.)

De façon générale, on a considérablement approfondi ces dernières années les méthodes d'analyse morphologique des images au moyen de la théorie des singularités. On a en particulier établi le lien avec les algorithmes d'analyse multi-échelle de type ondelettes et "scale-space analysis".

La saisie des discontinuités qualitatives (et de leurs singularités génériques de codimension 2) constitue un phénomène perceptif de base. La conséquence en est qu'il faut penser la perception comme une implémentation d'algorithmes géométriques de traitement de singularités génériques. Dès le traitement périphérique de l'information encodée dans le signal optique, les algorithmes visuels sont finalisés de façon essentielle par la détection de discontinuités. Depuis les travaux de D. Marr à la fin des années 1970, l'une des hypothèses qui semble le mieux confirmée est que les cellules ganglionnaires de la rétine implémentent une analyse en ondelettes du signal optique.

L'intérêt principal de l'analyse en ondelettes est de fournir un algorithme d'analyse du signal qui, contrairement aux analyses classiques de type Fourier, est spatialement localisée et multiéchelle, ce qui la rend adaptée à l'extraction de la géométrie encodée dans le signal. A chaque échelle, le signal est lissé et les discontinuités qualitatives significatives en sont extraites. On peut citer les travaux fondamentaux de S. Mallat sur ce problème.

Retour

3.3. Scale-space analysis et équations de diffusion non linéaires (Koenderink, Morel, Florack, etc.)

L'idée d'analyse multi-échelle domine désormais les théories de l'analyse géométrique des images. Parallèlement à la filière Marr –> ondelettes, elle remonte à Witkin (1982) et à Koenderink (1984). Elle est celle de la "scale-space analysis".

Pour être morphologiquement correcte, une analyse d'images doit s'effectuer en termes de géométrie différentielle (et non pas en termes de combinaisons de primitives de type cubes, sphères, cylindres, "géons", etc.). Le problème est que les outils de la géométrie différentielle ne sont pas directement applicables au signal en tant que tel (leur application constitue un problème mal posé). Pour que les images puissent acquérir le statut d'observables géométriquement analysables par détection d'invariants, il faut au préalable définir une échelle, c.à.d. fixer un niveau de régularisation du signal bruité. On est ainsi conduit à définir des jets multiéchelle et à reprendre sur cette base la théorie de Thom-Mather des singularités génériques et des déploiements universels. C'est en effet celle-ci qui permet de définir les bons invariants.

On montre (travaux de J-M. Morel, etc.) que, sous des contraintes générales de linéarité et d'isotropie, la façon la plus simple d'obtenir une analyse multi-échelle d'une image 2D I(x,y) est de la plonger dans une famille Is(x, y) qui est une solution de l'équation de diffusionIs/∂s = Is (∂ = dérivée partielle, = laplacien par rapport à (x, y), cette équation de la chaleur opérant dans un espace-échelle et non pas dans un espace-temps). Le problème est évidemment qu'un tel lissage, parcequ'isotrope, est indifférent à la géométrie de l'image. D'où l'idée que pour pouvoir effectuer une bonne analyse morphologique de l'image, il faut concilier deux exigences apparemment antagonistes :

(i) régulariser le signal de façon multiéchelle par diffusion;

(ii) préserver la structure morphologique de l'image, c'est-à-dire les discontinuités d'éléments différentiels construits à partir des jets successifs de la fonction Is(x, y) et possédant une signification géométrique intrinsèque.

Pour ce faire, il faut adapter l'équation de diffusion à la préservation de ces éléments.

Le cas le plus simple est celui des bords qui délimitent les domaines homogènes d'une image et sont essentiels à la définition de ses constituants. Un bord est idéalement une discontinuité du gradient grad(Is(x,y)) de Is. Pour qu'une diffusion préserve le caractère discontinu des bords tout en les simplifiant progressivement, il faut qu'elle soit anisotrope, en fait inhibée dans la direction du gradient. Des EDP paraboliques non linéaires possédant ces propriétés ont été proposées et analysées par Malik et Perona ainsi que Morel et ses collègues.

Ces méthodes de segmentation d'image sont intimement liées aux modèles variationnels de type Mumford-Shah qui cherchent la meilleure approximation du signal I(x, y) (qui est une "mauvaise" fonction, en général très bruitée) par une "bonne" fonction différentiable par morceaux (i.e. bien régulière en dehors de discontinuités).

Une autre façon de développer une analyse d'images multi-échelle est de partir d'une analyse multi-échelle standard et d'adapter localement l'échelle à la structure des données. Les premiers modèles adaptatifs de ce genre ont été développés par notre ancien thésard Hervé Hamy.

On peut généraliser les équations anisotropes à des espaces de jets de façon à améliorer l'analyse morphologique de l'image. Par exemple les "crêtes" d'une forme - qui fournissent une "squelétisation" essentielle à son analyse morphologique - peuvent être extraites du signal en tant que des discontinuités de la direction du gradient qui sont préservées de la diffusion.

Retour

3.4. Théorie des singularités multi-échelle

Ces méthodes d'analyse d'images conduisent à reprendre certains problèmes de géométrie différentielle dans une optique multi-échelle, en particulier la théorie des singularités et de leurs déploiements universels.

En ce qui concerne ce dernier point James Damon a montré comment on pouvait transformer la théorie de Morse - Whitney - Thom - Mather - Arnold. Le problème est que les formes normales de Morse ne satisfont pas à l'équation de la chaleur. Les méthodes doivent donc être transposées des espaces de germes d'applications différentiables aux espaces de germes de solutions de l'EDP considérée. Or, ces espaces n'ont pas en général les "bonnes" propriétés algébriques qui font marcher la théorie et permettent d'appliquer des arguments de transversalité pour obtenir des résultats de généricité.

Les formes normales de déploiements universels de Damon montrent qu'il existe un cas où de nouveaux points critiques peuvent apparaître dans le déploiement. Nous avons analysé graphiquement en détail ce phénomène apparemment paradoxal (collaboration avec B. Teissier).

Retour

3.5. Contours apparents et graphes d'aspects multi-échelle

Un problème particulièrement intéressant à résoudre dans cette perspective est celui des contours apparents et des graphes d'aspects multi-échelle. Les CA d'une forme F (surface dans R3) sont un élément essentiel de sa perception. Lorsque le point de vue varie dans l'espace des points de vue, les types qualitatifs des CA stratifient cet espace et ce que l'on appelle le graphe d'aspects de la forme F est le graphe d'incidence de cette stratification. On dispose de nombreux résultats sur les graphes d'aspects des surfaces de révolution (Rieger, Van Effelterre, Petitjean). Par ailleurs, on peut simplifier la forme F en lui appliquant l'équation de la chaleur (dans de nombreux cas cela fait diffuser la courbure, convexifie la forme et la fait tendre vers une sphère : ce résultat généralise en dimension 2 un théorème de Grayson en dimension 1; il n'est pas vrai en toute généralité car des formes possédant des étranglements trop forts peuvent se scinder, mais il est vrai pour une large classe de formes). Nous avons étudié l'évolution multi-échelle des graphes d'aspects (collaboration avec notre thésard Yves Candau).

Retour

3.6. Structure de contact, géométrie sous-riemannienne et intégration corticale des contours

On sait depuis les travaux pionniers de Hubel, Wiesel et Mountcastle qu'il existe dans l'aire V1 du cortex visuel primaire des neurones détectant une orientation de bord particulière en un lieu particulier de la rétine. Ces neurones se regroupent en structures que l'on appelle hypercolonnes d'orientation, hypercolonnes reliées entre elles par des connexions latérales "horizontales" – dites cortico-corticales – qui connectent des neurones détectant des orientations voisines et implémentent ce que les géométres appellent un transport parallèle.

Nous avons montré que cette architecture fonctionnelle très particulière implémente une structure géométrique bien précise, celle de la structure de contact de la fibration ayant pour base la rétine et pour fibre la droite projective des directions du plan. Cette structure est la version projective de celle des 1-jets de courbes.

L'analyse de l'implémentation d'une telle structure de contact dans les connections d'un réseau de neurones conduit à des modèles physico-mathématiques de l'activité neuronale qui ont été développés par de nombreux spécialistes comme Paul Bressloff, Jack Cowan, Olivier Faugeras, Yves Frégnac, Jan Koenderink, Martin Golubitsky ou Jean Lorenceau.

De tels modèles permettent de résoudre le problème fondamental de l'intégration des contours. En effet, étant donnée une courbe y = f(x) dans le plan rétinien, on peut la "relever" dans l'espace fibré V des 1-jets des courbes en mettant en fibre la tangente p = dy/dx. La structure de contact naturelle sur V est définie par le champ des plans tangents à V qui annulent la 1-forme différentielle w = dypdx (ce qui n'est rien d'autre que la condition p = dy/dx). Les courbes qui "relèvent" dans V les courbes du plan rétinien sont par construction tangentes à ces plans et sont donc les courbes intégrales de la structure de contact. Or nous avons montré en collaboration avec notre élève Yannick Tondut que l'équivalent discret de cette structure correspond à un mécanisme proposé par Field, Hayes et Hess pour rendre compte d'expériences psychophysiques sur l'intégration des contours : le champ d'association. Les connexions horizontales du cortex visuel semblent implémenter ce schéma local d'association.

Une application importante des mécanismes d'association concerne l'explication des contours subjectifs. L'idée est qu'ils sont solutions d'un problème variationnel dans le fibré des 1-jets qui associe faible longueur et faible courbure. Une première classe de courbes, dites elastica, semblent pertinentes. Elles sont couramment utilisées pour la reconstruction des contours en traitement d'image (cf. les travaux fondamentaux de David Mumford). Mais on peut aussi considérer des courbes qui sont d'une façon ou d'une autre "géodésiques" dans la classe des courbes intégrales de la structure de contact du fibré. Il s'agit là d'un problème de géodésiques dans une géométrie, dite "sous-riemannienne",  où l'on ne définit les distances infinitésimales que sur les plans de contact. Cette perspective a ouvert un nouveau champ d'application de la géométrie sous-riemannienne que nous avons développé avec Alessandro Sarti et Giovanna Citti. Ces idées ont également été approfondies par Andrei Agrachev, Jean-Paul Gauthier et Ugo Boscain.

Retour

4. Le problème de la constituance dans les modèles dynamiques et connexionnistes

4.1. Des scènes visuelles au langage: le problème des grammaires cognitives

De nombreux travaux (par ex. ceux de Kosslyn) ont été consacrés à la "montée" de la perception vers le langage. Cela a conduit à développer une conception topologico-dynamique, schématique et iconique de la grammaire qui est radicalement opposée à la conception formaliste chomskyenne: Cognitive Grammar de Ronald Langacker, Cognitive Topology de George Lakoff, modèles connectionnistes d'apprentissage des systèmes prépositionnels de différentes langues par Terry Regier, et, surtout, conceptions néo-gestaltistes de Leonard Talmy.

Par exemple, les relations spatiales entre objets linguistiquement codés par des prépositions (dans, dessus, à travers, etc.) sont de nature perceptive abstraite (i.e. perceptivo-sémantique) et sont catégorisées de façon beaucoup plus subtile que l'on peut le croire. Leur catégorisation mélange de façon compliquée (et encore incomprise) des informations géométriques (traitées dans l'hémisphère droit) et des informations catégorielles (traitées dans l'hémisphère gauche). L'élaboration d'un bon modèle mathématique est considérée comme l'un des problèmes de base des grammaires cognitives. Sur la base de travaux antérieurs sur les morphologies (menés à bien entre autres avec nos thésards Hugh Bellemare et Stéphane Brault), nous avons construit, en collaboration avec René Doursat, le premier programme sachant appliquer automatiquement certaines prépositions à des scènes visuelles.

Retour

4.2. Syntaxe d'attracteurs

Une des hypothèses de base des modèles dynamiques et connexionnistes en linguistique cognitive est qu'un contenu de représentation mentale peut être modélisé par un attracteur d'un réseau convenable. Mais alors comment comprendre sur cette base le problème de la syntaxe et définir ce que peut être une syntaxe d'attracteurs? Cela est pourtant préjudiciel pour toute bonne théorie cognitive du langage. Un débat très vif s'est développé entre les cognitivistes classiques tenants du paradigme symbolique (Jerry Fodor, Zenon Pylyshyn, etc.) et les cognitivistes dynamistes-connexionnistes (en particulier Paul Smolensky).

Selon les classiques, les représentations dynamiques-connexionnistes sont holistiques, sans structure interne et ne permettent donc pas d'expliquer les propriétés fondamentales, caractéristiques de tout "langage" (au sens le plus large, y compris non strictement linguistique), que sont la productivité et la générativité, la systématicité, la compositionalité et la cohérence inférentielle. Celles-ci reposent toutes en effet sur une constituance des représentations. Le problème de la constituance dans les représentations dynamiques-connexionnistes est ainsi devenu un challenge fondamental.

Or des modèles dynamiques de syntaxe d'attracteurs existent déjà depuis longtemps (travaux de R. Thom). Ils sont fondés sur la théorie des bifurcations et des déploiements universels de singularités. Dans la mesure où ils sont directement implémentables dans des réseaux de neurones formels, ils peuvent être considérés comme une version mathématique abstraite de modèles connexionnistes.

Nous avions utilisé ces modèles depuis longtemps pour modéliser les théories structuralistes de l'actantialité (en particulier les théories tesnièrienne, greimassienne et fillmorienne, cf. §7). Nous avons utilisé ces travaux préalables pour montrer qu'ils permettent de rendre effectif le concept de "syntaxe d'attracteurs" et de résoudre partiellement le problème des représentations structurées dans les modèles dynamiques-connexionnistes.

Retour

5. Logique et géométrie

Le développement d'une modélisation topologique et dynamique des liens entre langage et perception conduit à reprendre nombre de questions héritées de la phénoménologie et de la Gestaltthéorie et à poser la question de leurs liens avec les formalisations, plus classiques, de nature logique.

Nous avons étudié en particulier les jugements perceptifs (par exemple ceux d'attribution d'un prédicat de couleur à un objet). Sur le plan morphologique-perceptif, le remplissement de l'extension spatiale W d'un objet par une qualité sensible appartenant à un genre de qualité G se décrit par une section d'une fibration de base W et de fibre G. Ces fibrations sont neuralement implémentées.

Comment penser le lien entre un tel schématisme géométrique et la formalisation traditionnelle des jugements en termes de calcul des prédicats? Nous avons utilisé pour ce faire le lien (établi par W. Lawvere au début des années 1970) qui existe entre les faisceaux (ici les faisceaux de sections de fibrations) et la logique formelle. La catégorie F des faisceaux sur un espace topologique M possédant une structure de topos, un faisceau X de F peut être syntaxiquement interprété comme un type syntaxique pour des variables x qui sont sémantiquement interprétées comme des sections de X. On obtient ainsi à la fois une typification et une localisation spatiale des variables. Cela permet de relier la géométrie des sections à une logique du jugement.

Dans une telle approche, il apparaît que l'espace fonctionne comme une modalité dans la mesure où la sémantique de situations où des variables sont à la fois typifiées et localisées est une sémantique modale.

Retour

6. Phénoménologie naturalisée

Le développement des modèles cognitifs morphodynamiques conduit à aborder le problème de la naturalisation des théories logiques et phénoménologiques des contenus mentaux. Nous avons consacré de nombreuses recherches à la naturalisation de la noématique husserlienne. Dans le cas de la phénoménologie de la perception, nous avons montré comment des approches de phénoménologues plus réalistes que Husserl comme J. Daubert, R. Chambon ou M. Merleau-Ponty pouvaient être naturalisées. Le problème central de l'intentionnalité (au sens de la directionalité des représentations) peut être résolu sur cette base pour la perception visuelle. Cela permet de faire l'hypothèse que, comme le second Husserl l'a expliqué dans les Ideen, l'intentionnalité n'est pas d'abord un problème de référence sémantique mais un problème de structure perceptive et que les représentations sémantiques héritent de l'intentionnalité des représentations perceptives sur lesquelles elles s'édifient.

Nous avons beaucoup travaillé ces problèmes avec le regretté Francisco Varela, Jean-Michel Roy et Bernard Pachoud.

Retour

7. Sémiotique, Structuralisme et Morphodynamique

Les premiers modèles dynamiques en sciences humaines ont été introduits par René Thom et Christopher Zeeman à la fin des années 1960. Ils concernaient essentiellement la perception, le langage et la cognition. C'est en particulier à ce moment que fut introduite l'idée force que le contenu d'une représentation mentale pouvait être modélisé par un attracteur d'une dynamique neurale appropriée, le flux temporel de l'activité mentale par une dynamique lente opérant sur ces dynamiques rapides et les événements mentaux par des bifurcations d'attracteurs. Depuis, les modèles connexionnistes de mémoires associatives (§1) ont explicité ces dynamiques. Qui plus est, Thom et Zeeman avaient montré comment en utilisant des paramètres d'ordre (activités moyennes) on pouvait (comme lorsque l'on passe de la physique statistique à la thermodynamique) réduire drastiquement le nombre de degrés de liberté des modules neuronaux considérés. Ce passage micro –> macro est interprétable comme un changement de niveau de réalité, du niveau neuronal au niveau psychologique.

Nous avons utilisé les modèles morphodynamiques d'une part en théorie de la perception (perception catégorielle en phonétique (§2), perception visuelle (§3)) et d'autre part en sémio-linguistique.

En ce qui concerne la perception phonétique, nous avons établi le lien avec la tradition de la phonologie structurale, de Ferdinand de Saussure à Roman Jakobson. En ce qui concerne la perception visuelle, nous avons fait le lien avec la phénoménologie et la Gestaltthéorie (§6). En ce qui concerne la sémio-linguistique, nous avons modélisé les structures actantielles constitutives des structures sémio-narratives au sens de Greimas. En relation avec les travaux de Per Aage Brandt (Univ. d'Aarhus), le lien a été fait avec les grammaires cognitives.

Cela nous a conduit a reprendre les approches structurales de la syntaxe comme celle de Lucien Tesnière ainsi que la tradition des grammaires casuelles, de Louis Hjelmslev à Charles Fillmore.

Nous avons également appliqué les modèles morphodynamiques à la modélisation d'une des clés de la théorie structuraliste en anthropologie, à savoir la formule canonique du mythe proposée par Claude Lévi-Strauss. Ces dernières années, en particulier grâce aux travaux de Lucien Scubla, Pierre Maranda et Solomon Marcus, ce thème s'est considérablement développé.

Retour

Retour Epistémologie

Retour Liste publications

Retour Jean Petitot page personnelle

Return Jean Petitot's Home Page