X

Complexité des systèmes de systèmes : complexité aléatoire et complexité organisée

Jean Rohmer, responsable du De Vinci Technology Lab à l’ESILV, a co-organisé avec l’Institut Bull, une conférence de Jean-Paul Delahaye, professeur émérite à l’université de Lille I, sur le thème « Complexité aléatoire et complexité organisée ».

Cette séance a eu lieu le 21 octobre 2015 en présence de plus d’une vingtaine de personnes, professeur en finance, chercheur en modélisation, directeur des systèmes d’information, directeur recherche et développement…

La complexité des systèmes de systèmes

Aujourd’hui, nous sommes confrontés à un choc de complexités dans notre vie professionnel et personnelle par la présence de nombreux objets constitués d’éléments en grand nombre et connectés entre eux. Les utilisateurs ont du mal à comprendre les interactions multiples en jeu et possèdent au mieux un modèle élémentaire d’usage des systèmes complexes dans lesquels ils sont immergés.

Nos actions sont de plus en plus dépendantes des réseaux dans lesquels nous sommes immergés : réseaux de télécommunications, réseaux d’approvisionnement électrique, réseaux de transport…

La logique des réseaux nous fragilise et nous submerge de données structurées et non structurées (data deluge) dont le stockage, le traitement, l’analyse et la confidentialité soulèvent des problèmes sociétaux? Les technologies évoluant rapidement, une impression de chaos, d’imprévisibilité et de perte de maîtrise de son destin finit par prévaloir.

La complexité prend une dimension nouvelle avec l’apparition de ce que l’on appelle des systèmes de systèmes (Systems of systems SOS). L’approche de la complexité a subi un changement de paradigme. Elle est vue aujourd’hui comme une combinaison d’ordre et de désordre. Tous les domaines de la connaissance sont concernés par le paradigme des systèmes de systèmes : sociologie, psychologie, sciences politiques, sciences médicales, sciences de gestion, sciences physiques et chimiques, sciences du traitement de l’information.

Conférence « complexité aléatoire et complexité organisée »

Jean-Paul Delahaye est professeur émérite à l’université de Lille I, ancien directeur de l’équipe “Méthodes et outils théoriques pour la programmation en logique”, puis de l’équipe “Bioinfo”. Il a rejoint l’équipe d’intelligence artificielle “Simulation Multi-Agents et Comportements” du LIFL de Lille. ll a été distingué par  le Prix d’Alembert 1998 de la Société mathématique de France pour l’ensemble de ses travaux de vulgarisation mathématique.

Il faut ici prendre le terme « complexité », dans un sens bien différent du sens commun. Ainsi, plus un algorithme est écrit simplement, plus sa complexité au sens des  mathématiciens sera grande, car il mettra longtemps à s’exécuter. La réciproque est que, pour qu’un système soit performant, son écriture devra être complexe…

En 1965, le grand mathématicien russe Andrei Kolmogorov en même temps que Gregory Chaitin a donné une autre mesure de la complexité. Celle-ci est une mesure du “contenu incompressible d’information”. Elle ne doit pas être conçue comme une mesure de la “richesse en structures ou en organisation” (complexité structurelle), qui, elle, serait mathématiquement définie par la profondeur logique de Bennett (introduite en 1977).

Les applications de la complexité de Kolmogorov (par le biais des algorithmes de compression de données) sont maintenant nombreuses : classification de textes et de musiques, évaluation de la ressemblance entre séquences génétiques, comparaison d’images, repérage du plagiat, identification des spam, détection des tentatives d’intrusion dans les systèmes informatiques, etc.

L’évaluation de la complexité structurelle est plus difficile en pratique, mais des progrès ont été faits récemment qui permettent d’envisager des applications comme pour la complexité de Kolmogorov.

This post was last modified on %s = human-readable time difference 1:18 pm

Categories: Recherche
Related Post