X

Les systèmes complexes face au tsunami exponentiel du numérique : 4e colloque GREC-O les 24 et 25 juin 2015

les 24 et 25 juin 2015, l’ESILV, le Pôle Léonard de Vinci et le GREC-O (Groupe de Recherche sur la Complexité) organisent deux journées de recherche sur les thèmes des systèmes complexes et du numérique.

Les systèmes complexes sont souvent vus comme des élaborations, des émergences issues de longues évolutions et adaptations, comme des réseaux et structures d’échange et d’équilibre élaborés parfois au cours des siècles.

24 et 25 juin 2015 : Comment se comportent ces systèmes quand ils sont frappés comme aujourd’hui par le tsunami du numérique ?

Tsunami exponentiel, au sens où la vague de demain sera deux fois plus forte que la vague d’aujourd’hui. Voilà la question que ce 4ème colloque posera au cours de quatre demi-journées :

24 juin matin : Données et Complexité (responsable : Michel Bloch)

Quelle balance entre progrès et nuisance attendre de l’évolution des technologies et de l’apprentissage des utilisateurs du Big data ? Une approche systémique et holistique s’impose.

Les outils marketing fournissent une vision du Big data : (1) en coévolution avec i-cloud et l’open data et les applications génératrices de données en ligne (2) phase de désillusion temporaire liée à l’entrée massive des organisations soucieuses de qualité/rentabilité (3) peur durable (espionnage, crime organisé, terrorisme).

Les prévisions du comportement des systèmes complexes, souffrent parfois d’une insuffisance de données utilisables, et, souvent, de l’absence de modèles et de corrélations entre les données. Le Big data peut y répondre mais, néanmoins, la prévision sur le comportement des systèmes complexes (vulcanologie, météorologie, économie…), reste limitée par leur grande sensibilité aux détails.

L’ingénierie des Big data doit assurer la qualité des données et éliminer les fausses corrélations. Le passage de téraoctets (109) à celui d’exaoctets (1018), impose de dépasser l’indexation directe des données et d’oublier la non-duplication. L’exigence de rapidité impose l’abandon du traitement séquentiel pour un parallélisme massif.  Ces approches ont un impact sur les programmeurs d’applications peu préparés à ces bouleversements.

  • 9h30 : Mot d’accueil, Benoit Aubert, Directeur du Développement, Pôle Universitaire Léonard de Vinci
  • 9h40 : Introduction, Jean Rohmer, Président du GREC-O, Directeur de la Recherche, ESILV
  • 9h50 : Panorama du Big Data, Michel Bloch, Groupe Emergence
  • 10h20 : Big Data et Complexité, Alexandre Makarovitsch, Groupe Emergence, AFSCET
  • 10h50 : Pause
  • 11h20 : Big Data et Prévision , Philippe Picard, Groupe Emergence
  • 11h50 : Ingénierie des Big Data : Risques et opportunités, une lecture systémique, Jacques Printz , Professeur Emérite du CNAM
  • 12h20 : Libres propos sur les donnée, les algorithmes et l’intelligence artificielle, Jean Rohmer, De Vinci Technology Lab.
  • 12h45 : Pause Déjeuner

24 Juin après-midi : Ethique et Organisations Humaines face au numérique(responsable Michel Dalmas)

Les situations nouvelles provoquées par les évolutions dans le domaine du numérique changent les habitudes des utilisateurs comme des concepteurs. Plusieurs champs de recherche pourront être explorés :

Identification de nouvelles situations ou de nouvelles découvertes.

Les phénomènes observés pourront être élargis et traités non seulement au niveau des organisations mais également au niveau des interactions avec leur environnement socio-économique.

Démarches d’accompagnement, tant d’un point de vue méthodologique que disciplinaire ?

Pour satisfaire ces différents points, les méthodologies de recherche utilisées seront, tant exploratoires que confirmatoires, qualitatives que quantitatives avec, si possible, un axe de développement relatif à la recherche-intervention. Des travaux et témoignages sur le terrain seront accueillis,  avec l’idée de susciter de nouvelles questions de recherche.

Les Sciences de Gestion, en tant que sciences de l’action collective orientée vers un but, représentent ontologiquement une discipline transversale. Ainsi des cadres conceptuels comme celui de la responsabilité sociétale des entreprises, du bien-être au travail, de la confiance intra et inter-organisationnelle ou encore de l’entrepreneuriat pourront être utilisés.

  • 14h15 : Débat : Comment transmettre la « Pensée Complexe » ? Recherche, Enseignement, Entreprises, Associations …
  • 15h45 : Pause
  • 16h15 : Éthique et valeurs: des concepts indépendants pour une dynamique managériale, Michel Dalmas, De Vinci Business Lab
  • 16h45 : Valeur et Véracité de la donnée, Thierry Berthier, Université de Limoges, Chaire de Cyberdéfense Saint-Cyr, Thales, Cap Sogeti
  • 17h15 : Pour une approche éthique de l’utilisation des Big Data: un partage de la réflexion en 2015, Gérard Balantzian, Groupe Emergence
  • 17h45 : Fin de la journée

25 juin matin : Innovation, Données et Simulation (responsable Pierre Chauvet)

La simulation est le principal outil permettant d’étudier les systèmes complexes, qui ne permettent généralement pas une analyse mathématique traditionnelle. L’objectif de la session “Innovation, Données et Simulation” est de présenter quelques logiciels de simulation adaptés à certains types de systèmes et d’applications. Les participants à cette session pourront essayer ces outils en manipulant des modèles déjà implémentés, ou construire quelques modèles simples en suivant pas à pas des tutoriaux.

Cette approche doit permettre aux participants de tester et distinguer différents types de modélisations, qui peuvent d’ailleurs être appliquées à un même système (par exemple, simuler les interactions entre populations sur un même territoire via un modèle déterministe basé sur des équations différentielles de type Lotka-Volterra ou un modèle individu-centré stochastique). Elle doit aussi nous enseigner la prudence, car le créateur d’un modèle de simulation y met sa propre subjectivité, ne serait-ce que par le choix du modèle et du réglage de ses paramètres.

Enfin, dans le cas des modèles stochastiques, les logiciels de simulation génèrent à partir d’entrées aléatoires ou non des données qui sont des échantillons de lois de probabilités a priori inconnues. Ainsi l’outil de simulation devient lui-même générateur de données, qui doivent être analysées avec le même soin que les données issues de mesures sur n’importe quel système naturel ou artificiel.

De 9h à 12h30 : Les participants sont invités à venir avec leur ordinateur portable. La matinée sera organisée en deux ateliers se tenant chacun dans une salle. Les participants seront répartis en deux groupes, qui permuteront de salle au milieu de la matinée.

SALLE MASA, avec Jeremy Chanut, Yann Prudent, MASA Group
Théorie et pratique sur l’atelier de modélisation et de simulation multi-agents de MASA Group

SALLE IMA, avec Pierre Chauvet, IMA UCO
Théorie et pratique de simulation de processus discrets avec l’atelier ARENA
Théorie et pratique des réseaux de neurones artificiels ; application aux géostatistiques et à la construction d’une carte de densité

25 Juin après-midi :De la gestion des risques au financement de l’innovation (responsable Stéphane Chauvin)

La crise de 2008 a favorisé les travaux innovants portant sur le «mieux mesurer» et de mieux cartographier les liens systémiques entre les entités, améliorer les éléments d’alertes et des écarts aux équilibres.

«Le risque est un danger sans cause, un dommage sans faute, qui pourtant devient prévisible et calculable» nous dit Patrick Peretti-Watel dans La société du risque.

Les travaux récents portant sur les impacts du numérique  sont éclairantes et illustrent les nouvelles techniques à même de mieux mesurer pour mieux décider. Elles concernent tous les domaines: l’immatériel, l’EBIT, le scoring des écosystèmes entrepreneuriaux,des valeurs «marché», les normes prudentielles,…

Qu’en est-il de la valorisation du patrimoine numérique dans les entreprises, de la valorisation de la gestion des risques et des données, et de la connaissance produite?
Qu’en est-il du calcul du risque de financement de l’innovation, de la maitrise des bulles spéculatives et marketing? Qu’en est-il de la mesure du risque d’infobésité d’une entreprise et de sa baisse de productivité ? Qu’en est-il des nouveaux produits d’assurance, de la mesure du chaos ? Du risque de la «pensée unique  numérique» ?

Qu’en est-il enfin de la capacité des données froides ou chaudes à améliorer la gestion de nos sociétés complexes ?

  • 14h : Mesure des risques et la financiarisation de l’innovation, Stéphane Chauvin, MyDataBall
  • 14h20 : La matière de l’assurance,  c’est  la société ! Michel Revest, Covea
  • 14h40 : La difficulté de différencier les travaux recherche, d’innovation et d’ingénierie et les risques associés, Thomas Grizel, Arsene-Taxand, Consultant en Financement de l’Innovation
  • 15h : Management Global des Risques des systèmes complexes : une activité de R&D innovante ?, Francis Claude, directeur de la recherche de RiD Lab, IRC/ESTP Université Paris Est et Sébastien Nouet, EMLV
  • 15h30 : Les enjeux de la connaissance du client, Marc Tibi, BNP Paribas
  • 16h : Pause
  • 16h15 : Présentation du Livre Blanc « Gestion du Risque », Représentant du Pôle de Compétitivité Finance Innovation, Valéry Jost, Délégué général, AGIPI
  • 16h45 : Présentation du Livre Blanc «Innovation et Transition Numérique dans l’Assurance», Représentant du Pôle de Compétitivité Finance Innovation, Gontran Peubez, Deloitte

Comité d’organisation et de programme

Président :  Jean Rohmer : ESILV, Institut Fredrik R. Bull

Membres :
Michel Bloch : Groupe Emergence
Pierre Chauvet : IMA Angers
Stéphane Chauvin : MyDataBall
Michel Dalmas : EMLV
Patrick Farfal : AFSCET, Groupe Emergence, Patsys
Jean-Pierre Foll : IMA, ESILV
Alexandre Makarovitsch : Groupe Emergence, AmAhead

 

 

This post was last modified on %s = human-readable time difference 5:39 pm

Categories: Recherche
Related Post