Dans le cadre des projets d’innovation industrielle de 4e et 5e années du cursus d’ingénieur, seize étudiants de l’ESILV se sont lancé un défi ambitieux: simplifier au maximum les outils bancaires, de l’actuariat et de la green finance, pour proposer aux entreprises partenaires et à leurs utilisateurs des produits qui leur rendront la vie plus facile, sûre et pratique.
Véritables moments de dépassement de soi en école d’ingénieur, les projets d’innovation industrielle sont également un moment privilégié pour les entreprises partenaires du Pôle Léonard de Vinci.
Grâce aux travaux de groupe des élèves-ingénieurs, des entreprises comme Société Générale, Allianz ou encore Dimtech ont accès à des solutions, applications et outils concrets proposés par les étudiants de l’ESILV pour répondre à des problématiques récurrentes du monde de la finance.
Outil de credit scoring géolocalisé
Nathan BIBRAC – Nicolas DIRMANN– Nima FAGANDAHR – Pierre GROUARD
Pour venir en aide aux banques et aux organismes de crédit, 4 étudiants de 5 e année ont créé un outil de scoring de crédit à partir de données géographiques.
« Nous nous sommes basés sur des algorithmes de machine learning pour établir ce score de crédit. Ce dernier est une fonction qui attribue une valeur de qualité de crédit à un client ou un prêt en fonction de variables explicatives telles que le ratio d’endettement de l’emprunteur, son comportement de compte ou toute autre grandeur qui est corrélée au défaut de l’emprunteur. »
L’outil de scoring qui lie les variables explicatives à la grandeur expliquée (le défaut de paiement) est ensuite peaufiné à l’aide d’un échantillon d’entrainement (training set) et d’un échantillon de validation. Les données ainsi obtenues sont vérifiées et validées selon un échantillon de test (training set) qui confirme la pertinence du modèle retenu.
Une base de données simplifiée au service de l’actuariat
Kévin AUDOUY – Maxime CAMPANE – Anya HAOUCHINE – Imanne M GHAITE
Dans le cadre de leur projet d’innovation d’industrielle de 4e année, les 4 étudiants ont imaginé un système d’analyse simplifiée de bases de données à l’usage de la société Allianz, en s’appuyant sur des méthodes du Machine Learning et de la data science.
« Fini les données papier, les rapports compliqués, fini les journées interminables! Imaginez un algorithme conçu pour vous, assureur. Nettoyer les données, détecter les anomalies, réduire les dimensions, créer des groupements d’individus pour pouvoir les classer ».
L’algorithme programmé avec le langage R a été développé en 3 étapes :
- L’exploration du dataset (i.e de la base de données) : sélection, étalonnage et remplacement des données;
- Détection et suppression des anomalies : des outils comme: k-Means, k-Nearest-Neighbours (kNN) et Local Outlier Factor (LOF), qui déterminent le degré de normalité et d’aberrance des données;
- Affichage des groupements d’individus : méthodes de clustering (kMeans, ACH, PAM, FCM-Fuzzy, etc.)
Ces méthodes, associées à un code générique et adapté, ont permis aux étudiants de l’ESILV de répondre à la problématique qu’ont rencontrée les actuaires d’Allianz : développer un outil optimisé, performant et user-friendly qui leur permettra d’avoir une vision claire et complète des potentiels futurs clients.
Solution pour la transparence algorithmique
Audrey ESSEUL – Fabien KFOURY – Emily RAJIBAN – Kirthikaa THAYANITHY
Inspirés par les problématiques rencontrées par Société Générale dans le domaine du Machine Learning, les 4 étudiants de 5e année se sont lancé un vrai défi de data science : rendre transparents les algorithmes, pour les comparer et évaluer. Pour ce faire, les élèves-ingénieurs ont récupéré des datasets (bases de données) adaptés au Machine Learning, à partir de Kaggle – la plus grande communauté de data scientists au monde !
« Nous avons réalisé une interface R-Shiny, une librairie de RStudio, nous permettant de mettre en avant des caractéristiques intéressantes, telles que la distribution des variables, des tableaux et des matrices de confusion dans l’objectif de visualiser les deux modèles et de savoir lequel était meilleur. »
Les deux algorithmes comparés étaient : un algorithme linéaire, la régression logistique et un algorithme non linéaire, le Random Forest.
« Finalement, le contact avec la Société Générale apporte un aspect professionnel à ce projet, ce qui le rend complet et enrichissant. De plus, à travers ce projet, nous avons eu l’occasion de développer de nombreux savoir-être et savoir-faire qui vont nous être utiles tout au long de notre parcours professionnel. »
Big data pour la Green Finance
Paul CHARTIER – Violette LEFRANC – Miguel Angel RAMOS FERRUFINO – Maxime TAZI
C’est dans le cadre du partenariat avec la société Dim Tech, qui s’intéresse aux solutions innovatrices d’investissement, que les 4 étudiants de 5e année ont développé un algorithme d’intelligence artificielle qui détecte l’opportunité d’investissement à long terme dans la Cleantech.
Ce sujet est tout à fait intéressant car actuellement, il est difficile de faire une prévision par manque d’informations au niveau du secteur green et des startups. La solution proposée à cet enjeu est donc de collecter et d’analyser des milliers de données web tels que les articles scientifiques, les rapports économiques, etc. Autrement dit, appliquer la méthodologie du Big Data en finance de marché pour analyser et prévoir les rentabilités d’investissement.
En s’appuyant sur les méthodes utilisées en finance de marché, les étudiants ont exploré les éco-innovations présentées par les différentes startups à partir des sites web de ces entreprises et d’une approche comparée de l’opinion scientifique. Plus précisément, l’équipe de l’ESILV a récupéré les données de plusieurs articles de la communauté scientifique autour des différentes éco-technologies : mots-clés, informations, réputation de l’auteur, les tendances dans les recherches du moment.
Les indicateurs d’innovation établis à partir de ces critères scientifiques sont utilisés par la société DimTech pour analyser la viabilité des plusieurs projets de la green life.
« L’idéal du sujet est de réussir à faire tout ceci de manière automatisée, cependant, nous nous sommes vite rendu compte de la difficulté engendrée par une telle demande. En effet, créer un scraper (un script, un programme informatique chargé d’extraire l’information de plusieurs sites web) généralisé est un challenge très important car généraliser un scraper peut rapidement entraîner une perte de précision et un risque d’erreur. »
Retrouvez les projets des élèves-ingénieurs de l’ESILV, école d’ingénieurs généraliste à Paris