1. Introduction

Ces quelques pages illustrent des cas concrets d'étude relevant de problématiques particulières dans des domaines variés. Le point commun de ces études est qu'ils ont leurs origines dans la volonté de comprendre une relation sous-jacente aux données.

  • Transferts de chaleur:

    Ici l'objectif était de comprendre et d'illustrer le flux transitoire de la chaleur dans une pièce froide réchauffée par les parois extérieures des murs.
    C'est un modèle physique qui utilise des lois bien connues et dont l'implémentation numérique peut être fort délicate.

  • Hétérostructure semiconductrice

    Dans ce travail, l'objectif était de prédire le spectre d'absorption d'une nanostructure semiconductrice, ainsi que d'étudier son inversion de population pour son usage en tant que milieu amplificateur pour un laser.

  • Analyse Bayesienne

  • Les processus de fabrication utilisent des lois du domaine d'application. Ces lois contiennent des paramètres spécifique au processus, paramètres qui ne sont pas toujours bien connus. Or la détermination la plus précise possible nous renseignent généralement sur l'efficacité du processus et sur ses possibilités d'amélioration.
    Ici l'idée était de comprendre dans quelle mesure il est possible d'extraire, à partir de données expérimentales, les paramètres prédictifs d'une grandeur caractéristique d'un échantillon. Une fois connus ces paramètres, il est alors possible d'anticiper des vices de production et de pouvoir y porter des corrections de traitement. Cela permet d'éviter des non-conformités, et permet d'augmenter la chance d'obtenir, en sortie de chaîne, un produit avec des valeurs mécaniques stables (sur la production), ce que le client recherche.

  • Analyse de clusters

  • Dans cet exemple, un ensemble de donnée demandait à être réduit en familles (clusters) suffisemment homogènes pour pouvoir être décrite par groupe. Un élément du groupe partage avec les autres éléments du groupe les mêmes caractéristiques. Cela permet de classer les individus par famille et de globaliser le traitement, autrement dit une grande simplification des applications qui devront être appliquées aux individus.

  • Réseau de neurones artificiels

  • Dans ce projet de nature pédagogique, un processus de formation sur les réseaux de neurones artificels a été lancé, avec comme objectif que chaque apprenant crée son propre réseau de neurone artificiel, sans utiliser les solutions toutes prêtes, mais en utilisant les principes de base, en implémentant chaque étape.
    La notion de neurone artificiel est introduite, puis la notion de couche et enfin le réseau. Une fois les concepts de base introduit, l'apprentissage par descente du gradient est implémentée. Les applications à des cas simples permettent de mettre en évidence les problèmes qui peuvent surgir, comme l'explosion des poids neuronaux, et ainsi les techniques pour y remédier sont abordés.
    Les réseaux développés sont appliqués à des cas d'école, puis les réseaux profonds sont introduits. Les couches convolutives et le deep learning sont abordés et leur domaines d\'applications explorés.

2. Domaines

Bien que les exemples suivants ne traitent évidemment pas de manière exhaustives les différents domaines d'activité, ils illustrent la variété des domaines traités.

  • Simulation numérique de système physique

  • Le but est ici exploratoire. Nous utilisons les lois connues pour comprendre des processus particuliers qui peuvent ensuite être utilisés ou améliorés.

  • Modélisation des extractibles et relargables (E&R, en anglais: E&L pour Extractables and Leachables)

  • Le but est ici de modéliser la pénétration de substances, éventuellement nocives, de l'emballage d'un médicament dans le médicament ou du conteneur d'une bioculture dans le liquide de culture. La modélisation est dynamique et suit la propagation des substances au cours du temps en prenant en compte le coefficient de partition et l'évolution avec la température du coefficient de diffusion, de la viscosité notamment.

  • Analyse mécanique

  • Les lois de la mécanique permettent de décrire le fonctionnement de dispositifs des plus simples aux plus complexes. Même les dispositifs simples révelent parfois des difficultés de résolutions honorables.

  • Analyse de données (Machine Learning)

  • L'analyse de données (Data analysis, Machine Learning) consiste à exploiter des valeurs obtenues expérimentalement afin d'en extraire le maximum d'information sur le processus qui nous intéresse. Elle est généralement considérée comme un élément de l'intelligence artificielle qui a un objectif plus global.

    Les méthodes et outils d'analyse de données se sont fortement démocratisées ces dernières années, malheureusement l'aisance de l'utilisation des outils ne s'est pas accompagnée d'une amélioration des facultés de fond de l'analyse. Trop souvent, plusieurs outils sont testés afin de voir lequel correspond le mieux à ce que l'on essaie de trouver, voire, pire encore, une moyenne sur plusieurs outils est faite, en espèrant ainsi tirer le meilleur de chaque outil: c'est généralement exactement le contraire que l'on obtient où chaque outil dégrade le résultat de l'autre. Un outil sans modèle préalable est d'une utilité toute illusoire.

    Tous les outils, aussi puissants soient-ils, doivent servir un modèle préalable. Sans modèle, un outils de traitement des données peut donner tout et n'importe quoi. C'est le modèle qui va permettre de comprendre les données. Le modèle est construit par l'avis des experts et de leurs connaissances du processus étudié. Une fois le modèle défini, on applique le meilleur outil possible afin de comprendre comment le modèle explique les données. Enfin, une fois que le modèle et les données ont été syncronisées par l'analyse, des inférences (prédictions) peuvent être faites dans le cadre du modèle. Evidemment le modèle lui-même peut changer au cours de l'analyse, si celle-ci révèle le modèle inadapté.

    Le but de l'analyse de données et bien d'extraire le maximum de compréhension possible, ainsi que les incertitudes associées, des données disponibles, ceci afin d'obtenir une image honnête et aussi claire que possible du phénomène étudié.

  • Intelligence artificielle

  • Création de modèle théoriques

    • (Confidentiel) Pour une société privée, partant d'un concept qui a son origine dans l'expérimentation quotidienne de son activité, un modèle théorique quantitatif a été créé afin de poser le bien-fondé des principes des projets de développement. Ce modèle, qui concerne l'apprentissage et les neuroscience pourrait prochainement faire l'objet d'une publication.