Entrainer, évaluer et tester une Intelligence Artificielle fiable

13 juin 2023
10h40 - 12h10

Beffroi de Montrouge
Salle 2.4

___________________

Les systèmes à base d’Intelligence Artificielle sont de plus en plus répandus, notamment dans des cas d’applications critiques, comme le véhicule autonome. Cependant, les techniques classiques de test logiciel ne sont généralement pas applicables à ces systèmes, notamment car ils sont conçus et fonctionnent différemment. Pour répondre à ce besoin, de nouveaux processus de test pour l’Intelligence Artificielle ont émergé ces dernières années.
Nous vous proposons un tutoriel sur l’entrainement, l’évaluation et le test d’un système basé Intelligence Artificielle au travers d’un cas d’usage. À partir d’un jeu de données, nous allons réaliser ensemble les étapes clés pour la création et l’évaluation d’un modèle à base d’Intelligence Artificielle : préparation des données, choix de l’architecture, entrainement, évaluation des performances, tests vis-à-vis des aspects de robustesse, éthique et explicabilité.

Sommaire :
- Présentation : Introduction à l’Intelligence Artificielle (notions clés, méthodes, enjeux) et
différences entre le test logiciel et le test de l’IA
- Live Coding : préparation des données et entrainement d’un modèle
- Présentation : Métriques d’évaluation selon le type d’IA
- Live Coding : Evaluation d’un modèle
- Présentation : Méthodes de test de l’IA
- Live Coding : Test d’un modèle (robustesse, éthique, explicabilité)

___________________

Clément François - Kereval

Sarah Leroy - Kereval

Ingénieurs du test IA chez Kereval, Sarah et Clément ont exploré de nombreux aspects du test de l’Intelligence Artificielle dont notamment l’explicabilité, la vérification formelle, le test de robustesse en boite blanche et en boite noire. Ils ont participé en 2022 au projet Confiance.ai en proposant un outil de test de robustesse en boite noire pour les systèmes de computer vision.