Pourquoi l’éthique revêt une importance capitale pour les IA ? Quel est le rôle de la cybersécurité ?
Jérôme Preteux, Architecte d’entreprise au ministère des Armées, et Christophe Moyen, Pilote de l’équipe DEVOPS et Responsable du processus de la gestion du changement chez RTE, soulignent l’importance de l’éthique pour les intelligences artificielles. Ils analysent les risques inhérents à l’absence d’une éthique clairement définie et se concentrent aussi sur la cybersécurité des intelligences artificielles. Nous résumons ici leurs propos.
L’éthique de l’IA
A chaque problématique éthique soulevée par l’IA, il est possible de mettre en place des solutions afin de limiter leurs conséquences.
- La problématique du biais
- Diversifier la provenance des données et utiliser le reverse engineering pour prouver qu’un algorithme est biaisé
- Vérifier qu’il respecte la législation et les règles éthiques
- La problématique de la transparence
- Mettre en place des seuils pour faire des validations. L’humain doit rester décisionnaire et l’IA doit seulement proposer des solutions.
- La problématique des données personnelles
- Créer des outils qui permettent d’empêcher l’IA de collecter et d’encoder des données personnelles.
- Exemple du Règlement Général de la Protection des Données (RGPD) du 25 mai 2018 qui complexifie l’apprentissage de l’IA.
- La problématique de la responsabilité
- Créer un nouveau statut juridique pour les robots et les IA
- Définir et appliquer des chartes éthiques
- La problématique environnementale et sécuritaire
- Améliorer les capacités de l’IA de 1% consomme beaucoup d’énergie et produit beaucoup de déchets.
L’IA et la cybersécurité
Les systèmes d’IA, comme tout programme informatique, peuvent être attaqués ou défendus mais également servir à se défendre ou à attaquer.
Les IA attaquées par des cyberattaques : 3 types d’attaques
- Poisonning : consiste à envoyer artificiellement beaucoup de données qui vont déplacer le centre de gravité de l’IA. Les probabilités sont donc biaisées par ces attaques.
- Evasion : cette attaque se base sur l’illusion d’optique. En faisant de petites modifications dans la donnée d’entrée, l’IA ne parvient pas à reconnaître quelque chose et change complètement sa classification.
- Inference : l’objectif est de chercher des informations à propos de quelque chose pour les recouper et trouver des informations qui normalement n’auraient pas pu être accessibles.
Comment protéger nos IA ?
Pour limiter les risques d’attaques sur les IA, il faut :
- Placer des modérateurs à la sortie des données
- Utiliser l’« Adverserial Learning », « Advanced Learning », « Gradient Masking » ou « Defensive Distillation » selon le type d’attaque
- Filtrer les données d’entrée
- Mettre en place des systèmes de prévention d’attaques de force brute
Les atouts des IA utilisées dans les domaines de la cybersécurité :
- Filtrage des données
- Détection et réparation automatiques de failles
- Capacité de se protéger plus ou moins efficacement contre les cyberattaques
Visionner le replay
En savoir plus sur nos formations diplômantes :