Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des chercheurs se penchent sur l'IA éthique

Le , par Matthieu Vergne

62PARTAGES

4  0 
Depuis déjà un certain temps, l'Union Européenne s'organise sur la thématique de l'IA éthique. Suite aux travaux de plusieurs dizaines d'experts, des recommandations ont été produites pour orienter les décisions des acteurs impliqués dans l'IA. Ces recommandations affichent notamment 7 exigences fondamentales pour une IA éthique :

  • agence humaine et supervision : les systèmes d'IA devraient permettre la création de sociétés équitables en soutenant l'action humaine et les droits fondamentaux, et non pas réduire, limiter ou égarer l'autonomie humaine ;
  • robustesse et sécurité : l'IA de confiance exige que les algorithmes soient suffisamment sûrs, suffisamment fiables et robustes pour traiter les erreurs ou incohérences au cours de toutes les phases du cycle de vie des systèmes d'IA ;
  • protection de la vie privée et gouvernance des données : les citoyens devraient avoir le plein contrôle de leurs propres données, tandis que les données les concernant ne seront pas utilisées pour les nuire ou les discriminer ;
  • transparence : la traçabilité des systèmes d’IA devrait être assurée ;
  • diversité, non-discrimination et équité : les systèmes d’IA doivent prendre en compte l’ensemble des capacités, compétences et exigences humaines et en garantir l’accessibilité ;
  • bien-être sociétal et environnemental : les systèmes d'IA devraient être utilisés pour favoriser un changement social positif et renforcer la durabilité et la responsabilité écologique ;
  • responsabilité : des mécanismes devraient être mis en place pour garantir la responsabilité des systèmes d'IA et de leurs résultats.


Sur la base de ces exigences, différentes recommandations sont données, comme l'interdiction du scoring des citoyens ou de la surveillance de masse. Bien que ces recommandations semblent s'aligner sur des demandes populaires récentes, ce travail fait néanmoins l'objet de différentes critiques. On peut notamment entendre des plaintes sur l'absence de contraintes (ce ne sont que des recommandations) ou du manque d'exhaustivité, avec certains aspects peu développés dans ces recommandations (tout du moins pas autant que certains voudraient). Il n'empêche que cela offre une base sur laquelle certains ont décider de s'appuyer. Notamment les chercheurs en ingénierie des exigences, un domaine dont on entend peu parler alors qu'il concerne l'ensemble des projets un tant soit peu sérieux.

Si l'on reprend la définition du SPECIEF, une exigence est l’expression d’une condition ou d’une fonctionnalité à laquelle doit répondre un système ou un logiciel. Par exemple, on peut retrouver l'expression des exigences d'un projet au sein d'un cahier des charges ou de user stories exprimant les besoins finaux à satisfaire. L'ingénierie des exigences (IE) consiste en l'établissement de méthodes systématiques liées au cycle de vie de ces exigences, allant de leur création jusqu'à la vérification de leur satisfaction. Entre ces deux étapes, on veillera notamment à leur qualité, leur complétude, leur modélisation, leur priorité, leur évolution, ainsi que leur liaison à d'autres artefacts comme les tests.


Les recommandations de l'UE pour une IA éthique dressant une liste d'exigences à tenir pour les systèmes IA, il semble donc évident que l'IE puisse s'y appliquer. On peut donc se demander si cela intéresse les chercheurs de ce domaine, qui date d'une quarantaine d'année et dispose de ses propres conférences, notamment REFSQ (Requirements Engineering: Foundations for Software Quality). La prochaine itération de cette conférence, REFSQ 2020, aura d'ailleurs lieu fin mars à Pise, en Italie. Pour l'occasion, celle-ci verra la création d'un nouveau workshop RE4AI (Requirements Engineering for AI), qui se déroulera le 24 mars. Celui-ci s'inspire directement des recommandations de l'UE pour une IA éthique, en couvrant notamment les topics suivant :

  • le jeu entre l'IE et l'éthique pour l'IA
  • IE sur la robustesse technique et la sécurité des solutions basées sur l'IA
  • IE facilitant la vie privée et la gouvernance des données pour les solutions basées sur l'IA
  • IE ciblant l'établissement de la transparence pour les solutions basées sur l'IA
  • IE participant à l'équité des prises de décisions au sein des solutions basées sur l'IA
  • IE participant à la responsabilité des solutions basées sur l'IA


En dépit des critiques qu'on puisse trouver à ces recommandations, il semble donc qu'elles ne soient pas pour autant prises à la légère, et qu'une tendance de fond soit en train de se dessiner sur ces sujets. On peut parier que la prochaine version des recommendations, prévue début 2020 suite aux retours sur la première version, sera attendue par les chercheurs en IE en plus des acteurs de l'IA.

Sources : Recommandations, RE4AI

Et vous ?

Connaissiez-vous l'ingénierie des exigences ?
Que pensez-vous que la recherche dans ce domaine puisse apporter sur ces sujets ?
Comptez-vous vous renseigner sur les publications du workshop ? y participer ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de xXxNeWgEnErAtIoN
Inactif https://www.developpez.com
Le 29/01/2020 à 9:07
Mettre des freins à l'innovation, voilà ce qu'ils font. A part mettre des limitations et alourdir les ia ça ne sert à rien.
0  1