Une approche éthique pour l’Intelligence Artificielle.

Une approche éthique pour l’Intelligence Artificielle.

L’IA, le machine learning ou encore la data science ont émergé ces derniers temps en suscitant aussi bien un intérêt scientifique qu’industriel. Entre autres, les GAFAM (Google, Amazon, Facebook, Apple, Microsoft) ont réussi à démontrer leur valeur commerciale en tirant partie des données et de cette technologie. L’association entre « données » et « IA » est de plus en plus commune (d’où la terminologie « data science ») : en effet la technologie qui œuvre derrière appelée Machine Learning, est une approche mathématique et informatique basée sur « l’apprentissage » à partir des données. L’application de celle-ci est diverse et dans des domaines variés : ciblage marketing, automatisation & robotique, outil d’aide à la décision, optimisation etc.

Avec l’utilisation croissante de cet outil, les questions éthiques sont arrivées au cœur du débat ; d’une part les données utilisées, en particulier lorsqu’il s’agit des données privées, ont déjà polémiqué (Cambridge Analytica et Facebook). D’autre part, l’automatisation ne fait pas l’unanimité : doit-on laisser les systèmes autonomes se développer même au détriment de l’humain ? Les autorités de contrôle ont donc considéré ces questions de plus en plus sérieusement : l’Europe a déjà tenu des commissions sur les questions éthiques (High level expert group on AI – EU), et les entreprises américaines se sont réunies pour réfléchir sur cette thématique (Partnership on AI GAFAM). La France est aussi acteur de cette réflexion : depuis 2018, AI for Humanity propose une stratégie responsable pour la recherche et le développement de l’IA.

Finalement, une technologie telle quelle n’est ni éthique ni immorale mais c’est son utilisation qui suscite les questions éthiques. C’est pourquoi penser à l’éthique d’une technologie, c’est tout d’abord de bien comprendre son fonctionnement, ses possibilités, et sa valeur pour pouvoir définir un cadre responsable d’utilisation et de développement. Dans cette perspective, on pourra s’intéresser tout particulièrement à l’utilisation des données et des inquiétudes éthiques que l’on peut avoir à ce sujet.

Qu’est-ce que l’IA d’aujourd’hui ?

L’IA en tant que domaine scientifique a tout d’abord cherché à imiter les tâches humaines : perception visuelle, compréhension orale et structuration de la langue, etc. Pendant plus de 50 ans cette inter-discipline a donc fait appel aux secteurs variés des sciences : l’informatique, la neuro science ou encore la linguistique pour essayer de comprendre le mécanisme et pour pouvoir « mimer » par la suite. Inopinément, ce sont les modèles mathématiques et statistiques qui ont su résoudre ces problématiques : l’apprentissage profond (ou en anglais Deep Learning) qui est une des méthodes de Machine Learning. Ce modèle algorithmique permet d’extraire les informations pertinentes des données automatiquement pour répondre à une problématique précise. Ainsi, on a pu reconnaître certaines formes d’image à partir des pixels, reconnaître les phrases d’un audio, ou encore reconnaître certaines logiques grammaticales. Lorsqu’on parle d’IA aujourd’hui, on l’associe presque directement à cette méthodologie. Cependant, l’IA n’est pas que modèles, c’est aussi un ensemble de réflexions et d’idées scientifiques (et même parfois philosophiques).

Un outil avancé, mais avec ses limites

Puisqu’une grande partie de l’IA se développe aujourd’hui par ces modèles d’apprentissage, on propose de regarder de près les caractéristiques de ces modèles. En effet, même si aujourd’hui ces modèles sont capables de répondre à des besoins, leurs caractéristiques montrent qu’ils sont encore perfectibles et peuvent générer des dysfonctionnements. De plus, lorsqu’il s’agit des domaines sensibles, comme l’utilisation des données privées, ces problèmes peuvent être encore plus critiques.

  1. Application Monotâche : Ces modèles ont démontré leur efficacité lorsqu’il s’agissait d’accomplir une tâche spécifique. Cependant, l’analyse globale et le contexte ne peuvent pas être compris par ces modèles. Les modèles sont aujourd’hui capables de fournir un ensemble d’indicateurs permettant une aide à la décision mais « l’intelligence analytique » reste encore propre à l’humain. C’est donc depuis la conception de l’application IA que l’on doit réfléchir au contexte et à l’utilisation de cette méthodologie. Pour quoi développons-nous ce modèle IA ? Comment utilisera-t-on les résultats du modèle ?
  2. Automatique : Sans qu’on ait besoin de guider ces modèles, ceux-ci permettent d’obtenir des résultats fonctionnels à partir des données. Pour la traduction automatique (google translate), on n’a pas eu besoin de dicter toutes les règles grammaticales des différentes langues. Cependant, on ne saura pas expliquer le choix de l’IA à utiliser un mot au lieu d’un autre. Connaît-il les nuances de chaque mot ? Il est donc encore difficile de comprendre les tenants et les aboutissants. De ce fait, l’audit de ces modèles peut s’avérer complexe. On répétera toujours leur aspect « boîte noire ». Mieux comprendre les décisions algorithmiques permettra de mieux piloter ces modèles avec une perspective plus responsable.
  3. Données : l’utilisation et la modélisation des données sont à considérer avec précaution. Ce genre de problématique n’est pas nouveau puisque les statisticiens font déjà face à cela : qualité de données, utilisation et traitement des données, utilisation des données privées etc. En particulier, les données injectées à la conception des modèles (étape dite « d’apprentissage ») affectent énormément le résultat des modèles puisqu’ils se baseront sur ces données-là. Quels sont alors les types de données pertinents pour ces applications d’IA ? Est-ce que les informations privées sont-elles nécessaires ? En l’absence de ces réflexions, le dysfonctionnement des modèles pourrait atteindre même le droit à la vie privée.

Snowden : « Dire qu’on ne se soucie pas du droit à la vie privée parce qu’on n’a rien à se cacher, ce n’est pas si différent que de dire qu’on ne se soucie pas de la liberté d’expression parce qu’on n’a rien à dire. »

Pour conclure…

Même si l’IA d’aujourd’hui reste encore un outil d’aide ou d’automatisation, elle a suscité des réflexions et des débats. Dans cette réflexion, on a proposé d’éclairer davantage son fonctionnement pour pouvoir accompagner son développement. En particulier les données sont un des éléments essentiels dès l’élaboration des applications d’IA. Pour illustrer encore l’importance des données : « Tay », un chatbot d’IA basé sur les tweets a commencé à tenir des propos tendancieux lorsque les utilisateurs de twitter l’ont alimenté avec des commentaires discriminatoires (racisme /sexisme). Au bout d’une journée, ce chatbot a donc été retiré du réseau social.
« Garbage in garbage out » comme on dit ; ces modèles ont encore besoin d’être suivis et accompagnés. La prise de conscience de cette nécessité sera donc un premier pas pour concevoir, implémenter et utiliser leurs applications dans un cadre responsable.

Sung Hyuk P.

958 780 CMG Consulting Group
CMG Consulting Group
Rechercher...