Un moratoire sur l’IA, pourquoi faire ?

Un moratoire sur l’IA, pourquoi faire ?

Pôle Paiements et Transformation Digitale

Alors que ChatGPT prend de plus en plus d’ampleur dans notre quotidien et semble devoir bouleverser à l’avenir un très grand nombre de nos usages actuels, une lettre signée par plusieurs scientifiques et personnalités a agité le monde entier le mercredi 29 mars dernier. De grands noms tels qu’Elon Musk, le patron de Tesla, ou encore Steve Wozniak, un des cofondateurs d’Apple font partie de ces signataires et appellent à une pause urgente dans la création de nouvelles versions d’Intelligence Artificielle (IA). Ils souhaitent la mise en place rapide d’un moratoire de six mois afin de pouvoir prendre un maximum de recul suite aux dernières innovations et surtout essayer de mieux maitriser l’ensemble des risques potentiellement néfastes que pourraient entraîner le développement à grande échelle de cette technologie. Il s’agirait selon eux d’un enjeu “existentiel” pour toute notre Humanité.

Pourquoi un moratoire ?

Le sentiment est très répandu parmi les signataires de cette lettre que la plupart des laboratoires de recherche en IA sont aujourd’hui lancés dans une course effrénée à l’innovation et aux développements. Chacun souhaitant livrer au plus vite sa version d’IA la plus puissante afin de séduire le plus grand nombre d’utilisateurs, mais sans prendre toutes les précautions nécessaires en termes de sécurité. Le risque le plus élevé étant que les créateurs de ces IA ne puissent plus reprendre leur contrôle si elles venaient à devenir dangereuses pour notre civilisation. En ce sens, les signataires insistent pour que ce moratoire soit imposé par les états eux-mêmes si les acteurs clés du secteur ne parvenaient pas de leur côté à l’instaurer d’eux-mêmes.

L’ambition affichée de ce moratoire est d’essayer de mieux définir la trajectoire vers laquelle doit tendre l’IA. En effet, son impact potentiel pour les années à venir est tel que tous les repères actuels de notre civilisation pourraient être mis à mal et engendrer des bouleversements trop profonds pour qu’ils puissent être assimilés dans de bonnes conditions. L’IA serait alors un facteur de chaos plus que de progrès.

Cette pause serait l’occasion de réunir l’ensemble des protagonistes de cette technologie afin d’établir un cadre et tout un ensemble de directions communes vers lesquelles avancer. L’objectif serait donc d’asseoir et de pérenniser les premières versions d’IA développées afin de permettre une plus grande sérénité dans les prochains développements attendus. Un ensemble de propriétés ont d’ailleurs déjà été citées avec notamment le besoin d’obtenir une IA « plus exacte, plus sûre, interprétable, transparente, robuste, plus conforme, plus fiable et plus loyale ».

Les risques de l’IA

Si l’on se concentre sur l’IA, plusieurs éléments sont présentés comme particulièrement impactant négativement pour les humains. L’un des premiers qui est souvent mis en avant est la possibilité d’une destruction d’emplois importante. Toutes les activités dans lesquelles l’automatisation des tâches peut être pris en charge et traitée par l’IA seront effectivement gérées sans aucune intervention humaine, ou alors seulement pour des actions de contrôle. Mais l’espoir existe aussi de voir émerger une multitude de nouveaux métiers grâce à l’essor de l’IA. La perte de contrôle sur une IA est un autre risque important, existant. L’IA étant amenée à se développer rapidement et à devenir de plus en plus complexe, le maintien de son contrôle peut devenir un véritable casse-tête. L’enjeu est donc d’avoir des développements conçus de manière responsable et éthique. Le risque d’avoir une prolifération d’IA qui deviendraient complètement autonomes et agiraient contre les intérêts de notre civilisation ne peut pas être laissé sans solution.

Les attaques de grande ampleur sont aussi des menaces bien réelles. Bien que déjà existantes aujourd’hui, elles pourraient être encore plus destructrices avec l’aide de l’IA. Il s’agit par exemple d’attaques de sécurité sophistiquées, de paralysies d’entreprises, de secteurs d’activités ou même d’États.
Les utilisations à des fins malveillantes doivent aussi être anticipées, notamment toutes les créations de deepfakes, de fausses informations ou d’attaques de désinformation à plus grande ampleur.

Enfin, le respect de la vie privée présente également un risque quant à l’utilisation de chacune de nos données personnelles par les IA. Elles peuvent collecter et analyser de grandes quantités de données sur les utilisateurs. En contrôler leurs usages peut très rapidement devenir un problème assez complexe à traiter.

Un moratoire controversé

Malgré toutes les alertes et les réserves soulevées dans cette lettre, l’idée du moratoire ne séduit pas encore tous les acteurs.
Bill Gates, par exemple, est totalement opposé à cette idée. Même s’il reconnaît que les risques liés à l’IA existent et qu’ils doivent être pris en compte, il n’y a pas selon lui de nécessité de faire une pause. Le moratoire ne permettrait pas de résoudre ces risques en l’état. Il met en avant l’aspect révolutionnaire de cette technologie et encourage même plutôt la poursuite de l’ensemble des travaux déjà engagés afin de continuer à développer les avantages exceptionnels de l’IA, notamment en termes de réduction des inégalités et d’amélioration de l’éducation des populations les plus défavorisées. De la même manière, il lui semble tout à fait impossible d’imposer à des groupes privés de ralentir voir de stopper totalement l’ensemble de leur recherche sur l’IA. Il rappelle également que la plupart des inventions peuvent être utilisées à des fins bénéfiques ou maléfiques, que cela n’est pas uniquement le cas de l’IA.

Conclusion

Si l’idée d’un moratoire semble être une bonne idée sur le papier, elle est bien plus difficile à mettre en œuvre concrètement. Elle se heurte à plusieurs freins, dont l’absence de consensus parmi l’ensemble des acteurs du secteur et également l’impossibilité d’imposer réellement une pause à l’ensemble des laboratoires de recherche en IA.

Malgré tout, l’IA et ses nombreux créateurs n’ont pas une voie royale devant eux ! En effet, ils devront absolument travailler à la réduction de ses risques, car plusieurs pays ont déjà montré leurs inquiétudes, et même pris des mesures restrictives dans certains cas. Il s’agit d’un signal fort ! Prenons l’exemple de la protection des données personnelles pour laquelle le Royaume-Uni a déjà averti les géants du secteur en leur intimant de mettre le respect de la vie privée des utilisateurs au centre de chaque innovation. Et l’Italie a de son côté déjà bloqué l’utilisation de ChatGPT sur tout son territoire pour ce même motif…

Patrice RIVET – CMG Conseil

2560 1707 CMG Consulting Group
CMG Consulting Group
Rechercher...