Un député britannique estime que l’IA devrait être régulé comme la médecine et le nucléaire

| 3 min de lecture

Les décideurs politiques du Royaume-Uni recommandent la mise en place d’une réglementation plus stricte pour le développement de la technologie IA (intelligence artificielle). Plus spécifiquement, le parti travailliste estime que les développeurs ne devraient pas travailler sur des outils avancés d’intelligence artificielle à moins qu’ils n’aient une licence pour le faire. 

Ces commentaires ont été formulés par Lucy Powell, porte-parole du parti travailliste au média britannique The Guardian. Elle avait déclaré que des règles devraient être introduites pour encadrer les entreprises utilisant de grands ensembles de données dans leurs modèles d’apprentissage d’IA. Des produits tels que ChatGPT sont construits par des algorithmes sur de vastes banques d’informations numériques. Cependant, si ces données contiennent des données biaisées ou discriminatoires, les produits finaux peuvent montrer des preuves de ces biais.

« Biais, discrimination, surveillance… cette technologie peut avoir de nombreuses conséquences inattendues »

Powell a suggéré que l’IA devrait être réglementée au même titre que l’industrie des médicaments ou l’industrie nucléaire, tous deux supervisés par des organismes gouvernementaux indépendants. Selon Powell, ces modèles sont des exemples appropriés de la manière dont la régulation devrait être appliquée. 

Matt Clifford, le conseiller IA du Premier ministre britannique, avait déclaré que l’intelligence artificielle évoluait beaucoup plus rapidement que la plupart des gens ne le pensaient. Il a ajouté que les modèles développeurs avançaient généralement une fenêtre de temps de deux ans dans leurs prédictions avant que l’IA ne surpasse potentiellement l’intelligence humaine.

« Je pense qu’il y a beaucoup de scénarios différents dont il faut s’inquiéter et (…) il est normal que cela doive être une priorité dans l’agenda des décideurs politiques. »

Une direction similaire dans de nombreuses juridictions

Les recommandations de Powell rejoignent celles du sénateur américain Lindsey Graham. Lors d’une audience au Congrès en mai, ce dernier avait recommandé la création d’une agence qui aurait le pouvoir d’accorder une licence aux développeurs d’IA et également la retirer. Il faut noter que le PDG d’OpenAI, Sam Altman, avait approuvé l’idée. Altman avait également proposé l’instauration d’une agence fédérale chargée d’élaborer des normes et des pratiques.

Ces déclarations interviennent alors les législateurs de nombreux pays se penchent sur les défis posés par le développement sans précédent de cette technologie. Au sein de l’Union Européenne, la loi sur l’IA (Artificial Intelligence Act) mettra en place un système de classification qui déterminera le niveau de risque qu’une technologie IA pourrait poser pour la santé, sécurité ou les droits fondamentaux d’une personne. 

En attendant sa finalisation, la Commission Européenne a préparé les entreprises à l’entrée en vigueur de la législation sur les services numériques en août. La vice-présidente de la Commission Européenne, Vera Jourova, a appelé 44 entreprises, dont Google et Facebook, à étiqueter “immédiatement” les contenus basés sur l’IA.  

Les législateurs ne sont pas les seuls à avertir des dangers posés par l’IA. De nombreux experts de l’industrie ont mis en garde contre les risques posés par une utilisation incontrôlée de cette technologie. Parmi eux se trouve le pionnier de l’intelligence artificielle Geoffrey Hinton. Hinton a démissionné de son poste chez Google en mai afin de pouvoir s’exprimer librement sur les dangers potentiels de l’IA.

Source : The Guardian, PBS news, Mirror UK, site officiel de l’Union Européenne