Le Japon met en garde OpenAI sur la collecte des données personnelles

Paul Guillot
| 3 min read

OpenAI est prévenue. L‘autorité japonaise en charge de la protection des donnée personnelles a mis en garde, vendredi 2 juin, la société derrière le célèbre bot conversationnel ChatGPT sur sa façon de collecter les données des utilisateurs. 

Car la start-up fondée par Sam Altman, qui bénéficie du soutient de Microsoft, utilise les paquets de données que vous lui laissez à des fins de “machine-learning“, c’est à dire, grosso modo, pour entraîner une intelligence artificielle (IA) à penser correctement. Et cela ne passe pas, surtout quand ce n’est pas déclaré.

Le casse-tête de la régulation de l’IA

Le sujet de la régulation  est dans toutes les têtes, sur toutes les lèvres. On en parle partout. Aussi bien au café qu’au conseil des ministres, ou encore au sommet international du G7 à Hiroshima. Et ce récent développement témoigne de la nouvelle orientation que prend le Japon vis-à-vis de l’intelligence artificielle, avec un accent croissant sur la protection de la vie privée et la sécurité des données.

En fait, le Japon a été un peu en retrait par rapport à certaines tendances technologiques récentes. Cependant, le pays est vu comme ayant une plus grande incitation à suivre le rythme des avancées en matière d’IA et de robotique pour maintenir la productivité face à la diminution de sa population.

En avril, Sam Altman, a rencontré le Premier ministre Fumio Kishida en avril, avec un œil sur l’expansion au Japon. Cette rencontre a précédé le sommet des dirigeants du G7, où Kishida a dirigé une discussion sur la réglementation de l’IA. Or, rappelons que le Japon est actuellement la troisième source de trafic vers le site web d’OpenAI, ce qui souligne l’importance du marché japonais pour l’entreprise.

La Commission de protection des informations personnelles du Japon a également souligné la nécessité de trouver un équilibre entre les préoccupations relatives à la vie privée et les bénéfices potentiels de l’IA générative.

Le cas de l’UE

L’Union Européenne, qui est souvent à la pointe de la réglementation technologique (on pense à la mise en place de MiCA), a mis en place un groupe de travail sur ChatGPT et travaille sur ce qui pourrait être le premier ensemble de règles pour réglementer l’IA.

Il faut se souvenir que l’Italie avait interdit ChatGPT, tant que la société OpenAi n’avait pas mis en place de mesure de protection de la vie privée et des mineurs.

Malgré les défis réglementaires, Altman a déclaré que OpenAI n’a pas l’intention de quitter l’Europe, même s’il avait précédemment suggéré que la startup pourrait le faire si les réglementations de l’UE étaient trop difficiles à respecter​​. Au Japon, OpenAI envisage même d’ouvrir un bureau et de développer ses activités dans le pays​.

Cependant, la récente mise en garde de l’autorité japonaise de protection de la vie privée pourrait modifier cette perspective. La Commission de protection des informations personnelles du Japon a déclaré qu’elle était prête à prendre d’autres mesures si elle avait d’autres préoccupations​.