Rencontre : Hervé Halbout, l'éthique des données et de l'Intelligence Artificielle
Publié par Le Dôme, le 2 mars 2021 1.8k
Hervé Halbout, consultant en système d’informations géographiques et modélisation 3D, est président de l’association Novimages, qui regroupe des professionnels publics et privés dans le domaine de la 3D, et membre du comité d’éthique du DataLab Normandie.
Invité à intervenir lors de la conférence du 21 avril intitulée “Data & IA : le vrai, le faux, le flou” , il a accepté de répondre à nos questions sur les données et l’intelligence artificielle : quels sont les risques de ces technologies ? Pourquoi en avons-nous besoin ? Quel rôle jouent les citoyen.ne.s ?
Avant d’intégrer le comité d’éthique du DataLab Normandie, vous avez participé à l’écriture d’une charte d’éthique de la 3D. En quoi ces domaines sont-ils liés ?
J’ai commencé à m’intéresser aux questions d’éthique en 2008, quand on commençait à modéliser des bâtiments, des quartiers en 3D. Cela permettait de faire des propositions d’aménagement, utilisées principalement pour la concertation ou la communication. Il est parfois difficile de se projeter sur des plans en 2D, alors qu’en volume, on perçoit beaucoup mieux le rendu final. Mais cela peut facilement amener une distorsion de la réalité et potentiellement tromper les client.e.s ou les citoyen.ne.s. Cela pose question : pourquoi faire une modélisation en 3D ? Avec quelles données ?
Les données produites sur les territoires se transforment en information, en communication, en interprétation : comment organiser tout cela ? La question se retourne donc sur la donnée elle-même, pas seulement sur son utilisation. J’ai participé à l’écriture d’une charte d’éthique de la 3D, écrite en français, puis traduite en anglais et en allemand. Très vite, 350 partenaires dans le monde s’y sont intéressés : autant de personnes qui partageaient les mêmes interrogations.
Les producteurs de données n’avaient pas conscience de la valeur qu’ils produisaient. Plus particulièrement les acteurs publics, alors que les producteurs privés, dont les GAFAM (Google, Apple, Facebook, Amazon et Microsoft), ont très vite compris leur intérêt et leur valeur. Ne pas avoir connaissance de son patrimoine de données signifie ne pas connaître la valeur des données que l’on produit : c’est ce sujet qui m’intéresse depuis les années 2000.
Pourquoi, pour certains, l’usage de la donnée pose problème ?
L’arrivée d’internet a certes fait exploser la quantité de données disponibles (c’est le Big Data/Massive Data), mais surtout la quantité d'informations que l’on peut en extraire : à partir d’une même donnée, on peut en tirer de nombreuses informations. A partir du moment où l’on peut tracer la donnée et donc l’information, c’est plutôt positif : cela ouvre beaucoup d’horizons.
Mais cela devient problématique lorsque l’on n’est pas capable de documenter son information, de la valoriser et qu’on laisse d’autres acteurs externes le faire à sa place. C’est ce que font entre autres les GAFAM aujourd’hui : ils vont chercher la donnée ailleurs, croisent de nombreuses sources différentes et à l’aide d'algorithmes très puissants ils peuvent extraire une multitude d’informations intéressantes pour eux. Le niveau de maturité sur le sujet n’est pas le même pour tout le monde.
En quoi le DataLab Normandie répond-il à ce problème ?
Le consortium DataLab Normandie vise à créer un écosystème de la donnée, pour permettre à la fois une prise de conscience du patrimoine de données produites en région, et aussi permettre différentes expérimentations à partir de celles-ci. Ce n’est pas un lieu d'hébergement de la donnée, sauf de façon temporaire : c’est un lieu d’échange, pour prendre connaissance des données produites par les uns et les autres, créer un catalogue et une gouvernance autour de la donnée en Normandie.
C’est aussi une initiative qui souhaite questionner la notion d’intérêt général autour de la donnée. Dans sa gouvernance, le consortium a intégré un Comité d’éthique indépendant, qui peut émettre un avis sur différents projets d’expérimentations à partir des données et servir en quelque sorte de garde-fou. L’usage d’une masse de données très importante et l’ajout d'algorithmes d’intelligence artificielle ouvrent de nouvelles perspectives d’exploitation/usages et peuvent aussi amener certaines dérives.
Quelles dérives ?
Ce qui est compliqué, c’est que les mêmes données, suivant la façon dont on les interrogent, peuvent être exploitées de façon complètement différentes. Souvent, on acquiert la donnée dans un but précis. Mais cette donnée peut-être poussée beaucoup plus loin dans un certain nombre d’usages qui n’avaient pas été prévus initialement. C’est une question sociétale : si l’on filme les manifestations et les interventions policières ou bien si l’on utilise des algorithmes de reconnaissance faciale, jusqu’où va-t-on dans l’exploitation des données produites ? C’est là qu’il faut faire preuve de prudence, d’où l’intérêt du Comité d’éthique.
Le problème, ce n’est pas la donnée, c’est l’usage que l’on en fait. C’est encore plus complexe quand on croise de multiples sources de données : l’IA est capable d’aller beaucoup plus loin que la représentation habituelle à partir de cerveaux humains. C’est une technologie capable de trouver des corrélations que nous n’aurions pas envisagées.
Aujourd’hui, la limite technologique est floue. Techniquement, nous sommes capables de réaliser beaucoup de choses, notamment la reconnaissance faciale sur les vidéos de surveillance, pour reprendre cet exemple. Mais doit-on le faire ? Ce sont les mêmes questions qui se posent dans beaucoup d’autres domaines, comme la question du clonage en médecine par exemple.
Les données et l’intelligence artificielle semblent des sujets très techniques, difficiles à s’approprier pour un.e citoyen.ne. Avons-nous néanmoins un rôle à jouer ?
Les citoyen.ne.s doivent avoir conscience qu’ils sont les premiers producteurs de données : les smartphones, par exemple, en produisent constamment. Il faut prendre conscience que l’on est tous producteurs de données et que nous en sommes responsables à ce titre. Le citoyen a le libre arbitre : il peut décider d’accepter le partage de ses données ou non. Tout est fait pour qu’il accepte, notamment avec des Conditions Générales d’Utilisation (CGU) trop longues à lire. Mais cela signifie accepter tout un tas de choses dont nous ne prenons pas connaissance.
En tant que citoyen.ne, ce qui peut nous intéresser, c’est de savoir ce que la donnée de chacun.e alimente. Pour faire un raccourci, sans la donnée, toutes ces technologies ne sont que des lignes de codes et du matériel informatique. Il faut prendre conscience de cela.
Un petit mot pour la fin ?
Nous avons de plus en plus de données, mais nous ne les exploitons pas encore à leur juste valeur. C’est à cela que s’intéressent les GAFAM, entre autres, car ce ne sont pas les seuls. La donnée, c’est une forme de pouvoir. Celui qui la contrôle, l’utilise et l’exploite a une forme de pouvoir sur celui qui ne la connaît pas. De la même façon, s’informer sur les données, c’est aussi développer une forme de contre-pouvoir !
Pour en savoir plus, découvrez nos infographies :
Annonces, rendez-vous, conférences, restitutions d'ateliers, ... Suivez toute l'actualité du parcours dans notre dossier spécial "Data, IA et moi".
Crédits : Markus Spiske