Algorithmes complexes, deep learning, Montpellier dresse l’IA au service des habitants et du territoire
Pour Manu Reynaud, l’IA ne doit pas débarquer subrepticement dans la vie des citoyens, elle doit être comprise et maîtrisée. Le conseiller de Montpellier Méditerranée Métropole et 2e adjoint de Michaël Delafosse, maire de Montpellier, a été le chef d’orchestre de la première convention citoyenne sur l’intelligence artificielle (IA).
Construire une IA de confiance
Identification : Montpellier 56.90 km², un peu plus de 290.000 habitants. Vision élargie : Métropole, plus de 507.000 habitants, répartis dans 31 communes. Superficie : 421,8 km². 2024, Avis rendu par la Convention citoyenne sur l’IA « les enjeux majeurs sont humains, philosophiques et éthiques », déclare Cédric Villani, mathématicien, expert auprès de cette Convention montpelliéraine. « Notre territoire s’inscrit comme une place forte de l’Intelligence Artificielle en France, » insiste Michaël Delafosse. Comme la ville a su être le berceau de la médecine avec sa faculté fondée en 1220, elle devrait pouvoir répondre à cette injonction du maire et président de la métropole. Le cap est donné : construire une IA de confiance. Pour Manu Reynaud, l’équation est la suivante : il faut encadrer le déploiement de l’IA dans la transparence, l’éthique, la maîtrise de l’outil et la démocratie.
« Avec l’intelligence artificielle, nous invoquons le démon, » expliquait Elon Musk en 2014 au département aéronautique et spatial du MIT (Massachusetts Institute of Technology). Mars 2023 Montpellier « on a simplement interdit l’usage de ChatGPT pour les agents de la collectivité, et ceux qui travaillent pour la collectivité dans le cadre d’utilisation de données personnelles ou confidentielles de la collectivité. » Manu Reynaud l’affirme « il n’y a aucune sécurité ! » Puis il précise : « ChatGPT c’est un peu comme une drogue. C’est à la fois addictif, parce qu’on a tendance à l’utiliser souvent, c’est en partie illégal parce que ça utilise des données que l’on n’a pas autorisées, comme par exemple le droit d’auteur. Et ça procure des hallucinations. » Hallucinations : terme technique utilisé par les ingénieurs et les data-sellers qui consiste à prévenir que l’IA peut raconter n’importe quoi, et tout inventer. Un serveur sous LSD ? Presque !
L’Intelligence Artificielle générative est une sous-catégorie de l’IA axée sur la capacité des systèmes à créer de nouveaux contenus. Productions de textes, d’images, de musiques, de vidéos, et de code informatique, ils sont conçus pour produire des éléments qui imitent ou améliorent la création humaine. Cette IA repose principalement sur des techniques d’apprentissage automatique, en particulier les réseaux de neurones artificiels. Quèsaco ? Les réseaux neuronaux sont des modèles de machine learning qui prennent des décisions de manière similaire au cerveau humain. Ils fonctionnent en imitant les neurones biologiques pour reconnaître des motifs, évaluer des options et tirer des conclusions.
De fait, les questions éthiques deviennent inévitables : quid de l’authenticité et du plagiat ? Comment distinguer le contenu généré par l’IA de celui créé par l’humain ? Côté sécurité et abus : quid des deepfakes, ces enregistrements vidéo ou audio réalisés ou modifiés à l’aide de l’IA ? Ils peuvent être utilisés de manière malveillante pour diffuser de fausses informations afin de manipuler l’opinion publique. Pour l’heure, ces objets multimédias sont encore intellectuellement et techniquement repérables. Mais le problème le plus subtilement dérangeant semble les biais et les stéréotypes. Les modèles d’IA peuvent reproduire et amplifier les biais présents dans les données d’entraînement, pour s’emmêler avec assurance et arrogance dans des résultats inappropriés.
Pour comprendre les débuts d’OpenAI, remontons à quelques années à peine. Manu Reynaud explique : « En gros, c’est la façon dont l’IA peut biaiser les réponses en raison d’un volume de données qui peut être discriminant. » Il poursuit : « le principe de ChatGPT est de scruter, de moissonner le web et d’utiliser de grandes masses de données. Sur ces données, il applique des modèles mathématiques et statistiques. Dans sa version brute, avant toute amélioration, que fait-il ? Il prend cette réalité statistique et l’applique dans ses réponses aux questions. » Notre société est globalement discriminante. Elle tend à porter un regard biaisé, par exemple, « des hommes par rapport aux femmes. » Et comme une grande partie, des données proviennent des États-Unis, « il peut y avoir des biais discriminants d’un point de vue social et racial. » Les premiers systèmes de ce type « lancés, il y a quelques années, étaient souvent racistes et discriminants, » note l’adjoint au maire en charge de la ville numérique.Cependant, ils ont été rapidement retirés des versions grand public. Les grandes entreprises technologiques ont appris de ces erreurs et ont travaillé à corriger ces biais. Mais ces biais existent parce que, dès lors que l’on traite de vastes ensembles de données statistiques, certaines tendances et discriminations présentes dans la société sont inévitablement reflétées.
Alors toute l’attention est portée pour mettre l’IA au service du bien commun. À Montpellier, la Convention met également en avant l’utilité des IA dans les services publics. Les IA peuvent considérablement améliorer l’efficacité en accélérant les procédures administratives ou par exemple en optimisant la gestion de l’eau pour lutter contre la sécheresse. Nul responsable politique ne peut passer à côté de cette révolution, pour Manu Reynaud, c’est une révolution jugée « aussi importante que l’invention de l’électricité. »
Une obligation d’exemplarité s’installe avec « le territoire où l’avenir s’invente et vers lequel les regards se tournent », selon la formule de Michaël Delafosse. L’objectif est de garantir une utilisation maîtrisée de l’IA, alors la Convention citoyenne a préconisé la création d’un comité d’éthique indépendant. Sa mission : mesurer les garanties apportées en matière de protection de la vie privée, évaluer l’empreinte environnementale des projets et vérifier l’absence de biais discriminants dans les algorithmes.
Depuis le lancement de ChatGPT en novembre 2022 et l’investissement de Microsoft, les estimations de la valeur d’OpenAI ont explosé. Microsoft détient désormais 49% des actions d’OpenAI, après avoir investi 10 milliards de dollars dans la start-up. Le chiffre d’affaires d’OpenAI a également connu une croissance phénoménale. Août 2023, selon le média The Information à San Francisco, OpenAI devrait générer plus d’un milliard de dollars de revenus au cours des 12 prochains mois. En l’état, OpenAI générerait plus de 80 millions de dollars de revenus par mois. Autres chiffres, autre échelle : « les licences de Microsoft pour la métropole, c’est aujourd’hui 1,5 million d’euros par an, qui comprend tous les usages bureautiques » un budget qui fait l’objet d’une « étude à long terme », explique Manu Reynaud pour savoir s’il faut le reconduire et comment. Avec « une augmentation annoncée de 39%, à ce tarif-là, il faut s’interroger sur le suivi du produit », précise-t-il. Mais les changements massifs arrivent. L’IA s’installe partout.
Autre révolution parmi tous ces outils désormais disponibles dans le cloud, Microsoft propose ChatGPT sous le nom de Copilot. Manu Reynaud détaille son application potentielle : « ce qui change fondamentalement, c’est que, plutôt que d’interroger des bases de données accessibles à tous sur le web, Copilot interroge les bases de données internes de la collectivité. Des données stockées dans le cloud, accessibles uniquement aux agents dans le cadre de leur contrat de confidentialité. L’intérêt majeur de cette innovation est la capacité d’accéder à toutes les notes confidentielles et aux données internes de la collectivité. Cela permet de réaliser des études et des analyses en utilisant des informations précises et pertinentes, qui auparavant nécessitaient l’intervention de consultants externes ou des agents internes pour examiner les documents. »
Même si toutes ces solutions SaaS (Software as a Service), hébergées dans le cloud, et accessibles via le web, offrent une fluidité et une flexibilité sans précédent, les questions de souveraineté se posent. À Montpellier, la Convention n’a pas manqué de faire de la formation des citoyens une priorité. Elle recommande que la Métropole organise des dispositifs de cours adaptés à tous les niveaux, pour sensibiliser sur les bénéfices et les risques de l’IA. Cédric Villani nous rassurerait presque en affirmant : « ne cherchez pas de définition de l’IA, il n’en existe pas encore. Aujourd’hui, c’est un ensemble de choses qui permet d’effectuer des tâches que l’on croyait réservées à l’humain. » Mais pour Manu Reynaud, « les citoyens doivent pouvoir conserver, face au déploiement de l’IA, un réel esprit critique. »