Montpellier : en matière d'IA, “l’humain ne doit pas rester spectateur” affirme Pierre Vannier (Flint)
Loin des fantasmes utopiques qui promettent une prospérité sans limite grâce à l’IA, et des visions apocalyptiques qui en font une menace pour l’humanité, Pierre Vannier, fondateur de la société montpelliéraine Flint et animateur du podcast “IA pas que la Data” remet les pendules à l’heure.
D’après lui, ce n’est pas la technologie elle-même qui façonnera notre avenir, mais la façon dont nous choisirons de l’intégrer dans nos sociétés. Refusant tout manichéisme, il défend une position plus nuancée : “l’IA doit être vue comme un outil d’accompagnement, et non comme un remplaçant de l’humain”.
L’IA au service de l’humain
L’échange avec Pierre Vannier s’ouvre sur le lancement de HRzilla Job Coach, une solution SaaS développée par Flint pour transformer les pratiques de recrutement. Ce projet incarne parfaitement la philosophie hybride défendue par son fondateur : une IA conçue pour épauler l’humain, jamais pour le remplacer. “L’idée n’est pas de créer un outil qui recrute à votre place, mais un copilote capable de simplifier, d’organiser et d’accélérer un processus souvent chronophage et complexe”, explique-t-il.
Conçu comme un copilote intelligent, l’outil analyse les CV et les offres d’emploi, effectue un tri pertinent et propose des correspondances précises. Contrairement aux algorithmes classiques qui se limitent à attribuer des scores rigides ou à désigner un “candidat idéal”, HRzilla Job Coach se distingue par ses analyses nuancées et ses synthèses visuelles. “Refusant le rôle d’arbitre définitif”, l’IA se positionne ici comme un coach, aussi bien pour les recruteurs submergés par les demandes que pour les candidats qui cherchent à “pimper” leurs CV. Et si l’Homme reste “indispensable” dans le processus, c’est à la fois pour dépasser “la froideur” de l’outil et gommer les défaillances qu’il reproduit inconsciemment.
Un miroir des biais sociaux
Faire confiance à un algorithme continue de susciter des inquiétudes, non seulement en raison de la crainte d’un manque d’empathie, mais aussi à cause des risques qu’il fait peser sur les droits humains. En effet, selon Ashwini K.P., rapporteuse spéciale sur les formes contemporaines de racisme, de discrimination raciale, de xénophobie et de l’intolérance au Conseil des droits de l’Homme, “les récentes avancées dans le domaine de l’intelligence artificielle générative et l’essor des applications de l’IA continuent de soulever d’importantes questions relatives aux droits humains, notamment en ce qui concerne la discrimination raciale.”
Questionné sur la question, Pierre Vannier reconnait des biais. “L’IA n’est jamais neutre, elle est construite sur des données et des modèles qui sont eux-mêmes le reflet des biais présents dans la société.” Selon lui, l’IA peut involontairement amplifier les discriminations sociales, qu’elles soient liées au sexe, à l’origine ethnique ou à la classe sociale. “L’IA, c’est comme un miroir : elle reflète ce que la société lui donne à voir, explique-t-il. C’est aussi pour cette raison que l’humain ne doit pas rester spectateur”.
Pour Pierre Vannier, cela ne signifie pas qu’il faut rejeter l’IA, mais bien qu’il est essentiel de concevoir des systèmes éthiques dotés de garde-fous. “Il faut mettre en place des mécanismes de contrôle pour que l’IA devienne un outil au service de l’équité et non un amplificateur de discriminations. C’est un chantier majeur”.
Un levier, et non un remplaçant
Si l’intelligence artificielle permet de traiter des volumes massifs de données et d’accomplir des tâches complexes avec une rapidité inégalée, elle reste un outil dont l’efficacité dépend de sa complémentarité avec les capacités humaines. C’est précisément “cette collaboration entre la puissance analytique de la machine et les qualités humaines qui constitue la clé” pour relever les défis complexes de notre époque. Et, si elle est vectrice d’opportunités, elle “nécessite un travail préalable, notamment une montée en compétences,” insiste-t-il. C’est là que le “prompt engineering”, cette discipline qui consiste à formuler les bonnes requêtes pour obtenir des résultats pertinents, devient essentielle. “L’IA ne fait pas de magie. Il faut un travail acharné en amont pour qu’elle soit réellement utile,” ajoute-t-il.
Sur ce point, le CEO de Flint met en garde contre une fracture numérique qui risque de s’élargir si la société n’adapte pas ses compétences face à l’IA. Il craint une société à deux vitesses, avec d’un côté ceux qui maîtrisent l’IA et prospèrent, et de l’autre ceux qui se retrouvent marginalisés. Pour lui, le vrai défi est de démocratiser l’accès à ces outils et de former la population pour que “chacun puisse en tirer parti”.
À plus long terme, il imagine une évolution radicale du travail. “La notion même de travail pourrait disparaître bien avant que les jeunes générations se posent la question des retraites,” déclare-t-il. S’inspirant des théories de l’économiste Jeremy Rifkin, il envisage deux scénarios : un “Éden” où l’automatisation libère la société du travail, ou un “chaos” marqué par des inégalités insoutenables. Selon lui, sans une gestion collective et cohérente de cette évolution, “c’est vers le chaos que nous risquons de nous orienter”.