Salon VivaTech : l'IA mise en cause : quelle éthique, quels garde-fous ?

Le salon Vivatech 2023 a été l’occasion de discussions fructueuses sur la nécessité de faire une pause - réaliste ? - et de réguler l’intelligence artificielle, notamment celle dite « générative » (ChatGPT, WatsonX…). Premiers éléments de réponse.

© Adobe Stock
© Adobe Stock

Lors de son interview au Dôme de Paris, ce 16 juin en marge de Viva Technology, porte de Versailles, Elon Musk (Tesla, SpaceX et, depuis peu, Twitter) n’a pas tergiversé. Marcel Levy (Publicis), co-fondateur du salon, l’a interrogé sur la nécessité ou non de faire une pause dans les développements de l’intelligence générative. Pour rappel, Elon Musk a été co-investisseur de ChatGPT au sein de OpenAI, avant de prendre ses distances, suite à certaines dissensions et à l’investissement colossal de Microsoft (plusieurs milliards de dollars). Voici l’essentiel de sa réponse : « Oui ; nous devrions faire une pause ; il existe un réel danger pour l'intelligence supra artificielle numérique d'avoir des conséquences négatives (…), un résultat potentiellement catastrophique (…). Nous devons donc minimiser la probabilité que quelque chose se passe mal avec la supra intelligence digitale. Je suis donc en faveur de la réglementation de l'IA, parce que si l'IA est un risque pour le public, il doit y avoir un arbitre, et c'est le régulateur. Et donc ma forte recommandation est d'avoir une réglementation sur l'IA ».

Déjà, une entreprise sur deux

La Commission de l’UE n’a pas attendu cet avis pour mettre en chantier une réglementation - l’AI Act -, comme elle l’a fait, avec succès, pour la protection des données personnelles (RGPD), une réglementation largement adoptée dans le monde.

En effet, l’IA est déjà très utilisée. Selon une enquête d’IBM auprès de 3 000 managers dans le monde, une entreprise sur deux a déjà entrepris de déployer des applications d’IA générative. D’ici à deux ans, 30% des contenus marketing pourraient être générés par l’IA. Or, 25% seulement des sociétés ayant démarré des applications d’IA, ont mis en place un encadrement formel.

On comprend que cet élan subi et généralisé en faveur de l’IA générative suscite une certaine défiance. C’est pourquoi IBM prend soin de se démarquer avec WatsonX, son offre de services IA générative, en mettant en avant deux « différenciateurs » (face à ChatGPT) : sa plateforme d’IA pour les entreprises repose sur 16 peta-octets (soit 16 millions de giga-octets) de données de confiance (‘trusted’, c’est à dire « sourcées », filtrées, sans biais…) ; elle est fournie avec des outils de gouvernance (Watson code assistant), afin d’en encadrer et « modérer » les usages. Il s’agit de créer des modèles, qui sont testés et validés en plusieurs étapes. Un point clé est d’évaluer les performances, par exemple, la véracité et la précision des prédictions.

Le cadrage du Crédit Mutuel

Lors d’une conférence en marge du salon, le Crédit Mutuel, en présence de son président Nicolas Théry, a accepté de témoigner sur les bonnes pratiques qu’il a décidé de mettre en place en développant des solutions IA, potentiellement utilisées par ses 30 000 collaborateurs.

Les développements sont soumis à un ensemble de contrôles, pour des raisons d’éthique, de propriété intellectuelle et, bien sûr, de risques d’utiliser des données biaisées, dès le lancement des « entraînements » des modèles.

« Il faut garantir une mise en confiance », affirme une manager responsable du projet, invoquant le statut d’entreprise à mission de la banque, mais se référant aussi aux orientations de l’UE : elles imposent, entre autres mesures, la garantie d’une « supervision par l’humain » (« ce qui n’est pas encore le cas aux Etats-Unis, en Chine… »). « Pour garantir une IA de confiance, l’intégration dans les process métier doit être bien cadrée », insiste-t-elle. D’où l’alignement avec l’ « AI Act » européen (articles 9 à 15). Ici, la plateforme est unique ; et la transparence des informations mises à disposition est impérative.

Comité éthique

Un comité éthique a été mis en place, avec des rôles définis - des développeurs, data-analystes, des scientifiques, des communicants, etc.

« La direction doit se positionner, ce qui implique un peu de courage ». Il faut ainsi définir un cadre de référence, une éthique et ne pas abandonner les collaborateurs à leur libre arbitre. Donc, éviter la subjectivité pour apporter le plus d’objectivité possible. Et, sans cesse, reposer la question : qui a pris la décision ? Est-ce un humain ou un algorithme d’IA ? Pourquoi cette décision ?

Au sein des équipes, il faut veiller à un bon équilibre des compétences entre « hard skills » et « soft skills » - entre technologies et sciences humaines, inclure la dimension sociétale. « L’humain doit rester au centre », résume un expert.

Pierre MANGIN