IA générative : quelle stratégie pour en tirer les bénéfices (et en limiter les risques)

Les IA génératives sont riches de promesses de gain de productivité pour les entreprises, à condition de bien contrôler leurs usages et leurs travers possibles. Trois experts proposent des pistes de plan d’action avant d’utiliser ChatGPT ou d’autres services du marché.

L’Intelligence artificielle (IA) est le sujet phare de ce début d’année dans le monde de la technologie. ChatGPT a suscité un engouement considérable et ouvre des perspectives de cas d’usages très importants. Toutefois, son utilisation à grande échelle comporte des risques.

Les IA génératives peuvent être définies comme des algorithmes qui, sur la base d’un apprentissage se reposant sur de gigantesques corpus de données, deviennent capables d’en générer de nouvelles à la demande. Des modèles existent pour tous types de formats : textuel, vidéo, son, etc.

Actuellement, il existe de nombreux cas d’utilisation pour les IA génératives, avec des perspectives en constante expansion. Par exemple, COPILOT intégré à Office365 a été lancé, promettant de révolutionner les tâches quotidiennes comme la génération automatique de comptes-rendus de réunions ou la création de présentations PowerPoint à partir de notes de réunions. Des IA génératives telles que MidJourney peuvent générer des œuvres d’art ou des logos à partir de simples descriptions, démontrant les avantages que ce type d’IA pourrait apporter aux entreprises.

Cependant, des voix s’élèvent au regard de la question des risques et des enjeux de ces technologies, et des limites que les organisations doivent poser pour y faire face. Il est donc essentiel de se pencher dès maintenant sur les bonnes stratégies à adopter pour contrôler l’IA au sein de son organisation.

Enjeux formidables vs Risques d’une utilisation excessive et non encadrée

L’Intelligence artificielle peut avoir des impacts dans absolument tous les domaines d’une entreprise. En ce sens, les enjeux sont énormes : avoir une bonne maîtrise de l’IA peut grandement améliorer la productivité du monde professionnel.

Évidemment, ce potentiel n’est pas sans risque et il peut devenir dangereux de s’appuyer sur l’IA de manière démesurée et non cadrée.

Les modèles d’IA sont entraînés grâce à des données. Plus grande est la quantité de données utilisées pour entraîner un modèle, meilleure en sera sa qualité. Dans le même temps, le risque que des données soient erronées augmente.

Ainsi, les outils les plus connus d’IA générative comme ChatGPT utilisent la plus grande source d’information du monde : Internet. La qualité des données contenues dans tout Internet est très variable et les vraies informations y côtoient toute sorte de fake news : les IA entraînées sur ce type de corpus en sont, de fait, impactées. Ces modèles biaisés fournissent des recommandations hasardeuses pouvant conduire à des prises de décision douteuses, entraînant des pertes à tous les niveaux d’une entreprise : économiques, opportunités manquées, etc.

Pour prendre un exemple relativement connu, Amazon a utilisé un algorithme pour déterminer l’aptitude de candidats pour un poste. Pour cela, le groupe a utilisé les CV des employés d’Amazon pour entraîner l’IA. La majorité de ceux-ci étant des hommes, l’algorithme a retenu presque exclusivement des candidats masculins, sans tenir compte des compétences. Sans maîtrise des données utilisées, nous pouvons nous poser des questions sur le risque que représente la prise de décision stratégique en se basant sur l’IA.

D’autres interrogations se dessinent au niveau de la sécurité pour les entreprises. Il est possible de créer des outils pour générer certains contenus contenant des logiciels malveillants ou d’autres menaces de sécurité. Au-delà de cela, utiliser l’IA dans son entreprise peut impliquer de lui fournir certaines informations sensibles. Comment sait-on que nos données ne vont pas resservir pour entraîner le modèle d’entreprises concurrentes ou encore leur être vendues ?

Il y a encore énormément de zones d’ombre autour de la propriété des données et sur le point juridique. Plusieurs gros problèmes de sécurité se sont déjà produits : des employés d’une entreprise sud-coréenne ont par exemple involontairement généré une grosse fuite d’informations confidentielles en utilisant un chatbot. Mettre en place un cadre plus clair et contrôlé sera un des gros enjeux gouvernementaux au cours des prochaines années.

Il existe évidemment de multiples autres sujets à aborder qui posent question. L’utilisation de l’IA, et plus particulièrement de l’IA générative, dans les entreprises à l’échelle mondiale reste un cas d’usage assez récent et par conséquent assez flou. Énormément de questions se posent sur la perte de créativité possible, sur des changements de fond dans les nouvelles compétences de demain pour les employés et les employeurs ou encore sur des sujets environnementaux (notamment écologiques).

Le défi majeur pour les entreprises va être d’exploiter l’intelligence artificielle… de manière intelligente.

Si l’IA n’est pas correctement appliquée, elle peut exercer une mauvaise influence sur des décisions stratégiques. Il ne faut pas diaboliser l’IA non plus, mais au contraire la considérer comme un outil d’aide à la décision. Le but n’est pas de remplacer l’humain, mais d’améliorer sa productivité en lui fournissant un support sur de nombreux aspects de son travail.

L’utilisation de l’IA au sein des entreprises se pose comme un des enjeux majeurs de ces prochaines années. Et il donc est primordial d’établir une stratégie adaptée pour répondre à cet énorme défi.

Quelle stratégie adopter ?

Pour se prémunir des dangers évoqués plus haut, de la même manière que pour tant d’autres sujets sensibles, la mise en place d’une gouvernance dédiée à l’Intelligence artificielle est capitale.

L’IA étant capable du meilleur comme du pire, il est important de délimiter précisément le périmètre d’action de ces outils dans l’entreprise. Dans l’état actuel de la technologie, nous l’avons dit, garder une présence humaine dans les processus avec un rôle de validation et de supervision de l’IA est primordial.

L’exemple Amazon a été cité plus haut pour illustrer la nécessité de cadrer les tâches confiées à l’IA. Mais même lorsque leur usage est correctement borné et surveillé, encore faut-il choisir les bons outils.

ChatGPT est probablement le plus connu de son genre, ainsi que l’un des plus performants, mais sa version publique est également certainement l’une des moins respectueuses des données privées de ses utilisateurs : enregistrant toutes les conversations pour servir de données d’entraînement pour ses itérations suivantes. OpenAI ou Microsoft mettent à disposition des APIs privées & B2B payantes présentant nettement plus de garanties en termes de protection des données, jusqu’à la possibilité de demander l’absence totale d’enregistrement dans les serveurs du service.

En synthèse, pour une approche efficace de l’IA générative, il convient de faire preuve de discernement dans les tâches qu’on lui confie, sans jamais lui accorder une confiance aveugle, et en choisissant avec soin les services utilisés.

La difficulté réside dans l’obtention de cette expertise pour discerner les bonnes et les mauvaises pratiques. Pour ce faire, deux volets complémentaires s’offrent aux organisations : l’acculturation générale de l’ensemble des collaborateurs ainsi que le recours à des experts.

Un parallèle avec la sécurité informatique existe : il est possible d’avoir un seul Chief Security Officier et une cellule SOC (Security Operation Center), mais toute l’entreprise doit apprendre à se méfier des mails de phishing. Il faudra de la même manière éduquer sur le bon usage des outils, mais également anticiper les préjugés et prendre en compte les différentes appréhensions liées à l’introduction de l’IA comme outil de productivité.

Une nécessaire acculturation

Un plan d’acculturation à grande échelle doit passer notamment par la mise en avant de cas d’usages qui apportent de la valeur au métier. Cette logique de promotion va favoriser l’idéation et l’adoption autour de l’IA.

Les moyens sont nombreux pour mettre en œuvre une telle stratégie :

  • Articles
  • Vidéos
  • Formations
  • Conférences
  • Hackathons

L’aspect communautaire favorisera aussi l’accélération de la mise en œuvre de ce type de stratégie. Dans le but de garantir une adoption efficace et profitable de l’Intelligence artificielle, il est primordial que celle-ci soit mise en œuvre de manière globale et organique. Cette prise de conscience sera un accélérateur de cas d’usages d’IA, qui généreront plus de valeur pour le métier.

De grandes entreprises, telles que The Coca Cola Company, ont déjà emprunté ce chemin en s’associant à OpenAI afin de générer des textes et des images via ChatGPT pour renforcer leurs capacités marketing. En impliquant tous les acteurs de votre entreprise, l’IA deviendra alors un véritable levier de croissance et d’efficacité.

Les auteurs :

Victor LEVY DIT VEHEL est Expert IA/DATA chez Exakis Nelite (Groupe Magellan Partners). Aurélien ADNIN est Expert IA/Data, chez Magellan Consulting (Groupe Magellan Partners). Édouard STEVENINI est Manager Practice Data/IA, chez Magellan Consulting (Groupe Magellan Partners).

Pour approfondir sur Intelligence Artificielle et Data Science

Close