Solutions
&
techno

IAG : la prudence est indispensable

Par Bertrand Lemaire | Le | Data

Le 27 septembre 2023, le CPI-B2B (Club de la Presse Informatique B2B) s’est réuni autour du thème «  l’IA générative, nouveau concept marketing ou réalité technologique ? ».

Le CPI-B2B s’est réuni le 27 septembre 2023 sur le sujet de l’IA. - © Républik IT / B.L.
Le CPI-B2B s’est réuni le 27 septembre 2023 sur le sujet de l’IA. - © Républik IT / B.L.

L’intelligence artificielle (IA) est née avec l’informatique. Mais l’intelligence artificielle générative (IAG) est nettement plus récente comme l’ont rappelé les participants à la réunion du 27 septembre 2023 du CPI-B2B (Club de la Presse Informatique B2B). Cette réunion était sur le thème « l’IA générative, nouveau concept marketing ou réalité technologique ? ». On peut en effet considérer que l’IAG est réellement née avec la publication d’un article de recherche en 2017 par des chercheurs de Google et de l’Université de Toronto au sujet des algorithmes baptisés « Transformers ». Dans le domaine du NLP (Natural language processing, traitement du langage naturel), ces algorithmes permettent, au sein de réseaux de neurones, de traiter la proximité des mots. Cette proximité est stockée dans des bases de données dites vectorielles également utilisées dans les calculs d’itinéraires.

Ce type d’algorithme va, par exemple, permettre de prédire le mot suivant lorsque l’on tape une phrase. En aucun cas le sens du mot n’est en tant que tel un paramètre. Par contre, sa proximité lexicale avec d’autres mots vont permettre de les associer. Certains algorithmes permettent ainsi de réaliser une analyse d’intention qui va permettre de diriger, lors d’une interrogation par chatbot, vers la bonne page de la documentation ou vers le bon interlocuteur humain. Quand un utilisateur rédige un prompt, c’est à dire une description de ce qu’il souhaite obtenir de la part d’une IAG, l’algorithme va distinguer les différents éléments et les rapprocher de représentations ou de concepts voisins. L’IAG permet également de générer des résumés, des réponses en fonction de réponses-types, etc.

La qualité des données, une vraie problématique

L’IAG se base donc sur un corpus préalable. Chaque éditeur créé le sien. Des initiatives existent pour créer des corpus partagés voire open-source, notamment dans des secteurs professionnels pointus. Mais la qualité, la complétude et la sécurité de ce corpus sont au coeur de la fiabilité des réponses apportées par l’IAG. En effet, l’IAG apportera quoiqu’il arrive une réponse. Mais cette réponse peut contenir des « hallucinations » : les algorithmes ont tendance à boucher les trous du corpus avec ce qu’ils trouvent. L’usage d’un corpus dédié à l’usage peut donc être pertinent.

Parmi les usages intéressant les DSI, l’écriture de nouveau code ou la réécriture de code Legacy se développent. Mais ce code peut être de mauvaise qualité. D’une manière générale, les réponses de l’IAG ne doivent pas être considérées comme la vérité. Lorsqu’un agent en centre de contact utilise une IAG, cela lui fait gagner du temps, simplifie leur travail, évite les tâches répétitives mais ne supprime pas son rôle. Pour assurer l’acceptabilité de l’IAG, il convient d’ailleurs de bien informer les utilisateurs sur ce point.

Des risques non-négligeables

La réponse apportée par une IAG est soumise à de nombreux risques. Il peut y avoir de nombreux biais entraînant un risque éthique (propos racistes…). La véracité peut être douteuse et il convient donc d’installer des mécanismes de contrôle factuel. Le recours à l’IAG doit donc être une phase dans une chaîne de traitement, pas un process isolé et autonome. Qu’il s’agisse de générer une réponse, un résumé, une traduction… l’IAG doit toujours être maintenue sous le contrôle des humains.

Enfin, il existe un risque technique voire environnemental. En effet, l’usage d’une IA et plus encore d’une IAG suppose une grosse consommation de ressources de calculs. Le goulot d’étranglement peut donc résider dans un manque de GPU, type de processeurs particulièrement demandés et souvent en rupture. Plus le modèle sera sophistiqué, plus la consommation de ressources de calculs sera grande. Et qui dit ressources de calculs implique aussi ressources énergétiques. La sobriété numérique est donc peu compatible avec l’IAG.


Sur la photo

De gauche à droite :

- Gillian Gandon-Chénard, Senior Marketing Manager & AI enthusiast chez HubSpot ;

- Jean-Pierre Giannetti, Vice-Président chez Zendesk France ;

- Sanida Tang, Solution Engineers Manager chez Cloudera France ;

- José Diz, animateur ;

- Nicolas Maillard, Area Vice President Field Engineering chez Databricks ;

- François Familiari, Sales Engineer Manager Europe du Sud chez Zoom ;

- Guillaume Gérard, Expert Generative AI chez Capgemini.