Orateur(s)
Damien Ernst Professeur Ordinaire (Faculté des Sciences Appliquées, Département d'Électricité, Électronique et Informatique, ULiège)
Lize Pirenne Doctorante (Faculté des Sciences Appliquées, Département d'Électricité, Électronique et Informatique, ULiège)
François Collienne BTM & AI Head of Guild (NRB)

La révolution de l’IA générative : exemples concrets et perspectives

    Résumé

    Avant toute chose, François Collienne, responsable de l’offre de service IA chez NRB, a rappelé le principe de base sur lequel repose leurs services : donner un accès sécurisé et à tout le monde ! 
    Pour cette raison, NRB a notamment développé sa propre plateforme d’IA souveraine, SophIA. 

    Il a ensuite partagé 3 cas d’usage précis permettant d’illustrer différentes applications, les objectifs recherchés et les gains que l’on peut atteindre en recourant à une IA générative (LLM) :

    1er exemple : l’extraction d’informations à partir de données bien structurées.
    Cet exemple repose sur des rapports de santé dans le contexte d’assurance maladie invalidité. En effet, pour indemniser les patients, les assureurs doivent extraire des informations dans des rapports très verbeux du médecin. 
    Avec pour objectifs principaux d’accélérer le traitement des rapports fournis par les médecins et d’identifier plus rapidement des données importantes, les avantages sont effectivement un gain de temps mais aussi de qualité et une uniformisation de l’analyse.

    2ème cas : la création de bases de connaissance.
    Cet exemple repose sur une agence media qui souhaite exploiter une grosse base d’articles avec le développement d'un outil de recherche de contenu basé sur l'intelligence artificielle pour aider les utilisateurs (dans ce cas, des journalistes) à trouver des réponses à des questions posées. 
    La recherche hybride (combinaison de recherche exacte et sémantique via analyse du prompt) permet d’atteindre des résultats ultra qualitatifs en un temps record. 

    3ème cas :  la rédaction (de rapports).
    Avec pour objectif d’uniformiser le ton et la manière d’écrire de tous les agents en gagnant du temps, le recours à l’IA permet aussi une plus grande personnalisation des courriers rédigés. 

    François Collienne a mis en évidence que dans ces différents cas d’usage, c’est toujours bien un employé au final qui décide.  Il qualifie ainsi l’IA d’exosquelette. Les résultats restent supervisés par l’humain.

    MAIS aujourd’hui le marché évolue vers de plus en plus d’autonomie de l’IA (sans plus d’intervention humaine).

    Il a alors axé sa présentation sur des éléments à mettre en place afin d’avoir confiance dans ces usages et sur les points d’attention à avoir, avant de déployer une IA. 

    Trois familles de risques guettent en effet l’usager : le risque règlementaire, le risque réputationnel, le risque opérationnel.

    Ainsi, il a attiré notre attention sur l’importance du testing qui est, selon lui, le facteur clé du succès d’un projet IA. 

    Pour cela, il faut impliquer les agents le plus rapidement possible. Notons que l’IA est testée par l’IA ; ce qui est quand même une particularité. L'automatisation permet de multiplier les itérations rapidement ! Sans ces métriques, il ne peut y avoir de confiance.  

    Qu’en est-il du contrôle, ou, autrement dit, comment s’assurer que ces réponses sont correctes ? Pour cela, il existe des gardes a priori et des évaluateurs a posteriori. 

    Enfin, notre orateur a évoqué la problématique de la cybersécurité et des coûts engendrés par ces développements.

    Il faut évidemment faire attention lorsqu’on déploie une IA car celle-ci amène de nouvelles surfaces d’attaque. Si on accède aux données source de l’IA , on peut lui faire faire n’importe quoi. Des techniques existent pour s’en protéger. 

    Pour rappel, un cadre légal est en place, qu’il faut apprivoiser… L’IA Act est entré en vigueur en août 2024 avec identification de risque inacceptable, élevé, limité ou minime (voir notre conférence du 24/04/24).
    L’IA a un coût, mais doit rester un choix. Il faut comprendre que derrière la question du coût se cache le modèle choisi. Il s’agit que celui-ci soit adéquat et approprié par rapport aux tâches. On observe aujourd’hui une tendance à la baisse des coûts par token. C’est ainsi beaucoup plus rentable de développer une IA générative aujourd’hui. 

    Et de conclure, de façon générale, par l’importance d’utiliser l’IA là où elle est vraiment utile et là où elle a vraiment une plus-value. 

    L’IA devenant de plus en plus autonome dans nos processus, nos informaticiens deviendraient-ils les RH des IA ?

    En tout cas, notre seconde intervenante, Lize Pirenne, Doctorante en Faculté des Sciences Appliquées, Département d'Électricité, Électronique et Informatique, de l’ULiège s’est révélée être une vraie psychologue des LLM, parvenant à rendre compte de leur comportement. Alors que les évolutions sont extrêmement rapides, Lize nous a détaillé comment fonctionnent ces formes d'intelligence artificielle, conçues pour comprendre et générer du langage naturel, c'est-à-dire similaire au langage parlé par les humains. L’exercice n’était pas facile, mais elle est parvenue à nous expliquer, elle aussi, dans un langage le plus accessible possible, comment le LLM repose sur la prédiction « intelligente ». 

    Après ce décryptage, Lize a attiré elle aussi notre attention sur le véritable business déployé autour de l’IA (par les providers) et sur les bons réflexes à avoir pour l’utiliser à bon escient et obtenir de meilleurs résultats.  Elle a également expliqué comment sont entrainées les IA pour atteindre un QI toujours plus élevé et renforcer leur adaptation. L’oratrice a clôturé son intervention en présentant ses propres questions de recherche.
     

    Les Large Language Models (LLM) révolutionnent actuellement de nombreux secteurs de nos sociétés. Cette forme d'intelligence artificielle a été conçue pour comprendre et générer du langage naturel, c'est-à-dire similaire au langage parlé par les humains, transformant ainsi nos interactions avec la technologie en les rendant plus naturelles et accessibles. ChatGPT fonctionne sur cette base, par exemple.
     

    Pour quelles applications pratiques en entreprise peut-on faire appel aux LLM et qu'est-ce que cela implique concrètement ? Quels sont les points d'attention ?

    Lors de cette rencontre-conférence, des cas d’usage précis, traités au sein de la société informatique NRB, seront présentés. Parmi ceux-ci, on peut mentionner l’interaction en langage naturel avec des bases de données, le déploiement d'agents conversationnels dans le cadre de l’analyse de documents par des gestionnaires d’assurance, ou encore l’avènement de la voix comme canal d'interactions avec les clients (chatbots).

    Ces différentes applications soulèvent également des questions de recherche plus fondamentales. Certaines seront abordées, comme par exemple celles liées aux aspects de fiabilité (trustworthiness) des LLM. Finalement, la conférence traitera aussi de l’IA souveraine (contrôle de l'IA par un gouvernement ou une organisation) qui, dans un contexte géopolitique complexe, doit être prise très au sérieux.