FAQ : L'IA en bref

Au vu de la rapidité de l’évolution des développements de l’intelligence artificielle (IA) cette FAQ est susceptible de subir des modifications constantes.

ChatGPT, Large Language Models, IA : de quoi parle-t-on ?

Un Large Language Model (LLM) est un modèle d'apprentissage automatique entraîné sur une vaste quantité de données textuelles et capable de remplir un certain nombre de tâches telles que la traduction, la génération de texte, la synthèse de documents etc. Les Generative Pre-trained Transformers (GPT) sont une sous-catégorie de LLM qui utilise une architecture spécifique pour générer des textes créatifs. Ils sont pré-entraînés sur un grand corpus de texte avant d'être affinés pour des tâches particulières, par exemple comme agents conversationnels (chatbots).

Ces outils ont fait une percée remarquée, avec la mise à disposition du grand public de ChatGPT, logiciel développé par OpenAI et en mesure de générer des textes très convaincants sur une multitude de sujets en communiquant au moyen de langage naturel. De nombreux outils similaires à ChatGPT ont vu le jour depuis l’arrivée de celui-ci en novembre 2022. Ils permettent également de générer des images, de la musique, de la vidéo, etc.

Tous les grands acteurs commerciaux (Microsoft, Google, Facebook, etc.) proposent ou sont sur le point de proposer ce type d’outils. Bien que leurs coûts de mise en œuvre semblaient en restreindre le développement à des acteurs commerciaux disposant de moyens financiers importants, la recherche a avancé extrêmement rapidement sur ce front et de nombreuses alternatives open source sont apparues depuis.

Pour en savoir plus :
Interview de Guilllaume Guex

Langlais, P.C. (2023), ChatGPT : comment ça marche ? Sciences Communes, Open Edition : https://scoms.hypotheses.org/1059

Vidéo réalisée par les vidéastes web "Monsieur Phi" et "Science4all" : une ressource très didactique sur la compréhension de ChatGPT

Quelles futures directions peut-on anticiper dans le développement ce type d’outils ?

Il est très difficile de formuler des prédictions sur l’évolution de ces technologies, tant le paysage évolue rapidement. De nombreux agents semi-autonomes, basés sur ces Large Language model (LLM) voient le jour et permettent d’automatiser et de piloter des tâches complexes, en laissant la machine dériver et planifier automatiquement une succession de tâches nécessaires à l’atteinte d’un objectif fixé.

De plus, la simplification de l’entraînement de ces modèles permet de les spécialiser afin de les rendre plus performants dans des tâches spécifiques, en se basant sur des modèles open source pré-entrainés. Ceci élimine la barrière d’entrée liée aux coûts d’entraînement et permet une compétition qui ne limite plus les développements aux grands acteurs commerciaux.

Quelles que soient les futures percées dans ce domaine, il est cependant certain que ces technologies issues de l’intelligence artificielle vont avoir un impact important dans le futur, similaire à celui que des technologies de rupture similaires ont eu par le passé.

Peut-on utiliser l’IA à l’UNIL ?

Oui, à la condition que les principes en matière de protection des données et de confidentialité soient respectés en toute situation : les utilisateur·trice·s doivent éviter de diffuser à travers ce type d’outils des données personnelles, sensibles, ou soumises au secret de fonction (voir Protection des données et confidentialité). Cette FAQ fournit les règles que les collaborateur·trice·s, étudiant·e·s, enseignant·e·s et chercheur·e·s doivent respecter dans leur pratique.

De nombreux membres de l’UNIL utilisent déjà activement ChatGPT ou d’autres outils analogues dans leur quotidien. Ces outils permettent d’automatiser un nombre important de tâches, de faciliter l’accès à l’information, d’accélérer des tâches telles que la rédaction de textes, la traduction, la création de résumés ou la production de code informatique simple.

Ces mêmes fonctionnalités sont également introduites graduellement et de manière plus ou moins transparente et évidente dans les logiciels utilisés au quotidien, qu’ils soient commerciaux ou non. Ainsi les systèmes d’exploitation, les outils rédactionnels et d’analyse, les assistants, les outils de planification, etc. sont de plus en plus nourris de ces technologies, afin d’améliorer l’expérience des utilisateur·trice·s.

Il est raisonnable de penser qu’avec le temps, cette tendance continuera à se renforcer et que le recours – direct ou indirect – à ces outils ne fera qu’augmenter.

Les membres de la communauté désirant utiliser des outils d’IA (y compris le développement interne d’applications IA) peuvent le faire, pour autant qu’ils respectent les principes de base évoqués dans cette FAQ, en utilisant les outils à disposition gratuitement ou en souscrivant, si besoin, à des abonnements individuels. Le Centre informatique maintient une veille active sur l’utilisation faite de ces outils à l’échelle de l’institution et peut être sollicité pour mettre en place des solutions plus larges sur demande explicite d’une entité (faculté, service, etc.).

Quels usages peut-on faire de l’IA à l’UNIL ?

Outre ses applications pour la recherche et l'enseignement, l'intelligence artificielle comprend un large éventail d'outils et de techniques qui peuvent être employés pour résoudre des problèmes courants et apporter des améliorations significatives dans la gestion des ressources et des processus. Voici quelques exemples.

  • Des agents conversationnels, intégrés à différentes pages web, conçus pour répondre aux questions élémentaires des utilisateur·trice·s en s'appuyant exclusivement sur l’ensemble des documents publics fournis. Un autre type d'agent conversationnel aurait pour rôle de rediriger l'utilisateur·trice vers la bonne personne de contact selon sa question.
  • Pour les expériences nécessitant l'utilisation d'équipements partagés, il est souvent nécessaire de réserver du temps d’utilisation de ces instruments. L’IA, en analysant les habitudes d’utilisation et en tenant compte des projets de recherche en cours, serait en mesure d’optimiser la planification et garantir un accès équitable à ces instruments.
  • L’IA peut fournir des outils pour répondre aux questions fréquentes des chercheur·e·s, en s'appuyant sur des données de sources fiables telles que les sites du FNS ou d’Euresearch dédiés au financement de la recherche. Dans une perspective plus ambitieuse, l'IA s’avérerait efficace pour la révision des propositions de recherche, offrant une perspective d'analyse rapide et précise pour les projets soumis.
  • L’IA peut aider à développer des systèmes informatiques, simplifiant la tâche depuis la spécification jusqu'à la programmation.
  • Lorsqu'il s'agit de préparer des correspondances ou des documents officiels, l'IA peut suggérer des formats et contenus adaptés, assurant ainsi une cohérence au sein de l’ensemble des services.
  • Pour les tâches régulières et récurrentes, l'automatisation par l'IA peut offrir un potentiel de gain de temps considérable.
  • Pour le suivi de projets majeurs ou de contrats institutionnels, l'IA peut se révéler un outil indispensable pour informer les parties concernées des développements clés, tels que les appels d'offres.
  • Gestion des stocks : dans les laboratoires, la gestion des consommables tels que les solutions chimiques, les milieux de culture et autres fournitures de laboratoire est essentielle. Il existe de nombreux logiciels IA pour surveiller les stocks de matériel de laboratoire et suggérer automatiquement des réapprovisionnements. Pour les services, l’IA a la capacité par exemple d’analyser les tendances d’utilisation du papier, des cartouches d’encre et d'autres fournitures et d’optimiser le réapprovisionnement.
  • Les réservations de salles de réunion, de conférence et d’espaces de travail collaboratifs peuvent être également gérées efficacement par des systèmes IA. En analysant les données, ils peuvent aider à créer automatiquement des plannings en fonction des préférences et des besoins des différentes équipes, optimisant ainsi l'utilisation des espaces.
  • En matière de sécurité, que ce soit dans les laboratoires ou les services administratifs, l'IA peut intégrer des systèmes de surveillance et de capteurs, elle est en mesure d’identifier des situations potentiellement dangereuses, telles que l'utilisation inappropriée de substances chimiques dans les laboratoires, ou détecter des accès non autorisés aux bureaux et aux archives.
Quels sont les risques à utiliser des outils d’IA et quelles précautions adopter ?

Les outils d’IA, des boîtes noires ?

Oui, ChatGPT, Bing Chat et autres outils disponibles en libre-service sont à ce jour des boîtes noires. Si on peut présupposer ce que sont certains des éléments qui ont été utilisés pour les entraîner, leur fonctionnement et leur architecture ne sont pas publics. Il est dès lors impossible d’auditer leur fonctionnement ce qui contraint les utilisateur·trice·s à garder un regard critique sur leur utilisation. La plupart de ces outils ne fournissant pas un accès aux sources conduisant aux réponses qu’ils génèrent, les utilisateur·trice·s sont donc contraint·e·s de vérifier la fiabilité de la production de celles-ci.

Protection des données et confidentialité

L'utilisation des outils d'IA nécessite une très grande vigilance en matière de protection des données et de confidentialité. Dans le contexte de l’UNIL, les utilisateur·trice·s doivent éviter de diffuser à travers ce type d’outils des données personnelles, sensibles, ou soumises au secret de fonction. Il s’agit ici d’appliquer le même jugement et regard critique que lors d’utilisation d’outils internet, et de garder à l’esprit que toute information mise à disposition sur un site web peut faire l’objet d’une collecte dont le but ultime est très éloigné de ce qu’on peut en penser. Une vigilance particulière est de mise avec l’utilisation de ces outils dont la facilité d’interaction tend à faire oublier à l’utilisateur·trice qu’il·elle est face aux mêmes problématiques rencontrées lorsqu’il·elle utilise un moteur de recherche de type Google (cf. Protection et confidentialité des données).

Biais, hallucinations et informations erronées

Ces modèles, formés sur des données Internet vastes et diverses, reproduisent des biais sociétaux présents dans ces données. En outre, ils peuvent générer des "hallucinations" et fournir des informations qui semblent parfaitement plausibles mais qui sont en fait inexactes ou n'existent pas dans les données d'entraînement. Parfois, ils peuvent également fournir des informations erronées en raison de limitations de leur compréhension ou du contexte dans lequel ils opèrent. Il est crucial pour les utilisateur·trice·s de comprendre ces limites.

FAQ IA

Partagez: