Au vu de la rapidité de l’évolution des développements de l’intelligence artificielle (IA) cette FAQ est susceptible de subir des modifications constantes.
Au vu de la rapidité de l’évolution des développements de l’intelligence artificielle (IA) cette FAQ est susceptible de subir des modifications constantes.
Un Large Language Model (LLM) est un modèle d'apprentissage automatique entraîné sur une vaste quantité de données textuelles et capable de remplir un certain nombre de tâches telles que la traduction, la génération de texte, la synthèse de documents etc. Les Generative Pre-trained Transformers (GPT) sont une sous-catégorie de LLM qui utilise une architecture spécifique pour générer des textes créatifs. Ils sont pré-entraînés sur un grand corpus de texte avant d'être affinés pour des tâches particulières, par exemple comme agents conversationnels (chatbots).
Ces outils ont fait une percée remarquée, avec la mise à disposition du grand public de ChatGPT, logiciel développé par OpenAI et en mesure de générer des textes très convaincants sur une multitude de sujets en communiquant au moyen de langage naturel. De nombreux outils similaires à ChatGPT ont vu le jour depuis l’arrivée de celui-ci en novembre 2022. Ils permettent également de générer des images, de la musique, de la vidéo, etc.
Tous les grands acteurs commerciaux (Microsoft, Google, Facebook, etc.) proposent ou sont sur le point de proposer ce type d’outils. Bien que leurs coûts de mise en œuvre semblaient en restreindre le développement à des acteurs commerciaux disposant de moyens financiers importants, la recherche a avancé extrêmement rapidement sur ce front et de nombreuses alternatives open source sont apparues depuis.
Pour en savoir plus :
Interview de Guilllaume Guex
Langlais, P.C. (2023), ChatGPT : comment ça marche ? Sciences Communes, Open Edition : https://scoms.hypotheses.org/1059
Vidéo réalisée par les vidéastes web "Monsieur Phi" et "Science4all" : une ressource très didactique sur la compréhension de ChatGPT
Il est très difficile de formuler des prédictions sur l’évolution de ces technologies, tant le paysage évolue rapidement. De nombreux agents semi-autonomes, basés sur ces Large Language model (LLM) voient le jour et permettent d’automatiser et de piloter des tâches complexes, en laissant la machine dériver et planifier automatiquement une succession de tâches nécessaires à l’atteinte d’un objectif fixé.
De plus, la simplification de l’entraînement de ces modèles permet de les spécialiser afin de les rendre plus performants dans des tâches spécifiques, en se basant sur des modèles open source pré-entrainés. Ceci élimine la barrière d’entrée liée aux coûts d’entraînement et permet une compétition qui ne limite plus les développements aux grands acteurs commerciaux.
Quelles que soient les futures percées dans ce domaine, il est cependant certain que ces technologies issues de l’intelligence artificielle vont avoir un impact important dans le futur, similaire à celui que des technologies de rupture similaires ont eu par le passé.
Oui, à la condition que les principes en matière de protection des données et de confidentialité soient respectés en toute situation : les utilisateur·trice·s doivent éviter de diffuser à travers ce type d’outils des données personnelles, sensibles, ou soumises au secret de fonction (voir Protection des données et confidentialité). Cette FAQ fournit les règles que les collaborateur·trice·s, étudiant·e·s, enseignant·e·s et chercheur·e·s doivent respecter dans leur pratique.
De nombreux membres de l’UNIL utilisent déjà activement ChatGPT ou d’autres outils analogues dans leur quotidien. Ces outils permettent d’automatiser un nombre important de tâches, de faciliter l’accès à l’information, d’accélérer des tâches telles que la rédaction de textes, la traduction, la création de résumés ou la production de code informatique simple.
Ces mêmes fonctionnalités sont également introduites graduellement et de manière plus ou moins transparente et évidente dans les logiciels utilisés au quotidien, qu’ils soient commerciaux ou non. Ainsi les systèmes d’exploitation, les outils rédactionnels et d’analyse, les assistants, les outils de planification, etc. sont de plus en plus nourris de ces technologies, afin d’améliorer l’expérience des utilisateur·trice·s.
Il est raisonnable de penser qu’avec le temps, cette tendance continuera à se renforcer et que le recours – direct ou indirect – à ces outils ne fera qu’augmenter.
Les membres de la communauté désirant utiliser des outils d’IA (y compris le développement interne d’applications IA) peuvent le faire, pour autant qu’ils respectent les principes de base évoqués dans cette FAQ, en utilisant les outils à disposition gratuitement ou en souscrivant, si besoin, à des abonnements individuels. Le Centre informatique maintient une veille active sur l’utilisation faite de ces outils à l’échelle de l’institution et peut être sollicité pour mettre en place des solutions plus larges sur demande explicite d’une entité (faculté, service, etc.).
Outre ses applications pour la recherche et l'enseignement, l'intelligence artificielle comprend un large éventail d'outils et de techniques qui peuvent être employés pour résoudre des problèmes courants et apporter des améliorations significatives dans la gestion des ressources et des processus. Voici quelques exemples.
Oui, ChatGPT, Bing Chat et autres outils disponibles en libre-service sont à ce jour des boîtes noires. Si on peut présupposer ce que sont certains des éléments qui ont été utilisés pour les entraîner, leur fonctionnement et leur architecture ne sont pas publics. Il est dès lors impossible d’auditer leur fonctionnement ce qui contraint les utilisateur·trice·s à garder un regard critique sur leur utilisation. La plupart de ces outils ne fournissant pas un accès aux sources conduisant aux réponses qu’ils génèrent, les utilisateur·trice·s sont donc contraint·e·s de vérifier la fiabilité de la production de celles-ci.
L'utilisation des outils d'IA nécessite une très grande vigilance en matière de protection des données et de confidentialité. Dans le contexte de l’UNIL, les utilisateur·trice·s doivent éviter de diffuser à travers ce type d’outils des données personnelles, sensibles, ou soumises au secret de fonction. Il s’agit ici d’appliquer le même jugement et regard critique que lors d’utilisation d’outils internet, et de garder à l’esprit que toute information mise à disposition sur un site web peut faire l’objet d’une collecte dont le but ultime est très éloigné de ce qu’on peut en penser. Une vigilance particulière est de mise avec l’utilisation de ces outils dont la facilité d’interaction tend à faire oublier à l’utilisateur·trice qu’il·elle est face aux mêmes problématiques rencontrées lorsqu’il·elle utilise un moteur de recherche de type Google (cf. Protection et confidentialité des données).
Ces modèles, formés sur des données Internet vastes et diverses, reproduisent des biais sociétaux présents dans ces données. En outre, ils peuvent générer des "hallucinations" et fournir des informations qui semblent parfaitement plausibles mais qui sont en fait inexactes ou n'existent pas dans les données d'entraînement. Parfois, ils peuvent également fournir des informations erronées en raison de limitations de leur compréhension ou du contexte dans lequel ils opèrent. Il est crucial pour les utilisateur·trice·s de comprendre ces limites.