Introduction aux Large Language Models (LLM)
Les Large Language Models sont des algorithmes d’intelligence artificielle conçus pour exploiter des documents non structurés (corpus de textes). Ils permettent d’en extraire des informations utiles ou de générer de nouvelles informations à partir de cette base documentaires (par exemple : répondre à des questions, résumer un texte, traduire, etc.).
Représentation du corpus de documents sous forme de matrice
Dans ce contexte, les documents forment les observations statistiques considérées (équivalent aux « individus » en analyse de données) et leur ensemble forme un corpus (équivalent à une « population »). Dans certains cas, les documents sont découpés en paragraphes qui forment les observations statistiques. Les mots ou les chaînes de caractères extraîts des documents jouent le rôle des variables.
Pour analyser un corpus, chaque document est représenté sous forme d’un vecteur et le corpus entier sous forme d’une matrice, où les lignes correspondent aux et les colonnes représentent les mots ou les chaînes de caractères.
Caractéristiques des matrices
Les matrices en résultantes sont potentiellement d’une très grande dimension (nombre de mots/chaînes de caractères utilisés dans le corpus en colonnes), et en même temps creuses (les mots/chaînes de caractères employés dans le corpus peuvent être utilisés uniquement dans quelques documents du corpus).
Étapes de prétraitement
Après l’importation d’un corpus de textes, la première étape consiste en une phase de prétraitement visant à réduire la dimension de cette matrice et à en améliorer la pertinence. Cela inclut : - nettoyer les données : supprimer la ponctuation, mots usuels n’apportant pas d’information, etc.) - lemmatiser ou raciniser : simplifier des mots en gardant que leur racine commune (par example : garder exclusivement « finan » pour les mots « financer », « financier », « financement », …), - utiliser des techniques comme l’analyse en composantes principales (ACP) ou Term Frequency-Inverse Document Frequency (TF-IDF)
Analyse et applications
L’utilisation d’outils de machine learning sur la matrice de dimension plus réduite ainsi obtenue permet - de comparer les documents pour analyser la similarité ou la distance entre eux - d’identifier des thèmes abordés dans le corpus - de classer et catégoriser les documents en fonction de thématiques - de filtrer les contenus ou de produire des statistiques pour comprendre la répartition des sujets dans l’ensemble des textes.
Ainsi, les Large Language Models nous permettent de traiter, d’interpréter et de valoriser les données textuelles de manière automatisée et à grande échelle.