Confiance dans les LLM ?

Il ne faut pas toujours croire les LLM (ChatGPT et équivalents). Cela peut sembler une évidence aujourd’hui : tout comme un professeur vous invitait à ne pas croire tout ce que vous trouvez sur internet, il en va de même pour les LLM.

Les LLM sont généralement plus fiables qu’un article web isolé, mais cette fiabilité n’est pas absolue. La force du LLM est de compresser les données qu’il a trouvées sur internet : il récupère plusieurs sources de la même information et les combine pour extraire le plus probable. Il s’aligne du côté de la majorité des sources.

Cette méthode permet de condenser efficacement l’information. En effet, les réponses d’un LLM reflètent généralement ce que la majorité des sources en ligne avancent et la plupart du temps, c’est une bonne chose. S’appuyer sur une pluralité de sources est souvent plus fiable que de se fier à un article isolé, surtout s’il est non sourcé ou douteux.

Cependant, dans des domaines où des acteurs influents saturent internet de contenus biaisés (marketing, lobbys), cette majorité ne reflète plus la réalité, mais simplement l’influence. Par exemple, si 90 % des pages web vantent les mérites d’un complément alimentaire 'miraculeux', le LLM reproduira cette affirmation, même si les 10 % restants, des études indépendantes et rigoureuses, la contredisent.

L’opinion de la foule est l’indice du pire. Sénèque

Comme évoqué précédemment, les réponses d’un LLM reflètent avant tout la majorité des informations disponibles en ligne. Or, les données utilisées pour leur entraînement sont rarement filtrées ou validées : leur pertinence ou leur rigueur scientifique n’influent pas sur leur poids dans l’apprentissage du modèle.

Si j’ai 10 informations fausses ou non prouvées provenant d’un marketing poussé et une seule information réelle provenant d’un article scientifique rigoureux, alors le LLM se rangera du côté de l’information venant du marketing.

Pour moi, si je n’en crois pas un, je n’en crois pas cent fois un. Montaigne

Le marketing inonde logiquement internet pour maximiser les chances qu’une recherche naïve aboutisse sur des articles promouvant ses produits ou ses idées. Avec les LLM, cette stratégie gagne en efficacité : plus un message est répété en ligne, plus il a de chances d’être repris comme une vérité par les modèles, même s’il est biaisé ou infondé.

C’est une chose difficile que de maintenir son jugement contre les opinions communes. Montaigne

Ces modèles ne sont pas conçus pour distinguer le vrai du faux, mais pour reproduire ce qui domine statistiquement dans leurs données. Ainsi, une affirmation fréquente, même biaisée, aura plus de chances d’être reprise qu’une information exacte mais marginale. Cela explique pourquoi les LLM, malgré leur utilité, ne sont pas infaillibles, surtout dans des domaines où les conflits d’intérêts sont fréquents.

Théoriquement, réduire ce biais serait possible en accordant plus de poids aux sources rigoureuses lors de l’entraînement. Par exemple, en privilégiant les études issues de Google Scholar plutôt que les contenus web non vérifiés. C’est une idée, mais les articles scientifiques sont loin d’avoir tous la même rigueur. Ils sont généralement plus rigoureux, mais leur qualité varie : certains, financés par des lobbies, peuvent véhiculer des biais ou des fausses informations. On sera donc alors mieux loti qu'en l'absence d’équilibrage, mais le problème sera encore présent.

Définir a priori quelles sources sont 'rigoureuses' est un travail colossal et ce filtrage, humain ou automatisé, introduirait lui-même des biais.

Il convient donc d’avoir une vigilance particulière sur les informations présentant des conflits d’intérêts ou un marketing poussé. En matière de recommandations alimentaires, les enjeux financiers sont colossaux : le marketing et les lobbys sont très puissants. Croire ce que raconte un LLM sur l’alimentation comme une 'parole divine’, c’est être le dindon de la farce.

Quand les sources contradictoires sont équilibrées, un LLM peut donner des réponses différentes à une même question : son résultat n’est pas déterministe, mais statistique. Une certitude affichée peut n’être que le fruit d’un pile ou face.

Ces limites concernent surtout les réponses naïves des LLM. Lorsqu’on est capable de pousser le LLM à 'réfléchir' en lui demandant de justifier ses réponses ou de citer ses sources, on peut réussir à avoir des informations plus nuancées et même parfois à le faire changer d’avis.

Avant d’accepter sans réserve une réponse de LLM, il est crucial d’évaluer les conflits d’intérêts potentiels liés au sujet. Une approche critique, comme demander des sources ou croiser les informations, reste indispensable.