Le problème difficile de l'identité : évaluation d'un clone LLM
DOI:
https://doi.org/10.52497/jitipee.v9i2.381Abstract
Dans le cadre de travaux explorant la faisabilité du clonage de personnalité, nous présentons la conception et l’évaluation d’un agent conversationnel baptisé pseudoLuc, destiné à reproduire la manière de s’exprimer, les positions et le style d’un individu réel (Luc). Après avoir recueilli un corpus de textes personnels et construit un manuel de personnalité (prompt contextuel) structurant les 23 dimensions jugées essentielles, nous avons intégré ces informations à un modèle de langage (LLM) agrémenté d’une composante de « Récupération-Génération Augmentée » (Retrieval-Augmented Generation : RAG) pour améliorer la factualité. Les résultats montrent qu’un prompt explicite de l’ordre de 10 000 à 15 000 tokens (unité de base utilisée pour découper et représenter des données) suffit à générer des réponses cohérentes, fidèles au style de la personne imitée et largement jugées indiscernables par des proches. Nous détaillons les performances sur plusieurs questionnaires (Proust, portrait chinois, “duels”) : pseudoLuc reproduit les choix de Luc ou s’en approche, avec un taux de similarité sémantique autour de 50 %. Au-delà, l’étude met en évidence la flexibilité du modèle : il est possible de modifier aisément des traits comme l’extraversion ou l’émotivité en ajustant le prompt. Sur le plan éthique, l’expérience illustre autant les promesses (conservation et diffusion du savoir personnel, assistants virtuels) que les risques (confection d’œuvres apocryphes, usurpation). Nous concluons sur les limites actuelles (biais de verbosité, absence de langage corporel) et les perspectives qu’ouvre la personnalisation explicite dans le domaine des grands modèles de langage.
References
D. J. Chalmers (1995) “Facing Up to the Problem of Consciousness”, J. of Consciousness Studies , Vol. 2, no. 3, pp. 200–219.
https://www.ingentaconnect.com/content/imp/jcs/1995/00000002/00000003/653
H. Putnam, (1975) “The Nature of Mental States,”, in Mind, Language and Reality (Philosophical Papers vol. 2), Cambridge University Press, pp. 429–440.
Blum, M. & Blum, L. A (2021) “Theoretical Computer Science Perspective on Consciousness”.
https://doi.org/10.48550/arXiv.2011.09850
J. M. Digman, (1990) “Personality Structure: Emergence of the Five-Factor Model”, Annual Review of Psychology , vol. 41, pp. 417–440.
https://doi.org/10.1146/annurev.ps.41.020190.002221
https://github.com/IBMPredictiveAnalytics/Watson_Personality_Insights consulté le 23 avril 2025
Zhou, J., Chen, Z., Wan, D., Wen, B., Song, Y., Yu, J., Huang, Y., Peng, L., Yang, J., Xiao, X., & others (2023). “CharacterGLM: Customizing Chinese Conversational AI Characters with Large Language Models”. arXiv preprint arXiv:2311.16832.
https://doi.org/10.48550/arXiv.2311.16832
Vijayalaxmi Methuku, & Praveen Kumar Myakala. (2025). “Digital Doppelgangers: Ethical and Societal Implications of Pre-Mortem AI Clones”.
https://doi.org/10.48550/arXiv.2502.21248
J. Li, M. Galley, C. Brockett, G. P. Spithourakis, J. Gao, and B. Dolan, (2016) “A Persona-Based Neural Conversation Model” Proc. 54th ACL , pp. 994–1003.
https://doi.org/10.48550/arXiv.1603.06155
S. Zhang, E. Dinan, J. Urbanek, A. Szlam, D. Kiela, and J. Weston, (2018) “Personalizing Dialogue Agents: I have a dog, do you have pets too?” Proc. 56th ACL , pp. 2204–2213.
https://doi.org/10.48550/arXiv.1801.07243
M. Sun, M. Zhang, G. Kreiman, (2025) “The other you in Black Mirror: first steps from chatbots to personalized LLM clones” Proc. ICLR 2025 (sous revue), arXiv:2510.xxxxx, 2024.
https://openreview.net/pdf?id=znGnmAM44K
Nori, Harsha, Yin Tat Lee, Sheng Zhang, Dean Carignan, Richard Edgar, Nicolo Fusi, Nicholas King, et al. « Can Generalist Foundation Models Outcompete Special-Purpose Tuning? Case Study in Medicine ». arXiv, 28 novembre 2023. https://doi.org/10.48550/arXiv.2311.16452.
R&D Mediation, et Luc E.Brunet. (2024) «DiogenialRAG (Revision 124f017)». HuggingFace.
https://doi.org/10.57967/hf/1758.
S Mao, X Wang, M Wang, Y Jiang, P Xie, F Huang, N Zhang, (2024) “Editing Personality for Large Language Models”, CCF International Conference on Natural Language Processing and Chinese Computing,
https://arxiv.org/pdf/2310.02168
Hu, B., Zhu, J., Pei, Y. et al. (2025) ”Exploring the potential of LLM to enhance teaching plans through teaching simulation” npj Sci. Learn. 10, 7
