Evaluating and Improving the Reasoning Abilities of Language Models - Département Informatique et Réseaux
Thèse Année : 2024

Evaluating and Improving the Reasoning Abilities of Language Models

Evaluation et amélioration des capacités de raisonnement des Modèles de Langage

Résumé

This thesis focuses on evaluating and improving the reasoning abilities of Smaller Language Models (SLMs) and Large Language Models (LLMs). It explores SLMs’ performance on complex tasks and their limitations with simpler ones. This thesis introduces LogiTorch, a Python library that facilitates the training of models on various reasoning tasks with minimal coding.It also presents TINA, a negated data augmentation technique that improves SLMs’ robustness to Negation in textual entailment tasks. Further, this thesis explores LLMs’ capabilities through MAFALDA, a new benchmark for identifying and classifying reasoning fallacies, proposing a new annotation scheme and evaluation metric that considers subjectivity in reasoning. The findings indicate that humans outperform SLMs and LLMs in this reasoning task. We propose several research directions that merit further investigation, such as investigating Neuro-symbolic AI and improving the reasoning abilities of low-resource LLMs.
Cette thèse examine les capacités de raisonnement des Petits Modèles de Langage (SLMs) et Grands Modèles de Langage (LLMs) et expose leurs limites. Elle présente LogiTorch, une bibliothèque Python facilitant l’entraînement de modèles sur diverses tâches de raisonnement. La thèse inclut également TINA, une technique d’augmentation de données qui renforce la robustesse des SLMs face à la négation dans les tâches d’implication textuelle. De plus, la thèse explore les capacités des LLMs avec MAFALDA, un nouveau benchmark pour la classification des sophismes, intégrant une métrique d’évaluation quiconsidère la subjectivité. Les résultats montrent que les humains surpassent les modèles dans cette tâche de raisonnement. Nous proposons plusieurs directions de recherche qui méritent une investigation plus approfondie, telles que l’exploration de l’IA Neurosymbolique et l’amélioration des capacités de raisonnement des LLMs à faibles ressources.
Fichier principal
Vignette du fichier
132654_HELWE_2024_archivage.pdf (2.23 Mo) Télécharger le fichier
Origine Version validée par le jury (STAR)

Dates et versions

tel-04654171 , version 1 (19-07-2024)

Identifiants

  • HAL Id : tel-04654171 , version 1

Citer

Chadi Helwe. Evaluating and Improving the Reasoning Abilities of Language Models. Computer Science [cs]. Institut Polytechnique de Paris, 2024. English. ⟨NNT : 2024IPPAT021⟩. ⟨tel-04654171⟩
776 Consultations
214 Téléchargements

Partager

More