Les modèles "Latent Semantic Analysis" (LSA ; Landauer et Dumais, 1997) et "Hyperspace Analog to Language" (HAL ; Lund et Burgess, 1996) peuvent être qualifiés d’abstractifs (Tiberghien, 1997) car ils modélisent le résultat d’une généralisation sémantique sur un ensemble d’épisodes d’apprentissage. Ces modèles analysent statistiquement la distribution de termes dans de larges corpus textuels pour élaborer un espace sémantique dans lequel chaque terme est représenté par un vecteur. L’objectif de cet article est de décrire ces deux modèles en les comparant. Nous montrons que ces modèles sont capables de prédire des résultats d’amorçage sémantique et qu’ils peuvent être couplés à des modèles de compréhension tels que Construction-Intégration (Kintsch, 1988) pour simuler l’accès à la signification, la prédication et la construction d’une représentation mentale cohérente d’un texte.