In lieu of an abstract, here is a brief excerpt of the content:

Reviewed by:
  • Penser le lexique-grammaire: perspectives actuelles ed. by Fryni Kakoyianni-Doa
  • Antonio Balvet
Penser le lexique-grammaire: perspectives actuelles. Sous la direction de Fryni Kakoyianni-Doa. (Colloques, congrès et conférences — sciences du langage, histoire de la langue et des dictionnaires, 9.) Paris: Honoré Champion, 2014. 576pp.

Avec Méthodes en syntaxe: régime des constructions complétives (Paris: Hermann, 1975), Maurice Gross et ses collaborateurs du Laboratoire d’automatique documentaire et linguistique (LADL) posaient les bases d’une ‘interlangue’ entre linguistique formelle, descriptive et appliquée: des ‘tables’ qui détaillent les propriétés syntaxiques et transformationnelles attestées des unités lexicales, dans la lignée des travaux de Zellig Harris. Dans un contexte scientifique majoritairement générativiste, Gross a su rallier à son programme de nombreux linguistes, en France et au-delà: proposer des descriptions fines du potentiel combinatoire des unités lexicales, tant pour les verbes que pour d’autres catégories (noms prédicatifs, adjectifs et adverbes notamment) en adoptant une logique de description suffisamment simple pour être adoptée par tous, tout en garantissant, à terme, l’exploitabilité de ces connaissances pour des analyses automatiques. Dans Penser le lexique-grammaire, Fryni Kakoyianni-Doa nous donne à voir toute la diversité des travaux présentés lors du trentième Colloque international sur le lexique-grammaire en 2011,à Nicosie, tant pour le français que pour des langues typologiquement aussi éloignées que l’irlandais, le malgache, le grec, le coréen ou encore le japonais ou le hongrois. La structuration de l’ouvrage reflète les lignes de force de la communauté du lexique-grammaire: à côté de travaux classiques, essentiellement descriptifs, traitant des constructions à verbes supports ou des questions de syntaxe et de discours, un volet est consacré aux applications du lexique-grammaire au Traitement automatique de langues (TAL). Nous choisissons ici de nous attacher plus particulièrement à ce dernier volet, qui traite de questions actuelles en TAL: la gestion des ressources et des connaissances linguistiques, l’amélioration des performances des analyseurs syntaxiques, l’exploitation des ressources lexicales pour l’extraction automatique d’information, ou encore les interactions entre descriptions syntaxiques formalisées et réseaux sémantiques. Ainsi, ‘Intégration des données d’un lexique syntaxique dans un analyseur syntaxique probabiliste’ (Anthony Sigogne, Matthieu Constant et Éric Laporte) et ‘Évaluation de lexiques syntaxiques par leur intégration dans l’analyseur syntaxique FRMG’ (Elsa Tolone, Éric de la Clergerie et Benoît Sagot) montrent que l’intégration de ressources lexicales à large couverture à des analyseurs syntaxiques apporte tout à la fois des gains de précision et de couverture des analyses automatiques, sur des corpus variés, de taille importante. De son côté, ‘Using Automatically Parsed Corpora to Discover Lexico-Grammatical Features’ (Gerold Schneider) met les analyseurs syntaxiques au service du linguiste, afin de découvrir automatiquement les propriétés distributionnelles des éléments lexicaux, fournissant à la fois un moyen de validation et une extension sans précédent du travail manuel ‘traditionnel’ de recensement des possibilités combinatoires des mots. Par des articles relativement courts traitant des thématiques variées, l’ouvrage offre un aperçu des recherches et surtout des réalisations concrètes liées au lexique-grammaire et, plus largement, aux travaux du LADL autour de la question des grammaires locales et de la formalisation des propriétés syntaxico-sémantiques des unités lexicales — un cadre fondé il y a plus de quarante ans, et qui montre qu’il a encore aujourd’hui un rôle à jouer à l’interface des courants formalistes et appliqués en linguistique. [End Page 138]

Antonio Balvet
Université Lille Nord de France
...

pdf

Share