Une multitude d'études se penchent aujourd'hui sur les atouts des corpus pour compléter les informations lacunaires données par les dictionnaires (Loock 2016). Nous ferons état d'une expérience menée auprès de deux groupes d'étudiants en lexicographie, issus de formations distinctes en France et en Italie: le Master LTTAC (Lexicographie, Terminographie, Traitement Automatique des Corpus) de l'Université de Lille et le Master international LSC (Language, Society & Communication) de l'Université de Bologne. Le cours proposé à ces deux formations a pour objectif de fournir les outils théoriques et pratiques fondamentaux pour l'analyse linguistique en français menée à l'aide de supports informatiques. Cette approche appliquée à l'étude de la linguistique est sous-tendue par une réflexion sur la formation des "nouvelles" compétences requises dans les métiers de la communication multilingue (rédacteur, traducteur, lexicographe, terminologue, linguiste computationnel, etc.)
Les étudiants, à qui nous avons demandé de tester des ressources lexicographiques traditionnelles (dictionnaires de langue, bilingues, terminologiques) et des technologies pour la traduction (corpus électroniques, traducteurs automatiques, concordanciers) pour traduire des textes français sur l'art, n'ont pas jugé l'exploration des corpus comme indispensable au regard des informations déjà repérées dans les dictionnaires. Ces corpus, sans doute utiles pour vérifier la fréquence d'emploi des termes spécialisés et pour détecter les collocations les plus récurrentes et pertinentes, ne sont pas toujours ciblés pour la tâche accomplie. Les étudiants interrogés ont relevé que les dictionnaires contiennent sûrement moins de contextualisations que les corpus, mais que celles qui sont présentes ont été triées par des experts, les lexicographes, possédant des compétences pour réaliser une analyse linguistique fine, alors que les données de corpus sous forme brute s'avèrent indigestes et difficiles à interpréter.
En appuyant nos observations sur les résultats de cette enquête et sur notre expérience de recherche en lexicographie et en linguistique de corpus, nous nous prononcerons en faveur des dictionnaires pour défendre leur valeur ajoutée à un moment de l'histoire où leur survie est mise en danger. Depuis la naissance de la lexicographie, la tâche du lexicographe, un spécialiste de la langue, est de condenser et d'agencer dans une entrée de dictionnaire les informations linguistiques nécessaires pour guider l'utilisateur dans la compréhension d'une unité lexicale sous toutes ses facettes. Aujourd'hui cette analyse fine préalable de données linguistiques est léguée à l'utilisateur du concordancier qui n'est pas toujours préparé ni formé convenablement pour accomplir cette tâche complexe. Autrement dit, en demandant à l'utilisateur d'analyser toutes les concordances, au lieu d'accélérer et de faciliter sa tâche, on lui donne du travail supplémentaire qui était auparavant effectué par le lexicographe professionnel. Si l'on pense aux progrès accomplis dans l'histoire de la lexicographie française (du Littré au Petit Robert en passant par Hatzfeld et Darmester), peut-on soutenir qu'une véritable (r)évolution en lexicographie s'est affirmée à la suite de l'avènement de la linguistique informatique ? Nous montrerons que l'analyse fine donnée par des dictionnaires, de bons dictionnaires bien entendu, ne pourra jamais rivaliser avec des corpus et que ces derniers ne pourront pas mettre en question la survie de ces mêmes dictionnaires.