Bulletin n° 14 - décembre 2015

 


Interpréter pour traduire, de Danica Seleskovitch et Marianne Lederer, nouvelle édition dans la collection Traductologiques, chez les Belles Lettres, 2015

Marianne Lederer


Le livre de Danica Seleskovitch et de Marianne Lederer "Interpréter pour traduire" est un des classiques fondateurs de la discipline traductologique. Il était épuisé depuis plusieurs années ; il faut donc se réjouir de sa réédition aux Éditions des Belles Lettres, dans la collection « Traductologiques ». À l'occasion de cette réédition, Marianne Lederer a donné une conférence le mercredi 10 décembre 2014 à l'Institut Catholique de Paris, dans le cadre de l'ISIT. Sous la présidence de Nathalie Gormezano, Directrice générale de l'ISIT ; cette conférence a été suivie d'un débat animé par Jean-Yves Masson et Jean-René Ladmiral, avec la participation d'un public important et de qualité. Marionne Lederer a bien voulu nous donner le texte qui lui a servi de base pour sa conférence et que nous publions ci-dessous.

Jean-René Ladmiral



C'est Danica SELESKOVITCH, qui nous a quittés en 2001 et dont il faut rappeler l'intelligence visionnaire qui, dans les années 1960, a jeté les fondements de la théorie interprétative qui sont repris dans Interpréter pour traduire. Elle a dans les années 1970 attiré autour d'elle des disciples dont je m'enorgueillie d'être la première.

Interpréter pour traduire est divisé en 3 chapitres : 1/ Qu'est-ce que traduire ; 2/ L'enseignement de l'interprétation, 3/ La traduction et le langage. Son contenu reflète les intérêts de ses auteurs : nous étions interprètes de conférence, la première partie traite donc du processus de la traduction tel que nous l'avons perçu à travers notre pratique professionnelle, puis nos recherches avec l'appui de disciplines extérieures, la psychologie génétique et la neuropsychologie. La deuxième partie est l'application de notre théorisation à la pédagogie de l'interprétation, qui dans les années 1980, en était encore à ses premiers balbutiements. Enfin, la troisième partie « la traduction et le langage », tire de nos études sur la traduction des conclusions sur le langage en général.

Danica Seleskovitch et moi, interprètes de conférence, étions toutes deux autodidactes en linguistique, et ce que nous lisions de Saussure, de Martinet, de Jakobson ou de Mounin ne correspondait pas à notre expérience professionnelle.

La théorie de la traduction présentée dans ce recueil d'articles s'est donc opposée, à l'époque de leur première parution, aux conceptions purement linguistiques de la traduction ; en effet, elle sortait le processus de la traduction du domaine de la langue pour le placer dans celui de la communication. Ce que nous avons écrit de 1970 à 1983 et qui est repris dans Interpréter pour traduire, découle directement, avant de s'appuyer sur les acquis d'autres disciplines, de notre pratique de l'interprétation, qui nous a fait mettre le traducteur au centre du processus de la traduction : ce n'était pas la langue qui nous intéressait, mais ce que nous transmettions à travers elle. Cela se reflète dans le titre de certains articles, tels que « Transcoder ou réexprimer », ou « Interpréter un discours n'est pas traduire une langue ».

Le principe fondamental dont s'inspirent les articles réunis ici est donc que le processus de la traduction s'apparente à celui de l'énonciation et de la compréhension d'une parole en communication unilingue. Le fait que l'interprète réexprime immédiatement dans une autre langue le vouloir dire des locuteurs permet d'observer en temps réel le processus de compréhension. Il est beaucoup plus difficile de le faire dans une seule et même langue vu l'évanescence de la chaine sonore. Rappelons que le courant interactionniste ou conversationnel n'a vu le jour aux États-Unis qu'au début des années 1980, et un peu plus tard seulement en France.

Nous avons constaté, d'abord sur notre propre pratique puis sur de nombreux enregistrements effectués en réunions internationales, que « l'opération traduisante comprend trois temps – compréhension du discours original, déverbalisation des unités de sens, expression de ces unités dans un nouveau discours » (Seleskovitch 1976, p. 118).

Le processus de la traduction se décompose donc en trois étapes, dont les deux premières se chevauchent :
- la compréhension : construction par l'interprète ou le traducteur du sens à transmettre ;
- la déverbalisation : disparition de l'enveloppe linguistique dès le sens compris (dans ses dimensions notionnelles et émotionnelles) ; le sens devient averbal. ;
- la reformulation : expression dans la langue d'arrivée par l'interprète ou le traducteur du sens déverbalisé, comme il serait exprimé en communication unilingue (des idées aux mots).

Interpréter pour traduire, c'est donc comprendre à travers les mots, puis exprimer un sens déverbalisé. Nous affirmons dans cet ouvrage, à l'aide de nombreux exemples authentiques, que le passage d'un texte à une pensée non verbale et de celle-ci à un autre texte est indépendant des langues ; il s'en suit que, pour nous, le processus de base est le même, quelles que soient les paires de langues et quels que soient les genres de textes. C'est là une position qui a choqué et qui probablement choque encore ceux pour qui la traduction reste une opération de contact de langues.

Voyons ce qui explique l'actualité de ces textes et qui justifie leur réédition.

Il n'est pas exagéré de dire que la Théorie Interprétative de la Traduction avancée dans les divers articles qui figurent dans cet ouvrage a été pionnière par rapport à la pragmatique, à la psychologie expérimentale et aux sciences cognitives, qui sont venues plus tard confirmer ce que certains ont longtemps considéré comme de simples intuitions subjectives de notre part, bien que nous nous appuyions à l'époque, en plus de notre expérience d'interprètes de conférence, sur la psychologie génétique de Jean Piaget et sur les observations cliniques du neuropsychologue Jacques Barbizet.

Nous allons voir que le processus de la compréhension traité dans la première partie du recueil a, depuis, fait l'objet de nombreux travaux, qui ont généralement confirmé nos observations :

Les traducteurs et les interprètes professionnels savaient d'expérience qu'en l'absence de contexte et sans ajouts à la langue seule de connaissances extralinguistiques, il était impossible de traduire. Nos études empiriques ont démontré, et ce, avant les psychologues et les psycholinguistes (parmi d'autres, W. Levelt et G. Flores d'Arcais 1978, T. Van Dijk et W.Kintch 1983), que la compréhension dépend autant sinon plus du contexte et du savoir préalable du récepteur que de ses connaissances linguistiques.

Nous avons établi avant P. Grice et U. Eco, D. Sperber et D. Wilson, la nécessaire coopération de l'auditeur à la compréhension du discours, ou celle du lecteur à la compréhension du texte. L'une des toutes premières constatations de Seleskovitch est que la langue ne peut livrer le sens que dans son interaction avec l'homme.

Nous avons à maintes reprises dans cet ouvrage insisté sur le fait que la polysémie des mots n'apparaissait pas dans les discours et les textes et que, en général, ceux-ci ne recelaient pas d'ambiguïté. En 1982, Seleskovitch dans « La compréhension d'une pensée à travers son expression », écrit : « Que la langue dont le discours est fait soit plurivoque et polysémique, nul ne le conteste ; mais le compris de celui qui s'intéresse aux paroles qui lui sont adressées est, à de rares exceptions près, aussi univoque que le vouloir-dire de celui qui parle, c'est-à-dire que la réalité visée à travers les mots prononcés » (p. 411).

Cela a été confirmé, dans le cadre des recherches sur la machine à traduire, par Terry Winograd (1982) : cet auteur affirme que, contrairement à la machine, l'esprit humain élimine inconsciemment la polysémie et l'ambiguïté linguistique en s'appuyant sur le contexte et sur la situation. Aujourd'hui, les scientifiques qui étudient la conscience, démontrent que, quelles que soient les perceptions, le cerveau humain n'a jamais conscience que d'une seule interprétation à la fois. Stanislas Dehaene, qui occupe au Collège de France la chaire de psychologie cognitive expérimentale, écrit dans son ouvrage sorti en 2014, Le Code de la conscience : « Nous ne pouvons pas réfléchir consciemment à plus d'une acception [d'un mot] à la fois. C'est le contexte qui décide » (p.99) Et : « Nous ne voyons jamais un mélange de deux possibilités : notre perception consciente décide et ne nous laisse voir que l'une des deux » (p. 138).

Voilà pour la polysémie et l'ambiguïté dans le langage.

Plus important encore : Seleskovitch écrit en 1977 dans « Interpréter un discours n'est pas traduire une langue » : « Le sens correspond à un état de conscience alors que l'instrument linguistique employé pour communiquer est réflexe » (p 143). Et en 1979, dans « Les mécanismes du langage vus à travers la traduction », elle affirme que « pour parler, comme pour comprendre, nous mobilisons consciemment nos pensées et non consciemment notre langue » (p. 346).

C'est bien aussi ce que confirment les travaux de S. Dehaene : « A notre insu, tout un assortiment d'opérations cognitives, depuis la perception jusqu'à la compréhension du langage, la décision, l'action, l'évaluation et l'inhibition se déroulent sans conscience. Hors de portée de toute introspection, des myriades de processeurs inconscients œuvrent simultanément afin d'extraire l'interprétation la plus complète possible de notre environnement. [...]. Notre conscience, en revanche, ne nous donne qu'un aperçu très réduit de cet univers » (2014 : 133). Cette affirmation, résultat de nombreuses expériences en laboratoire, va à l'encontre de l'idée, encore parfois défendue, que la compréhension procède de bas en haut, des sons aux significations des mots, puis à celle des phrases, pour aboutir enfin au sens .

Toujours à propos de compréhension, les cognitivistes ont retravaillé le processus d'assimilation/accommodation de Piaget (ils appellent « structure interne » ses schèmes mentaux) qui nous apportait des données utiles à notre explication de la compréhension. En 1973, j'écrivais dans la partie « Enseignement de l'interprétation », en m'appuyant sur l'idée d'assimilation/accommodation : « Bien des lois scientifiques peuvent être mises en parallèle avec des observations que l'on peut faire dans la vie courante : il est possible de comprendre pourquoi une fusée à réaction a besoin non seulement de carburant, mais aussi de comburant en observant un feu : il a besoin bien sûr de buches, mais aussi d'un petit souffle d'air qui lui apporte de l'oxygène ; et l'on peut par la même occasion, mais par un raisonnement inverse, comprendre le mécanisme du four à coke, qui évite la combustion du charbon... » (p. 318-19).

Bien que les exemples donnés soient aujourd'hui datés, l'idée a été beaucoup plus tard reprise par des chercheurs fort sérieux : en 2002, G. Fauconnier et M. Turner, dans leur ouvrage sur l'intégration conceptuelle, The Way We Think - Conceptual Blending and the Mind's Hidden complexities, réhabilitaient l'analogie et la métaphore dans la pensée humaine. Par ailleurs, Douglas Hofstadter, professeur de sciences cognitives à l'Université d'Indiana, et Emmanuel Sander, professeur de psychologie à l'Université Paris 8, insistent sur le fait que l'analogie, les associations d'idées, sont à la base de toute compréhension. Dans L'Analogie – Cœur de la pensé, paru en 2013, ils écrivent que « nos concepts sont sélectivement évoqués à tout moment par les analogies qu'établit sans cesse notre cerveau afin d'interpréter ce qui est nouveau et inconnu dans des termes anciens et connus » (2013 : 9). Et plus loin, ils ajoutent que les analogies permettent à la personne qui les a construites « de penser et d'agir dans des situations jamais rencontrées auparavant, la nantissent de nouvelles catégories à foison, enrichissent ces catégories en les étendant sans cesse, guident sa perception des situations grâce à leurs encodages à divers niveaux d'abstraction de ce qui a lieu dans l'environnement, et l'aide à effectuer des sauts mentaux imprévisibles et puissants » (p.169).

J'en viens au concept fort discuté de déverbalisation, c'est-à-dire de la dissociation du langage et de la pensée. Avant les neuropsychologues, Seleskovitch a posé que la pensée ne dépend pas du langage, bien que celui-ci l'aide à se préciser et à se développer. Le terme « déverbalisation » se trouve pour la première fois en 1976 dans « De l'expérience aux concepts » (p. 118) mais elle avait déjà mis le doigt sur le phénomène dès son premier livre paru en 1968.

Elle a détecté la déverbalisation à partir de sa pratique de l'interprétation consécutive, mais aussi à partir de réflexions sur la mémoire : nous retenons, dans notre mémoire à long terme, les notions, les faits, les abstractions, mais non les mots qui convoyaient ces faits, ces notions, ces abstractions. Pour nous, par conséquent, langage et pensée sont bien deux phénomènes distincts. Et c'est bien ce qui permet la traduction !

Des neuropsychologues, dont J. Barbizet dès 1968, dans leurs études sur l'aphasie, ont démontré l'existence dans le cerveau d'une aire du langage spécifique qui, lorsqu'elle est atteinte, rend les sujets incapables de parler, alors qu'ils conservent leurs capacités cognitives, un argument fort en faveur de la dissociation du langage et de la pensée, qui a été repris sous diverses formes et avec diverses argumentations, entre autres par S. Pinker en 1995, ou par D. Laplane en 2000. Par ailleurs, de nombreuses études ont été faites sur des bébés, des singes et autres animaux, qui semblent montrer que le langage n'est pas indispensable à un comportement raisonné. Les neurosciences, avec les avancées technologiques (IRM etc.) affinent la connaissance du fonctionnement du cerveau et vont aujourd'hui dans le même sens. Alors qu'il existe une aire du langage bien délimitée, on peut suivre aujourd'hui le cheminement des pensées dans les circuits neuroniques qui parcourent l'ensemble du cerveau.

Le Monde du 3 décembre 2014, dans son supplément Science & Médecine, publie un article très sérieux intitulé « Transmission de pensée par connexion directe entre cerveaux ». La lecture des pensées se fait par un casque d'encéphalographie, la transmission par internet et la restitution sur l'autre cerveau par un appareil de stimulation magnétique transcrânienne... Autant dire que le système ne sera pas commercialisé demain ! Mais la raison pour laquelle l'information vaut d'être mentionnée, c'est qu'il s'agit bien de communication non verbale.

J'en viens au traitement de la reformulation dans Interpréter pour traduire. On nous a reproché de nous étendre plus sur l'aspect compréhension que sur le volet reformulation. C'est pourtant bien à la reformulation que s'applique ce que j'ai appelé, dans mon article « Implicite et explicite » (1976), le principe de la synecdoque, à savoir que la plupart des signifiants mais aussi des énoncés explicites ne font jamais que désigner un tout composé non seulement de l'explicite de la formulation mais aussi d'une part d'implicite qui la complète. Voici ce que j'écris : « tout énoncé, par l'implicite conceptuel auquel il renvoie, est plus large que sa formulation ne l'est en langue. Plus la compréhension de l'implicite est vaste, mieux le sens se libère de la signification linguistique » (p.52).

Cet implicite, ou plutôt les inférences qu'en tirent les récepteurs du discours, a été étudié très en détail, pour la communication unilingue, par D. Sperber et D. Wilson dans leur ouvrage Relevance – Communication and Cognition (1986) et par d'autres qui les ont suivis pour la traduction. Mais, bien immodestement, je considère que, dans la mesure où les mêmes idées n'ont pas recours aux mêmes explicites dans les différentes langues, les traductologues n'ont pas encore mesuré la portée de ce phénomène pour la traduction, qui explique les équivalences de textes et infirme clairement la possibilité d'une traduction littérale généralisée.

S'agissant encore de reformulation, nous sommes encore une fois, à mon sens, novatrices dans nos observations de la traduction, car nous avons très tôt opéré une distinction entre les correspondances qui sont des faits de langue et les équivalences qui sont des faits de discours. J'avoue que je ne comprends pas que les traductologues, qu'ils s'intéressent au processus ou au produit, n'aient pas pris conscience de l'intérêt que cette distinction présente pour l'étude de la traduction.

Ceci dit, le volet reformulation, pour les textes de manière générale mais plus particulièrement pour les textes littéraires, n'a véritablement été développé qu'à partir des années 1990 par F. Israël.

Un mot encore à propos des retombées sur le langage de nos recherches sur l'interprétation et la traduction, qui sont traitées dans la troisième partie de l'ouvrage. Dans « la traduction simultanée, poste d'observation du langage », tiré d'une partie de ma thèse d'État (1981), je démontre que la compréhension n'est pas linéaire, mot après mot, mais qu'elle surgit par petites unités de sens, des petits segments d'énoncés dont la longueur varie selon les connaissances préalables des récepteurs.

Dans « Les mécanismes du langage vus à travers la traduction » (1979), Seleskovitch insiste sur le fait que « l'apport de connaissances banales est implicite dans les échanges quotidiens et se fait souvent à notre insu, mais il survient obligatoirement chaque fois qu'il y a communication effective par le truchement de la langue » (p. 350). Selon elle, la formulation explicite de tout texte est toujours accompagnée d'un implicite du côté du locuteur, implicite comblé par le récepteur. C'est à peu près à cette époque que Seleskovitch découvre l'ouvrage de John Searle Expression and Meaning (1979), qui confirme certaines de ses idées sur ce qu'il appelle les « actes de parole ».

Dans « Les anticipations de la compréhension » (1978), elle décrit les cas où l'auditeur comprend ce que veut dire le locuteur avant que celui-ci ait terminé sa phrase. D'où on peut conclure que les mots n'ont pas toujours tous l'importance que certains leur donnent, que le contexte, la situation, le déjà-dit les rendent parfois superflus.

J'en viens au sens, notion bien floue et qui donne lieu à nombre de controverses. On nous a reproché de ne traiter que du sens purement notionnel que l'on extrairait facilement des textes pragmatiques, alors que les textes « ouverts », comme les appelle U. Eco, peuvent donner lieu à plusieurs lectures. À propos de ces textes « ouverts » (en général, il s'agit de textes littéraires), je renvoie à F. Israël, qui a écrit à ce propos des pages magistrales. Mais nous savons tous que même les déclarations les plus factuelles qu'on lit dans les journaux peuvent, elles-aussi, donner lieu à la recherche des intentions de l'auteur, mais il ne peut jamais s'agir que de simples hypothèses de sens.

Alors, qu'est-ce que le sens dont nous parlons ?

Dans « Transcoder ou réexprimer » (1973), je pose que « Pour que le sens du dire soit celui que veut l'auteur, il faut que celui-ci ait correctement jugé du savoir de ceux auxquels il s'adresse et qu'il ait proportionné en conséquence l'explicite de sa formulation par rapport à ce qu'il laisse non-dit. Il faut aussi que le lecteur sache que l'explicitation linguistique ne couvre qu'une partie du message. Qu'il s'agisse de l'information fournie par le journal, ou de la lecture d'un essai philosophique, la connaissance que l'on associe toujours à la perception peut être approximative ou même fausse (si le savoir sur lequel on se fonde est insuffisant), tout comme le dire de l'auteur est parfois flou (s'il a insuffisamment analysé sa pensée ou mal jugé de ceux auxquels il s'adresse). Pourtant, dans la majeure partie des cas de communication courante, le sens se réalise spontanément, le dire correspond au vouloir-dire et le compris aussi » (p. 19-20).

Seleskovitch, quant à elle, dans son introduction aux Actes du Colloque Comprendre le langage (1981 : 13) aborde la question de façon pragmatique :

« Le sens d'un énoncé se définit par les mêmes moyens que les signifiés de la langue. Dans un cas comme dans l'autre, on procède par constat. Les signifiés tirent-ils leur objectivité du fait qu'ils recueillent le consensus de tous les membres d'une collectivité ? Le sens est alors tout aussi objectif, car [en général] ceux à qui s'adresse une parole en situation en comprennent aussi aisément et aussi exactement le sens qu'ils comprennent la langue dans laquelle il est émis ».

Mais elle distingue, à propos du sens, dans « La compréhension d'une pensée à travers son expression » (1982), « trois plages sur lesquelles l'attention peut se fixer. La première est celle du sens qu'un émetteur veut communiquer à autrui et qui est saisi spontanément par celui qui l'écoute avec le désir de le comprendre. Cette première plage inclut tous les implicites charriés par les compléments cognitifs [déjà mentionnés] et exclut tout ce qui chez l'émetteur n'est pas délibéré. La deuxième plage est celle de la forme, support matériel du discours et de ses attributs sémantiques. Enfin il y a la plage des intentions, du vouloir, de l'effet que le sujet parlant cherche à produire, consciemment ou inconsciemment, et de l'interprétation que l'auditeur donne à ses motifs et à ses buts » (p. 412).

Il me semble qu'on a là, brièvement résumé, une délimitation du sens selon la théorie interprétative.

Interpréter pour traduire, écrit dans un langage clair et simple, s'adresse à tous ceux qui s'intéressent non seulement à la traduction orale (l'interprétation) et à la traduction écrite mais aussi aux rapports entre langue et pensée.

Ce souci de clarté nous a aussi poussées à normaliser notre terminologie. En effet, lors de notre enseignement, nous nous sommes souvent aperçues de difficultés de compréhension occasionnées chez nos étudiants par un certain flou dans la terminologie des traductologues que nous leur demandions de lire. C'est ainsi que nous avons été amenées à faire une distinction nette, dès la deuxième édition d'Interpréter pour traduire en 1986, entre langue et discours, entre signification (meaning) et sens (sense) et, évidemment, entre correspondance et équivalence.

Il est permis de se demander si bien des incompréhensions, et même des controverses entre traductologues du monde entier ne seraient pas évitées, s'ils voulaient bien eux-aussi adopter ces distinctions !

Depuis la première parution de l'ouvrage en 1984, qui décrit les grandes étapes du processus, certains modèles ont étudié la traduction plus en détail ou sous d'autres aspects. Aucun de ces modèles, cependant, ne contredit ni n'invalide la théorie avancée dans Interpréter pour traduire. En revanche, la théorie a été enrichie et élargie vers la traduction écrite par Jean Delisle, puis littéraire par Fortunato Israël, vers l'interprétation en langue des signes par Philippe Séro-Guillaume et ses successeurs et de nombreux ouvrages ont été publiés après 1984, qui s'appuient sur la théorie interprétative pour étudier certains aspects de la traduction. Je pense entre autres à Théorie du langage – Théorie de la traduction de Colette Laplace (1994), à La Traduction des jeux de mots de Jacqueline Henry (2003), à Lire pour traduire de Freddie Plassard (2007), à la Poétique du récit traduit de Geneviève Roux-Faucard (2008).

Je conclus : la théorie que propose ce recueil est une théorie explicative, d'où d'ailleurs le fait qu'elle a conquis l'appui des praticiens et qu'elle a en outre des retombées très précises et bénéfiques sur la pédagogie de la traduction, puisqu'elle décrit et expose aux étudiants les différentes composantes du processus qu'ils seront amenés à mettre en œuvre dans leur carrière professionnelle.
Et tous les jours, s'il en est encore besoin, les recherches en sciences du langage, en psychologie cognitive, en neurosciences viennent vérifier les constatations résumées dans l'ouvrage qui sort à nouveau aujourd'hui aux Belles Lettres, grâce à Jean-René Ladmiral et Jean-Yves Masson et que j'espère vous avoir donné envie de lire ou de relire !


 

Références

DEHAENE S. Le Code de la conscience. Paris : Odile Jacob, 2014, 432 p.

FAUCONNIER G., TURNER M. The Way We Think - Conceptual Blending and the Mind's Hidden complexities. New York : Basic Books, 2002, 464 p.

ISRAËL, F., Traduction littéraire et théorie du sens. In : LEDERER M. (éd.). Etudes traductologiques. Paris : Lettres Modernes Minard, 1990, pp. 29-44.

HOFSTADTER D., SANDLER E. L'Analogie, cœur de la pensée. Paris : Odile Jacob, 2013, 688 p. Publié en anglais à la même date, sous le titre : Surfaces and Essences : Analogy as the Fuel and Fire of Thinking. New York : Basic Books, 2013, 592 p.

LAPLANE D. La pensée d'outre- mots – la pensée sans langage et la relation pensée-langage. Paris : Institut Sanofi-Synthélabo, 2000, 180 p.

LAPLANE D. Penser, c'est-à-dire ? Enquête neurophilosophique. Paris: Armand Colin, 2005, 203 p.

PINKER S. The Language Instinct – The New Science of Language and Mind. Londres : Perenial, 1995, 576 p.

RIESBECK C. K. and SCHANK R. C. Comprehension by Computer: Expectation-based Analysis of Sentences in Context. In : LEVELT W. J. M. and FLORES D'ARCAIS G. B. (eds). Studies in the Perception of Language. New York : John Wiley & Sons, 1978, pp. 247-294.

SEARLE J. Expression and Meaning – Studies in the Theory of Speech Acts. Cambridge : Cambridge University press, 1979.

SELESKOVITCH D. Introduction. In : BARBIZET J., PERGNIER M. et SELESKOVITCH D. Comprendre le langage. Paris : Didier Érudition, 1981, p. 9-15.

SPERBER D., WILSON D. Relevance: Communication and Cognition. Oxford : Blackwell Publishers, 1986, 308 p.

VAN DIJK TEUN A. KINTSCH W. Strategies of Discourse Comprehension. New York : Academic Press, 1983, 418 p.

WEISKRANTZ L. (ed). Thought Without Language, A Symposium of the Fyssen Foundation. Oxford : Oxford University Press, 1988, 560 p.

WINOGRAD T. Language as a Cognitive Process. Reading, Mass.: Addison-Wesley, vol. 1, 1982, 654 p.

ISIT - CRATIL

39 bis rue d'Assas
75006 Paris
+33 (0)1 42 22 33 16 
Design: Page18 Interactive
Le Bulletin du CRATIL - ISSN 2263-7591 2015-Tous droits réservés ©