Génération automatique de textes

Génération automatique de textes

La génération automatique de texte (GAT) [1] est une sous discipline de la linguistique computationnelle qui vise à exprimer sous une forme textuelle, syntaxiquement et sémantiquement correcte[2], une représentation formelle d'un contenu. Outre ses nombreuses applications existantes ou potentielles - par exemple pour produire automatiquement des bulletins météorologiques, ou des rapports automatisés - elle offre par ailleurs un cadre d'investigation des théories linguistique, et particulièrement de ses mécanismes de production .

Sommaire

Histoire

Historiquement, les deux premiers chercheurs à s'être penchés sur la question de la production de texte par des systèmes d'information sont Claude Shannon, suivi de Alan Turing.

Alan Turing réfléchit de manière générale à cette possibilité dans le cadre de sa proposition du test d’IA intitulé Le jeu de l’imitation. Ce test consiste que Turing décrit en 1950 dans son article prospectif sur le rapport existant entre intelligence et mécanique informatique[3]. Il propose un test qui consiste à faire dialoguer un humain avec un ordinateur et ce même humain avec un autre humain. Selon Turing, si l’homme qui engage les deux conversations n’est pas capable de différencier un locuteur humain d’un ordinateur, il est permis de considérer que le logiciel a passé avec succès le test. Ce test, comme on le voit aujourd'hui à l'occasion du Prix Loebner consiste en grande partie à générer des phrases syntaxiquement et sémantiquement correctes.

Claude Shannon dans son article sur la theorie mathématique de la communication, fondement de la Théorie de l'information, dès 1948[4], imagine la possibilité de générer automatiquement du texte en utilisant des probabilités markoviennes de transition d'un mot à un autre. Il construit le premier modèle théorique de générateur de texte. Aidé d'une table de transition calculée à la main, il élabore diverses phrases qui ressemblent à l'anglais. L'un des exemples donné par Shannon, d'ordre deux, c'est-à-dire reposant sur la probabilité de transition pour deux mots consécutifs, est le suivant:

« THE HEAD AND IN FRONTAL ATTACK ON AN ENGLISH WRITER THAT THE CHARACTER OF THIS POINT IS THEREFORE ANOTHER METHOD FOR THE LETTERS THAT THE TIME OF WHO EVER TOLD THE PROBLEM FOR AN UNEXPECTED ».

Shannon ne poursuivra pas ses recherches en matière de génération, son objectif principal est de formaliser mathématiquement la transmission d'information, mais la méthode qu'il décrit est aujourd'hui au coeur de nombreuses méthodes appliquées au traitement automatique du langage, par exemple dans les (en)modèles de langage probabilistes. Les modèles de langage sont également impliqués dans certaines architectures de générateurs de texte dits statistiques.

Mais les premiers systèmes appliqués de GAT datent des années 1960. Ils ont été mis au point pour expérimenter dans un cadre théorique la théorie présentée par Chomsky dans Structures Syntaxiques.

Les systèmes inspirés de la linguistique Chomskyenne

Yngve en 1961[5] , très peu de temps après la parution de Structures Syntaxiques cherche avec le systèmes rudimentaires de l'époque à expérimenter la production de phrases d'après les propositions de Chomsky. Il décrit l'algorithme de son système, presque entièrement basé sur des grammaires gérératives, dans son article intitulé Random Generation of English Sentences. Yngve se heurte aux phénomènes de complexité linguistique qui perturbent la recherche sur la mécanisation du langage depuis la fin des années 40. Il indique d'ailleurs dans son article « que les grammaires transformationnelles originelles ont été abandonnées car elles ne peuvent pas être mécanisées avec un appareil fini, en raison de la difficulté d’associer une structure de phrase au résultat d’une transformation ».

D'autres travaux tels ceux de Matthews[6] en 1962 ou de Friedman[7] en 1969 sont similaires à ceux de Yngve. Très marqué par les besoins de l'époque et les orientations des financements universitaires en Amérique du Nord, ils s’inscrivent dans la perspective d’insérer le générateur de texte en tant qu'élément d'un système de traduction automatique. Souvent, ces travaux ne cherchent pas réellement à produire un texte sémantiquement correct mais se focalisent plus sur la capacité des systèmes à produire des phrases syntaxiquement correctes. Comme le système de Friedman, écrit en Fortran et fonctionnant sur IBM 360/67, qui génère des structures syntaxiques de manière aléatoire.

Principes

Applications

Cadre théorique

Approche symbolique

Les formalismes théoriques dérivant des méthodes symboliques sont principalement les suivants[2],[8] :

  • SFG (systemic-functional grammars) , grammaires systémiques-fonctionnelles. Utilisées pour l'accent qu'elles mettent sur l'aspect fonctionnel , notamment via l'utilisation de traits fonctionnels . Exemples de systèmes : FUF[9] qui utilise le principe d'unification des traits ; KPML[10], système multilingue héritier de PENMAN .
  • TAG (tree-adjoining grammars) , grammaires d'arbres adjoints. Utilisées pour effectuer de la génération incrémentale .
  • MTM (meaning-text model) , modèle sens-texte de Mel'čuk.

Approche statistique

Autres approches

Architecture

La GAT s'oppose à la compréhension du langage naturel, puisque cette dernière part du texte pour en saisir le sens alors que le but de la GAT est de transformer du sens en texte. Ceci se traduit par une plus grande variété d'inputs différents, en fonction du domaine d'application (alors que du texte restera toujours du texte). De plus, contrairement à la compréhension, la génération n'a pas à se soucier (ou dans une moindre mesure) de l'ambiguïté, de la sous-spécification ou d'un input mal formé, qui sont les principales préoccupations en compréhension[11].

Le problème majeur de la GAT est le choix . Cet embarras du choix se pose à plusieurs niveaux[12] :

  • Contenu : Quoi dire ?
  • Choix lexicaux et syntaxiques : Comment le dire ?
  • Choix rhétoriques : Quand dire quoi ?
  • Présentation textuelle (ou orale) : Le dire !

Ces choix sont loin d'aller de soi. Prenons les deux phrases suivantes[13] :

  1. You can only stay until 4.
  2. You have to leave by 4.

Qu'on peut traduire approximativement par Vous ne pouvez rester que jusque 16 heures et Vous devez être parti pour 16 heures. Ces deux phrases partagent une synonymie sémantique évidente, mais elles diffèrent par une nuance communicative. La phrase (1) met l'emphase sur stay, (2) sur leave . Le choix lexical se fera en fonction du contexte : dans ce cas-ci, par exemple, si l'on souhaite porter l'attention sur l'activité en cours ou plutôt sur l'activité à venir.

Par conséquent, la GAT implique un grand nombre[14] de connaissances préalables[15] :

  • Connaissance du domaine couvert
  • Connaissance du langage spécifique de ce domaine
  • Connaissance rhétorique stratégique
  • Connaissance de l'ingénierie
  • Connaissance des habitudes et contraintes de l'utilisateur final

La formulation optimale devra tenir compte d'une série de facteurs, tels que la grammaticalité, l'absence d'ambiguïté, la cohérence, l'effet rhétorique souhaité. Mais également des contraintes sociales, discursives et pragmatiques. Les théories fonctionnelles du langage sont très utilisées en génération, car elles tentent d'intégrer ce type de facteurs[2].

Exemple d'architecture pour un système de génération (traduit de Vander Linden, 2000)

La figure ci-contre présente un exemple d'architecture pour la GAT. Les deux composants principaux de cette architecture sont le Planificateur de discours (Discourse Planner) et le Réalisateur de surface (Surface Realizer) . Le Planificateur sélectionne le contenu dans la base de connaissance et le structure en fonction de l'objectif communicatif. Ensuite, le Réalisateur de surface génère les phrases, selon les contraintes lexicales et syntaxiques qui lui sont implémentées, en suivant le plan spécifié par le Planificateur[11].

Principaux logiciels

SimpleNLG

Voir aussi

Liens externes

Articles connexes

Notes et références

Notes


Références

  1. En anglais natural language generation (NLG) .
  2. a, b et c Bateman & Zock (2003).
  3. Alan Turing, 1950 : Computing machinery and intelligenc. Mind .
  4. Claude Shannon, 1948 : A Mathematical Theory of Communication. ACM SIGMOBILE Mobile Computing and Communications Review, vol. 5, no 1 
  5. Victor Yngve, septembre 1961 : Random generation of English sentences. Proceedings of International Congress on Machine Translation and Applied Language Analysis .
  6. G Matthew, 1962 : Analysis by synthesis of sentences of natural languages.. Proceedings International Congress on Machine Translation and Applied Language Analysis .
  7. Joyce Friedman, 1969 : Direct Random Generation of English Sentence.. Communications of the ACM .
  8. Pour un large aperçu de l'état de l'art, voir Bateman (2002).
  9. Elhadad (1992).
  10. Bateman (1997).
  11. a et b Vander Linden (2000)
  12. Adapté de Bateman & Zock (2003) et de Vander Linden (2000).
  13. Exemple emprunté à McDonald (1991).
  14. Nombre qui varie bien sûr en fonction du domaine traité et de la précision recherchée.
  15. Adapté de Bateman & Zock (2003).

Bibliographie

  • Bateman, J. (1997). Enabling technology for multilingual natural language generation: the KPML development environment. Journal of Natural Language Engineering, 3(1), 15-55.
  • Bateman, J. (2002). Natural Language Generation: an introduction and open-ended review of the state of the art.
  • Bateman, J. et M. Zock (2003). Natural Language Generation. The Oxford Handbook of Computational Linguistics. R. Mitkov (éd.), Oxford University Press, New York, 284-304.
  • Danlos (L.). (1985). Génération automatique de textes en langue naturelle. Paris : Masson.
  • Elhadad, M. (1992). Using Argumentation to Control Lexical Choice: A Functional Unification-Based Approach. Ph.D. thesis, Department of Computer Science, Columbia University.
  • McDonald, D. (1991). On the place of words in the generation process. Natural Language Generation in Artificial Intelligence and Computational Linguistics. C. Paris, W. Swartout et W. Mann (éds.), Kluwer, Dordrecht, 229-247.

Articles connexes

Liens externes


Wikimedia Foundation. 2010.

Contenu soumis à la licence CC-BY-SA. Source : Article Génération automatique de textes de Wikipédia en français (auteurs)

Игры ⚽ Поможем решить контрольную работу

Regardez d'autres dictionnaires:

  • Generation automatique de textes — Génération automatique de textes La génération automatique de texte (GAT) [1] est un domaine du traitement automatique des langues dont l objectif est de générer une forme linguistique à partir de données brutes, non linguistiques [2], à partir d …   Wikipédia en Français

  • Génération Automatique De Textes — La génération automatique de texte (GAT) [1] est un domaine du traitement automatique des langues dont l objectif est de générer une forme linguistique à partir de données brutes, non linguistiques [2], à partir d une représentation formelle d un …   Wikipédia en Français

  • Generation — Génération Cette page d’homonymie répertorie les différents sujets et articles partageant un même nom …   Wikipédia en Français

  • Génération — Cette page d’homonymie répertorie les différents sujets et articles partageant un même nom. Sur les autres projets Wikimedia : « Génération », sur le Wiktionnaire (dictionnaire universel) Le mot génération désigne l action d… …   Wikipédia en Français

  • Vieille génération — Génération Cette page d’homonymie répertorie les différents sujets et articles partageant un même nom …   Wikipédia en Français

  • AUTOMATIQUE — Automation, automatique, automatisation, automatismes, théorie des automates, cybernétique..., la variété même des vocables utilisés traduit la difficulté de définir précisément le contenu du substantif automatique . Nous choisirons ici d’appeler …   Encyclopédie Universelle

  • Analyse automatique — Traitement automatique des langues Le Traitement automatique du langage naturel (abr. TALN) ou Traitement automatique des langues (abr. TAL) est une discipline à la frontière de la linguistique, de l informatique et de l intelligence artificielle …   Wikipédia en Français

  • Traitement Automatique du Langage Naturel — Traitement automatique des langues Le Traitement automatique du langage naturel (abr. TALN) ou Traitement automatique des langues (abr. TAL) est une discipline à la frontière de la linguistique, de l informatique et de l intelligence artificielle …   Wikipédia en Français

  • Traitement automatique de la langue — Traitement automatique des langues Le Traitement automatique du langage naturel (abr. TALN) ou Traitement automatique des langues (abr. TAL) est une discipline à la frontière de la linguistique, de l informatique et de l intelligence artificielle …   Wikipédia en Français

  • Traitement automatique de la langue naturelle — Traitement automatique des langues Le Traitement automatique du langage naturel (abr. TALN) ou Traitement automatique des langues (abr. TAL) est une discipline à la frontière de la linguistique, de l informatique et de l intelligence artificielle …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”