Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces &...
Transcript of Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces &...
![Page 1: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/1.jpg)
Generacion de LenguajeNatural y Aplicaciones
Carlos Areces y Luciana Benotti
carlos.areces,[email protected]
INRIA Nancy Grand Est, Nancy, FranceUniversidad Nacional de Cordoba, Cordoba, Argentina
ELiC 2010 - Buenos Aires - Argentina
![Page 2: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/2.jpg)
Lo que Vemos Hoy
I Las Tareas Basicas de GLN
I Tree Adjoining Grammars (TAGS)
I TAGs for Natural Language Processing
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 3: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/3.jpg)
Lo que Veremos Hoy
I Las Tareas Basicas de GLNDocument PlanningMicroplanningSurface Realization
I Tree Adjoining Grammars (TAGS)
I TAGs for Natural Language Processing
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 4: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/4.jpg)
Las Tareas Basicas en un sistema de GLN
Content Determination DocumentDocument Structuring planning
Aggregation Micro-Lexicalisation planningReferring Expression Generation
Linguistic Realisation SurfaceStructure Realisation realization
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 5: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/5.jpg)
Y si nos Salteamos Microplanning?
I Podrıamos saltearnos completamente la etapa demicroplanning
I Producimos una sentencia por cada mensaje del plan dedocumento
I Para cada tipo de mensaje en un nodo del plan decidimos,individualmente, como sera realizado
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 6: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/6.jpg)
Ejemplo de un Document Plan
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 7: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/7.jpg)
Un Realizador Simple
I Para el mensaje MonthlyTemperatureMsg:TempString = case (TEMP - AVERAGETEMP)
(2.0 – 2.9): ‘very much warmer than average.’(1.0 – 1.9): ‘much warmer than average.’(0.1 – 0.9): ‘slightly warmer than average.’(-0.1 – -0.9): ‘slightly cooler than average.’(-1.0 – -1.9): ‘much cooler than average.’(-2.0 – -2.9): ‘very much cooler than average.’
I Sentencia = ‘The month was’ + TempString
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 8: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/8.jpg)
Un Mensaje por Sentencia
I El resultado serıa:The month was cooler than average.The month was drier than average.There were the average number of rain days.The total rain for the year so far is well below average.There was rain on every day for 8 days from 11th to 18th.Rainfall amounts were mostly small.
I El texto target:
The month was cooler and drier than average, withthe average number of rain days, but the total rainfor the year so far is well below average. Althoughthere was rain on every day for 8 days from 11th to18th, rainfall amounts were mostly small.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 9: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/9.jpg)
Un Mensaje por Sentencia
I El resultado serıa:The month was cooler than average.The month was drier than average.There were the average number of rain days.The total rain for the year so far is well below average.There was rain on every day for 8 days from 11th to 18th.Rainfall amounts were mostly small.
I El texto target:
The month was cooler and drier than average, withthe average number of rain days, but the total rainfor the year so far is well below average. Althoughthere was rain on every day for 8 days from 11th to18th, rainfall amounts were mostly small.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 10: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/10.jpg)
Microplanning
I Objetivo:I Convertir el document plan en una secuencia de sentencias o
especificacion de frases.
I Tareas:I Agregacion de parrafos y sentenciasI LexicalizacionI Referencia
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 11: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/11.jpg)
La Arquitectura
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 12: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/12.jpg)
Interacciones en Microplanning
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 13: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/13.jpg)
Microplanning en un Pipeline
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 14: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/14.jpg)
Agregacion
I Podemos combinar (agrupar) texto de acuerdo aI el contenido de informacionI posibilidades de realizacion
I Algunas Posibilidades:I ConjuncionI ElipsisI EmbeddingI Introduccion mediante Conjuntos
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 15: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/15.jpg)
Ejemplos
I Sin Agregacion:I Heavy rain fell on the 27th.
Heavy rain fell on the 28th.
I Agregacion via conjuncion simple:I Heavy rain fell on the 27th and heavy rain fell on the 28th.
I Agregacion via elipsis:I Heavy rain fell on the 27th and [] on the 28th.
I Agregacion via introduccion de conjuntos:I Heavy rain fell on [the 27th and 28th].
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 16: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/16.jpg)
Ejemplos: Embedding
I Sin agregacion:I March had a rainfall of 120mm.
It was the wettest month.
I Con agregacion:I March, which was the wettest month, had a rainfall of 120mm.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 17: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/17.jpg)
Heurısticas de Eleccion
Usualmente, hay muchas formas en que un conjunto de mensajespueden agregarse: como elegimos?
I reglas convencionales y de estiloI respetar propiedades estructurales
I Por ejemplo, agregar solamente mensajes que son hermanos enel arbol del plan de documento
I tomando en cuenta objetivos pragmaticos
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 18: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/18.jpg)
Objetivos Pragmaticos: STOP
I Hacer el texto mas amigable:
It’s clear from your answers that you don’t feel toohappy about being a smoker and it’s excellent thatyou are going to try to stop.
I Hacer el texto mas simple (para personas con dificultades delectura):
It’s clear from your answers that you don’t feel toohappy about being a smoker. It’s excellent that youare going to try to stop.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 19: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/19.jpg)
Agregacion en WeatherReporter
I Teniendo en cuenta las relaciones retoricas:I Si dos mensajes estan en la relacion SEQUENCE, pueden ser
agrupados al mismo nivel.I Si un mensaje es una ELABORATION de otro, puede ser
agrupado al mismo nivel, o embebido como una clausula ofrase menor.
I Si un mensaje es un CONTRAST de otro, puede ser agrupadoal mismo nivel, o embebido como una clausula o frase menor.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 20: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/20.jpg)
Ejemplo de Regla de Agregacion
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 21: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/21.jpg)
Lexicalizacion
I Es el proceso de eleccion de palabras para comunicar lainformacion de un mensaje
I Metodos:I templatesI arboles de decisionI algoritmos de reescritura de grafos
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 22: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/22.jpg)
Eleccion Lexica
Si multiples lexicalizaciones son posibles, considerar:
I el conocimiento del usuario y sus preferenciasI consistencia con usos anteriores
I aunque en algunos casos, puede ser posible variar lexemas
I interaccion con otros aspectos de microplanningI objetivos pragmaticos
I It is encouraging that you have many reasons to stop.(significado mas preciso)
I It’s good that you have a lot of reasons to stop.(mas facil de leer)
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 23: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/23.jpg)
WeatherReporter: Variaciones al describirMonthlyRainfallMsg
I Variaciones en la categorıa sintactica:S: [rainfall was very poor]NP: [a much worse than average rainfall]AP: [much drier than average]
I Variaciones semanticas:Valores absolutos:
[very dry][a very poor rainfall]
Valores comparativos:[a much worse than average rainfall][much drier than average]
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 24: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/24.jpg)
WeatherReporter: Agregacion y Lexicalizacion
Muchos resultados diferentes son posibles
The month was cooler and drier than average. Therewere the average number of rain days, but the total rainfor the year so far is well below average. There was rainon every day for 8 days from 11th to 18th, but rainfallamounts were mostly small.
The month was cooler and drier than average. Althoughthe total rain for the year so far is well below average,there were the average number of rain days. There was asmall mount of rain on every day for 8 days from 11th to18th.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 25: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/25.jpg)
Generacion de Expresiones Referenciales
Como identificamos objetos y entidades especıficas del dominio?
I Dos temas que se discuten clasicamente:I Primera referencia a un objetoI Referencias subsequentes a un objeto previamente introducido
(y ‘notorio’)
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 26: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/26.jpg)
Referencia Inicial
Introduciendo un objeto en el discurso
I usar un nombre completoI Jeremy
I relacionar con un objeto que ya fue introducido (y es notorio)I Jane’s goldfish
I especificar ubicacion fısicaI the goldfish in the bowl on the table
Un tema todavıa no resuelto, y en investigacion.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 27: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/27.jpg)
Referencias Subsequentes
Algunas posibilidades
I PronombresI It swims in circles.
I Frases nominales definidas (definite NPs)I The goldfish swims in circles.
I Nombres propios (quizas abreviados)I Jeremy swims in circles.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 28: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/28.jpg)
Eligiendo el Modo de Referencia
Algunas sugerencias en la literatura:
I usar un pronombre si este refiere a una entidad mencionada enla frase anterior, siempre y cuando no hay otra entidad en lafrase anterior que pueda ser referica con el mismo pronombre
I si no, usar un nombre, si este existe
I si no, generar un definite NP
Tambien es importante seguir las convenciones del genero – porejemplo, se usan mas pronombres en artıculos periodısticos que enmanuales tecnicos
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 29: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/29.jpg)
Ejemplo
I am taking the Caledonian Express tomorrow. It is amuch better train than the Grampian Express.The Caledonian has a real restaurant car, whilethe Grampian just has a snack bar. The restaurant carserves wonderful fish, while the snack bar servesmicrowaved mush.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 30: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/30.jpg)
Generacion de Expresiones Referenciales enWeatherReporter
I Referencias a meses:I June 1999I JuneI the monthI next June
I Relativamente simple, puede harcodearse durante la etapa dedocument planning
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 31: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/31.jpg)
Temas de Investigacion
I Como guiar las elecciones durante microplanning?
I Como hacer agregacion de alto nivel, i.e., como formarparrafos a partir de sentencias?
I Como guiar las elecciones de lexicalizacion, en particular,como lexicalizar cuando conceptos del dominio no puedentraducirse directamente y en forma facil en palabras?
I Cual es la mejor manera de referirnos a un objeto (enparticular en una primera referencia)?
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 32: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/32.jpg)
La Arquitectura
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 33: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/33.jpg)
Realizacion
I Objetivo:I Convertir las especificaciones de texto en texto en lenguaje
natural
I Motivo:I intentar separar lo mas posible las particularidades de un
lenguaje dado, del resto del sistema de GLN
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 34: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/34.jpg)
Tareas de Realizacion
I Realizacion de Estructura:I Elegir el markup necesario para transmitir la estructura del
documento
I Realizacion Linguıstica:I Insertar palabras funcionales (functional words). E.g.,
artıculos, preposiciones, etc.I Elegir la inflexion correcta de las palabras de contenido
(content words). E.g., sustantivos, adjetivos, etc.I Ordenar las palabras dentro de una fraseI Aplicar reglas ortograficas y morfologicas (inflexion de
palabras, reglas de puntuacion, etc.)
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 35: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/35.jpg)
Realizacion de Estructura
I Agregar markup al documento:
I Ejemplo: formas de marcar el fin de parrafo
HTML <P>LaTeX (blank line)RTF \parSABLE (speech) <BREAK>
I Depende del formato en que se representara el documento
I Usualmente puede resolverse con reglas simples de mapeo
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 36: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/36.jpg)
Realizacion Linguıstica
Diferentes tecnicas:
I Especificacion de gramaticas bidireccionales
I Especificacion de gramaticas especıficas para generacion
I Mecanismos basados en templates
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 37: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/37.jpg)
Especificacion de Gramaticas Bidireccionales
I Idea Principal: Utilizacion de una misma gramatica pararealizacion y parsing
I Puede ser expresada como un conjunto de mapeosdeclarativos entre estructuras sintacticas y semanticas
I Lo que diferira (generacion vs. interpretacion) seran losalgoritmos que utilicen la gramatica
I Elegantes en teorıaI Hoy en da, son utilizadas en algunos sistemas de traduccion
automatica, pero casi nunca en sistemas de GLN aplicada.I Dificultad de construir gramaticas bidireccionales de gran
tamanoI Dificultad de generar frases especıficas con estas gramaticas
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 38: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/38.jpg)
Gramaticas Especialmente Definidas para Generacion
I La gramatica provee un arbol de decision para la realizacion
I Las elecciones se hacen en base a la especificacion en el plandel documento
I Estas gramaticas se pueden utilizar solo para generacion
I Existe software y estandares para construir estas gramaticas
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 39: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/39.jpg)
Observacion
I Los dos enfoques anteriores apuntan a generar texto deamplia cobertura linguıstica y de caracter sofisticado.
I La mayorıa de las aplicaciones no require este nivel desofisticacion: en muchos casos los objetivos de generacion sepueden obtener via templates o ‘canned text’
I Lo que si puede suceder es que ciertas partes del problema degeneracion requiera mas sofisticacion que otras.
I En muchos casos la solucion es combinar canned text,templates y ‘realizacion en serio’
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 40: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/40.jpg)
Temas de Investigacion
I Como combinamos distintas tecnicas y formalismoslinguısticos?
I Cuales son los costos y beneficions de usar templates en vezde ‘realizacion en serio’?
I En que casos hay interaccion entre realizacion de estructura yrealizacion linguıstica?
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 41: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/41.jpg)
Lo que Vemos Hoy
I Las Tareas Basicas de GLN
I Tree Adjoining Grammars (TAG)
I TAGs for Natural Language Processing
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 42: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/42.jpg)
Lo que Vemos Hoy
I Las Tareas Basicas de GLN
I Tree Adjoining Grammars (TAG)
Capacidad Generativa Debil vs. FuerteIntroduciendo TAGPropiedades de TAG, ComplejidadLexicalizacion de Gramaticas
I TAGs y Surface Realization
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 43: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/43.jpg)
Gramaticas Formales
I Podemos usar gramaticas formales para generar lenguages.
I Por ejemplo la gramatica
S → aSb | ab
genera anbn para n ≥ 1
I Podemos usar este tipo de gramaticas para generar lenguajenatural?
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 44: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/44.jpg)
John loves Mary
S → NP VPVP → V NP | VP ADVNP → John | Mary
V → lovesADV → passionately
L(G ) = John loves Mary, John loves Mary passionately,. . .
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 45: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/45.jpg)
Gramaticas Formales
I Recordemos de todas formas que la tarea de GLN esI Transformar informacion no linguısticaI en texto comprensible en lenguaje natural
I Podemos usar este tipo de gramatica para generar a partir deinformacion no linguıstica?
I Que gramatica tenemos que usar?
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 46: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/46.jpg)
La Jerarquıa de Chomsky
Una gramatica G es una tupla (N,T ,R, S) donde
I N es un conjunto de sımbolos (No Terminales)
I T es el conjunto de sımbolos disjunto de N (Terminales)
I R es una relacion en (N ∪ T )∗ × (N ∪ T )∗
I S es un sımbolo de N.
Sea G = (N,T ,R, S) una gramatica donde α, β, γ ∈ (N ∪ T )∗
I unrestricted o type-0 grammars: α → β, tal que α 6= ε
I context-sensitive grammars: αAβ → αγβ, tal que γ 6= ε
I context-free grammars: A → γ
I regular grammars: A → a B or A → a
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 47: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/47.jpg)
La Jerarquıa de Chomsky
Una gramatica G es una tupla (N,T ,R, S) donde
I N es un conjunto de sımbolos (No Terminales)
I T es el conjunto de sımbolos disjunto de N (Terminales)
I R es una relacion en (N ∪ T )∗ × (N ∪ T )∗
I S es un sımbolo de N.
Sea G = (N,T ,R, S) una gramatica donde α, β, γ ∈ (N ∪ T )∗
I unrestricted o type-0 grammars: α → β, tal que α 6= ε
I context-sensitive grammars: αAβ → αγβ, tal que γ 6= ε
I context-free grammars: A → γ
I regular grammars: A → a B or A → a
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 48: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/48.jpg)
Que Gramatica Tenemos que Usar
I Olvidemonos por un momento del problema de generacion.
I Supongamos que queremos escribir una gramatica quecontenga un lenguaje natural como el Ingles o el Castellano
I Es decir una gramatica G tal que L(G ) sea un subconjuntointeresante de un lenguaje natural
I Que tipo de gramatica tiene que ser G ? E.g., puede ser unagramatica regular?
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 49: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/49.jpg)
Capacidad Generativa Debil vs. Fuerte
I Que queremos generar? L(G ) o T (G )
I La capacidad generativa debil L(G ) de una gramatica es elconjunto de strings (o lenguaje) que la gramaticagenera/reconoce, e.g. 0n1n para n ≥ 0
I La capacidad generativa fuerte T (G ) de una gramatica es elconjunto de derivaciones (usualmente un conjunto de arboles)de una gramatica
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 50: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/50.jpg)
Capacidad Generativa Debil vs. Fuerte
S → NP VPVP → V NP | VP ADVNP → John | Mary | David | peanuts
V → loves | likesADV → passionately
L(G) = David likes peanuts, David likes peanuts passionately,. . .
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 51: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/51.jpg)
Arbol Derivado / Arbol de Parsing
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 52: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/52.jpg)
No Confundir con: Arbol de Derivacion
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 53: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/53.jpg)
Mismo L(G ), Distinto T (G )
Dos gramaticas pueden tener el mismo L(G ) pero distingo T (G )
S → ABA → aA | aB → Bb | b
L(G ) = a+b+ T (G ) =
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 54: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/54.jpg)
Lenguaje Natural y Complejidad Descriptiva
I La pregunta que nos estamos haciendo entonces es: existealgun tipo de lenguaje formal que describa (al menos ciertosaspectos de un fragmento de) un lenguaje natural?
I Por ejemplo, supongamos que podemos abstraer algunfenomeno linguıstico de tal forma que lo podemos representarcomo el lenguaje
wwR | donde w ∈ a, b∗,wR es el reverso de w
I Podemos representar este lenguaje con una gramatica regular?O necesitamos subir en la jerarquıa?
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 55: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/55.jpg)
Mas Alla de Libre de Contexto
I Actualmente, se considera que ciertos aspectos de muchoslenguajes naturales no pueden ser modelados mediantegramaticas libres de contexto
I Si consideramos la capacidad generativa fuerte (i.e., T (G ))mostrar este resultado es relativamente simple.
I Los lenguajes libres de contexto no pueden generar lenguajescon ‘dependencias cruzadas.’ E.g., anbmcndm
I Es relativamente facil dar ejemplos de T (G ) correspondientesa fenomenos linguısticos con dependencias cruzadas.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 56: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/56.jpg)
Mas Alla de Libre de Contexto
I Pero un resultado sobre capacidad generativa fuertenecesariamente esta asociado a una determinada teorıalinguıstica (e.g., analisara sentencias de una formadeterminada, usando ciertas categorıas gramaticales)
I No sabemos que teorıa linguıstica es la correcta!
I Lo unico que conocemos son las sentencias que producimos, elresto esta solo en nuestras cabezas.
I Por eso, un resultado mas fuerte (y mas interesante) serıapoder demostrar que cierto lenguaje natural no es libre decontexto a nivel de capacidad generativa debil.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 57: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/57.jpg)
Mas Alla de Libre de Contexto en L(G )
I Pero demostrar esto es difıcil
I Consideremos L1 = anbn es libre de contexto mientras queL2 = a∗b∗ es regular y L1 ⊂ L2.
I Es decir, podriamos ‘hacer trampa’ y elegir algun subset dellenguaje natural particularmente difıcil para demostrar nuestroresultado, mientras que el lenguaje completo tiene menorcomplejidad.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 58: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/58.jpg)
El Lenguaje Humano no es un Lenguaje Libre de Contexto
I Existen en la literatura diferentes argumentos e intentos dedemostraciıon de que la capacidad generativa debil dellenguaje humano esta mas alla de las gramaticas libres decontexto.
I (Pullum, 1982) es un compedio de muchos de estosargumentos y de sus problemas.
I (Shieber, 1985) y (Huybregts, 1984) proveyeron finalmente unargumento fuerte utilizando ejemplos de Aleman-Suizo.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 59: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/59.jpg)
Ejemplo: Mas alla de Lenguajes RegularesI Consideremos ‘center embedding’ en Ingles
the shares that the broker recommended were bought⇒
N1N2V2V1
the moment when the shares that the broker recommendedwere bought has passed
⇒N1N2N3V3V2V1
I Podemos modelar este tipo de frases con una gramatica como
S → aSb
que produce dependencias anidadas como en a1a2a3b3b2b1
I Cuantas veces podemos anidar de esta forma? Por ejemplo,podemos construir una frase que suene natural y que incluyacuatro verbos?
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 60: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/60.jpg)
Ejemplo: Mas alla de Lenguajes RegularesI Consideremos ‘center embedding’ en Ingles
the shares that the broker recommended were bought⇒
N1N2V2V1
the moment when the shares that the broker recommendedwere bought has passed
⇒N1N2N3V3V2V1
I Podemos modelar este tipo de frases con una gramatica como
S → aSb
que produce dependencias anidadas como en a1a2a3b3b2b1
I Cuantas veces podemos anidar de esta forma? Por ejemplo,podemos construir una frase que suene natural y que incluyacuatro verbos?
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 61: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/61.jpg)
Ejemplo: Mas alla de Lenguajes RegularesI Consideremos ‘center embedding’ en Ingles
the shares that the broker recommended were bought⇒
N1N2V2V1
the moment when the shares that the broker recommendedwere bought has passed
⇒N1N2N3V3V2V1
I Podemos modelar este tipo de frases con una gramatica como
S → aSb
que produce dependencias anidadas como en a1a2a3b3b2b1
I Cuantas veces podemos anidar de esta forma? Por ejemplo,podemos construir una frase que suene natural y que incluyacuatro verbos?
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 62: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/62.jpg)
Competencia vs. Performance
I Que pasa si no podemos embeber mas de 3 o 4 sentencias?
I Si existe un limite finito (no importa que grande sea), entoncesi podemos modelar este fragmento usando un lenguajeregular!
I Usualmente vamos a querer diferenciar competencia deperformance. I.e., lo que consideramos gramaticalmentecorrecto, de lo que realmente producimos (dadas, por ejemplo,nuestras limitaciones de memoria).
I En el caso anterior dirıamos que la performance puedemodelarse con un lenguaje regular, mientras que lacompetencia necesita un lenguaje libre de contexto.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 63: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/63.jpg)
Ejemplo: Mas alla de Libre de Contexto
I Varios lenguajes tienen dependencias cruzadas: Holandes(Bresnan et al., 1982), Aleman-Suizo (Shieber, 1984),Tagalog (Rambow and MacLachlan, 2002)
I Aleman-Suizo:... mer em Hans es huss halfed aastriiche... we Hans the house helped paint
N1 N2 V1 V2
we helped Hans paint the house
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 64: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/64.jpg)
Ejemplo: Mas alla de Libre de Contexto
I Varios lenguajes tienen dependencias cruzadas: Holandes(Bresnan et al., 1982), Aleman-Suizo (Shieber, 1984),Tagalog (Rambow and MacLachlan, 2002)
I Aleman-Suizo:... mer em Hans es huss halfed aastriiche... we Hans the house helped paint
N1 N2 V1 V2
we helped Hans paint the house
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 65: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/65.jpg)
Lo que Vemos Hoy
I Las Tareas Basicas de GLN
I Tree Adjoining Grammars (TAG)
Capacidad Generativa Debil vs. FuerteIntroduciendo TAGPropiedades de TAG, ComplejidadLexicalizacion de Gramaticas
I TAGs y Surface Realization
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 66: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/66.jpg)
Gramaticas de Arboles
I En la discusion anterior usamos ambos L(G ) and T (G ) paradiscutir distintos aspectos del lenguaje humano.
I Como dijimos, sabemos lo que L(G ) es y solo podemosteorizar hacerca de lo que T (G ) es.
I Pero una vez que fijamos una teorıa linguıstica, intuitivamenteT (G ) es tan important o mas que L(G ).
I De alguna forma, podemos decir que L(G ) es solo el resultadode las caracterısticas de T (G ).
I Resulta entonces raro que T (G ) sea solo algo ‘derivado’ en lagramatica. Por que no tenemos gramaticas cuyo lenguaje seaT (G ).
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 67: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/67.jpg)
Gramaticas de Arboles
I En la discusion anterior usamos ambos L(G ) and T (G ) paradiscutir distintos aspectos del lenguaje humano.
I Como dijimos, sabemos lo que L(G ) es y solo podemosteorizar hacerca de lo que T (G ) es.
I Pero una vez que fijamos una teorıa linguıstica, intuitivamenteT (G ) es tan important o mas que L(G ).
I De alguna forma, podemos decir que L(G ) es solo el resultadode las caracterısticas de T (G ).
I Resulta entonces raro que T (G ) sea solo algo ‘derivado’ en lagramatica. Por que no tenemos gramaticas cuyo lenguaje seaT (G ).
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 68: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/68.jpg)
Gramaticas de Arboles
I En la discusion anterior usamos ambos L(G ) and T (G ) paradiscutir distintos aspectos del lenguaje humano.
I Como dijimos, sabemos lo que L(G ) es y solo podemosteorizar hacerca de lo que T (G ) es.
I Pero una vez que fijamos una teorıa linguıstica, intuitivamenteT (G ) es tan important o mas que L(G ).
I De alguna forma, podemos decir que L(G ) es solo el resultadode las caracterısticas de T (G ).
I Resulta entonces raro que T (G ) sea solo algo ‘derivado’ en lagramatica. Por que no tenemos gramaticas cuyo lenguaje seaT (G ).
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 69: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/69.jpg)
Gramatias de Arboles
I En vez de construir arboles usando reglas de la gramatica,representamos la regla directamente como un arbol
I Usaremos arboles elementales como unidades basicas quepueden utilizarse para reescribir no terminales en otros arboleselementales.
I La reescritura es equivalente a la expansion de un no-terminalen una gramatica libre de contexto.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 70: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/70.jpg)
Arboles Finitos Ordenadios Etiquetados
I Un arbol finito ordenado etiquetado es una estructurat = 〈Nt , /t ,≺t , Lt〉 donde
I Nt es un conjunto finito no vacıo de nodosI /t y ≺t son relaciones binarias sobre Nt , respectivamente
‘dominio’ (dominance) y ‘precedencia’ (precedence)I /t define un arbol (i.e., un unico nodo raız y todo nodo
excepto la raız tiene un unico predecesor) y ≺t define un ordentotal sobre los hijos de un nodo.
I Lt es la funcion de etiquetado, que asigna a cada nodo unconjunto de etiquetas.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 71: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/71.jpg)
Arboles Finitos Ordenadios Etiquetados
I Un arbol finito ordenado etiquetado es una estructurat = 〈Nt , /t ,≺t , Lt〉 donde
I Nt es un conjunto finito no vacıo de nodos
I /t y ≺t son relaciones binarias sobre Nt , respectivamente‘dominio’ (dominance) y ‘precedencia’ (precedence)
I /t define un arbol (i.e., un unico nodo raız y todo nodoexcepto la raız tiene un unico predecesor) y ≺t define un ordentotal sobre los hijos de un nodo.
I Lt es la funcion de etiquetado, que asigna a cada nodo unconjunto de etiquetas.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 72: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/72.jpg)
Arboles Finitos Ordenadios Etiquetados
I Un arbol finito ordenado etiquetado es una estructurat = 〈Nt , /t ,≺t , Lt〉 donde
I Nt es un conjunto finito no vacıo de nodosI /t y ≺t son relaciones binarias sobre Nt , respectivamente
‘dominio’ (dominance) y ‘precedencia’ (precedence)
I /t define un arbol (i.e., un unico nodo raız y todo nodoexcepto la raız tiene un unico predecesor) y ≺t define un ordentotal sobre los hijos de un nodo.
I Lt es la funcion de etiquetado, que asigna a cada nodo unconjunto de etiquetas.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 73: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/73.jpg)
Arboles Finitos Ordenadios Etiquetados
I Un arbol finito ordenado etiquetado es una estructurat = 〈Nt , /t ,≺t , Lt〉 donde
I Nt es un conjunto finito no vacıo de nodosI /t y ≺t son relaciones binarias sobre Nt , respectivamente
‘dominio’ (dominance) y ‘precedencia’ (precedence)I /t define un arbol (i.e., un unico nodo raız y todo nodo
excepto la raız tiene un unico predecesor) y ≺t define un ordentotal sobre los hijos de un nodo.
I Lt es la funcion de etiquetado, que asigna a cada nodo unconjunto de etiquetas.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 74: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/74.jpg)
Arboles Finitos Ordenadios Etiquetados
I Un arbol finito ordenado etiquetado es una estructurat = 〈Nt , /t ,≺t , Lt〉 donde
I Nt es un conjunto finito no vacıo de nodosI /t y ≺t son relaciones binarias sobre Nt , respectivamente
‘dominio’ (dominance) y ‘precedencia’ (precedence)I /t define un arbol (i.e., un unico nodo raız y todo nodo
excepto la raız tiene un unico predecesor) y ≺t define un ordentotal sobre los hijos de un nodo.
I Lt es la funcion de etiquetado, que asigna a cada nodo unconjunto de etiquetas.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 75: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/75.jpg)
Elementos de una TAG
Una TAG es un conjunto finito de arboles finitos ordenadosetiquetados con ciertas caracteristicas
I Tomemos dos conjuntos VN (noterminales) y VT (terminales), finitosno vacıos
I t = 〈Nt , /t ,≺t , Lt〉I Lt :
NonLeavest → VN
Leavest→VN↓, ?∪VT∪ε
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 76: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/76.jpg)
Elementos de una TAG
Una TAG es un conjunto finito de arboles finitos ordenadosetiquetados con ciertas caracteristicas
I Tomemos dos conjuntos VN (noterminales) y VT (terminales), finitosno vacıos
I t = 〈Nt , /t ,≺t , Lt〉
I Lt :NonLeavest → VN
Leavest→VN↓, ?∪VT∪ε
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 77: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/77.jpg)
Elementos de una TAG
Una TAG es un conjunto finito de arboles finitos ordenadosetiquetados con ciertas caracteristicas
I Tomemos dos conjuntos VN (noterminales) y VT (terminales), finitosno vacıos
I t = 〈Nt , /t ,≺t , Lt〉I Lt :
NonLeavest → VN
Leavest→VN↓, ?∪VT∪ε
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 78: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/78.jpg)
Elementos de una TAG
Una TAG es un conjunto finito de arboles finitos ordenadosetiquetados con ciertas caracteristicas
I Tomemos dos conjuntos VN (noterminales) y VT (terminales), finitosno vacıos
I t = 〈Nt , /t ,≺t , Lt〉I Lt :
NonLeavest → VN
Leavest→VN
↓, ?∪VT∪ε
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 79: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/79.jpg)
Elementos de una TAG
Una TAG es un conjunto finito de arboles finitos ordenadosetiquetados con ciertas caracteristicas
I Tomemos dos conjuntos VN (noterminales) y VT (terminales), finitosno vacıos
I t = 〈Nt , /t ,≺t , Lt〉I Lt :
NonLeavest → VN
Leavest→VN↓, ?
∪VT∪ε
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 80: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/80.jpg)
Elementos de una TAG
Una TAG es un conjunto finito de arboles finitos ordenadosetiquetados con ciertas caracteristicas
I Tomemos dos conjuntos VN (noterminales) y VT (terminales), finitosno vacıos
I t = 〈Nt , /t ,≺t , Lt〉I Lt :
NonLeavest → VN
Leavest→VN↓, ?∪VT
∪ε
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 81: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/81.jpg)
Elementos de una TAG
Una TAG es un conjunto finito de arboles finitos ordenadosetiquetados con ciertas caracteristicas
I Tomemos dos conjuntos VN (noterminales) y VT (terminales), finitosno vacıos
I t = 〈Nt , /t ,≺t , Lt〉I Lt :
NonLeavest → VN
Leavest→VN↓, ?∪VT∪ε
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 82: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/82.jpg)
Derivaciones en TAGI Podemos derivar nuevos arboles etiquetados mediante la
aplicacion de las operaciones de sustitucion y adjuncion.
I Usando arboles iniciales
A ∈ VN
w ∈ (VN↓ ∪ VT )+
I Y arboles auxiliares
A ∈ VN
w1,w2 ∈ (VN↓ ∪ VT )+
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 83: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/83.jpg)
Derivaciones en TAGI Podemos derivar nuevos arboles etiquetados mediante la
aplicacion de las operaciones de sustitucion y adjuncion.I Usando arboles iniciales
A ∈ VN
w ∈ (VN↓ ∪ VT )+
I Y arboles auxiliares
A ∈ VN
w1,w2 ∈ (VN↓ ∪ VT )+
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 84: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/84.jpg)
Derivaciones en TAGI Podemos derivar nuevos arboles etiquetados mediante la
aplicacion de las operaciones de sustitucion y adjuncion.I Usando arboles iniciales
A ∈ VN
w ∈ (VN↓ ∪ VT )+
I Y arboles auxiliares
A ∈ VN
w1,w2 ∈ (VN↓ ∪ VT )+
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 85: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/85.jpg)
Substitucion
From We obtain
by substitucion
Ejemplo: + ⇒
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 86: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/86.jpg)
Substitucion
From We obtain
by substitucion
Ejemplo: + ⇒
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 87: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/87.jpg)
Adjuncion
From We obtain
by adjuncion
Ejemplo: + ⇒
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 88: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/88.jpg)
Adjuncion
From We obtain
by adjuncion
Ejemplo: + ⇒
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 89: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/89.jpg)
Tree Adjoining Grammar: Definicion Formal
I Una Tree Adjoining Grammar es una tupla G = (S ,N,T , I ,A)donde
I VN es un conjunto de sımbolos no terminalesI VT es un conjunto de terminales (disjunto de N)I I es un conjunto de arboles inicialesI A es un conjunto de arboles auxiliaresI I ∪ A es el conjunto de arboles elementalesI S (start) es un arbol inicial S ∈ I
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 90: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/90.jpg)
Tree Adjoining Grammar: Definicion Formal
I Una Tree Adjoining Grammar es una tupla G = (S ,N,T , I ,A)donde
I VN es un conjunto de sımbolos no terminalesI VT es un conjunto de terminales (disjunto de N)
I I es un conjunto de arboles inicialesI A es un conjunto de arboles auxiliaresI I ∪ A es el conjunto de arboles elementalesI S (start) es un arbol inicial S ∈ I
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 91: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/91.jpg)
Tree Adjoining Grammar: Definicion Formal
I Una Tree Adjoining Grammar es una tupla G = (S ,N,T , I ,A)donde
I VN es un conjunto de sımbolos no terminalesI VT es un conjunto de terminales (disjunto de N)I I es un conjunto de arboles inicialesI A es un conjunto de arboles auxiliares
I I ∪ A es el conjunto de arboles elementalesI S (start) es un arbol inicial S ∈ I
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 92: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/92.jpg)
Tree Adjoining Grammar: Definicion Formal
I Una Tree Adjoining Grammar es una tupla G = (S ,N,T , I ,A)donde
I VN es un conjunto de sımbolos no terminalesI VT es un conjunto de terminales (disjunto de N)I I es un conjunto de arboles inicialesI A es un conjunto de arboles auxiliaresI I ∪ A es el conjunto de arboles elementales
I S (start) es un arbol inicial S ∈ I
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 93: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/93.jpg)
Tree Adjoining Grammar: Definicion Formal
I Una Tree Adjoining Grammar es una tupla G = (S ,N,T , I ,A)donde
I VN es un conjunto de sımbolos no terminalesI VT es un conjunto de terminales (disjunto de N)I I es un conjunto de arboles inicialesI A es un conjunto de arboles auxiliaresI I ∪ A es el conjunto de arboles elementalesI S (start) es un arbol inicial S ∈ I
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 94: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/94.jpg)
Ejemplo
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 95: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/95.jpg)
Lenguaje Generado por una TAG
I El lenguaje generado por una TAG:I es el conjunto de arboles que pueden obtenerse a partir del
arbol inicialI utilizando las operaciones de sustitucion y adjuncionI tales que sus hojas son todos sımbolos terminales.
I A partir del lenguaje de arboles de una TAG podemos obtenerun lenguaje de strings considerando la ‘frontera’ (?)
I Extensiones habituales:I Ciertos nodos no terminales pueden estar marcados como na
indicando que una operacion de adjuncion no puede aplicarseen ese nodo
I Ciertos nodos no terminales pueden estar marcados comopermitiendo adjunciones solo con cierto conjunto de arbolesauxiliares.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 96: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/96.jpg)
Lo que Vemos Hoy
I Las Tareas Basicas de GLN
I Tree Adjoining Grammars (TAG)
Capacidad Generativa Debil vs. FuerteIntroduciendo TAGPropiedades de TAG, ComplejidadLexicalizacion de Gramaticas
I TAGs y Surface Realization
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 97: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/97.jpg)
Tree Adjoining Grammars
I Su poder expresivo esta entre las gramaticas libres decontexto y las sensibles al contexto
I Pueden manejar todos los casos que mencionamosanteriormente de capacidad generativa debil y fuerte delenguajes naturales.
I Permite modelar facilmente casos de dependencias cruzadas yanidadas.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 98: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/98.jpg)
Dependencias Cruzadas en TAG: a2a1b2b1
G : (T = a, b, ε,N = S, I = π1,A = π2,S = π1)
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 99: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/99.jpg)
Dependencias Cruzadas en TAG
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 100: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/100.jpg)
Dependencias Anidadas en TAG: c1c2d2d1
G : (T = c , d , ε,N = S, I = γ1,A = γ2, S = γ1)
Ejercicio ver que podemos generar con una gramatica quecontenga π1, π2, γ1, y γ2?
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 101: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/101.jpg)
Dependencias Anidadas en TAG: c1c2d2d1
G : (T = c , d , ε,N = S, I = γ1,A = γ2, S = γ1)
Ejercicio ver que podemos generar con una gramatica quecontenga π1, π2, γ1, y γ2?
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 102: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/102.jpg)
Nos Ubicamos
I context-sensitive grammars:0i , i no es primo y i > 0
I indexed grammars:0n1n2n . . .mn, para cualquier m fijo y n ≥ 0
I tree-adjoining grammars (TAG):0n1n2n3n, para n ≥ 0
I context-free grammars: 0n1n para n ≥ 0
I deterministic context-free grammars:
S → ε | Sc | SA | A,A→ aSb | ab
el lenguaje de parentesis balanceados
I regular grammars: (0 | 1)∗00(0 | 1)∗
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 103: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/103.jpg)
Nos Ubicamos
I context-sensitive grammars:0i , i no es primo y i > 0
I indexed grammars:0n1n2n . . .mn, para cualquier m fijo y n ≥ 0
I tree-adjoining grammars (TAG):0n1n2n3n, para n ≥ 0
I context-free grammars: 0n1n para n ≥ 0
I deterministic context-free grammars:
S → ε | Sc | SA | A,A→ aSb | ab
el lenguaje de parentesis balanceados
I regular grammars: (0 | 1)∗00(0 | 1)∗
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 104: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/104.jpg)
Nos Ubicamos
I context-sensitive grammars:0i , i no es primo y i > 0
I indexed grammars:0n1n2n . . .mn, para cualquier m fijo y n ≥ 0
I tree-adjoining grammars (TAG):0n1n2n3n, para n ≥ 0
I context-free grammars: 0n1n para n ≥ 0
I deterministic context-free grammars:
S → ε | Sc | SA | A,A→ aSb | ab
el lenguaje de parentesis balanceados
I regular grammars: (0 | 1)∗00(0 | 1)∗
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 105: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/105.jpg)
Nos Ubicamos
I context-sensitive grammars:0i , i no es primo y i > 0
I indexed grammars:0n1n2n . . .mn, para cualquier m fijo y n ≥ 0
I tree-adjoining grammars (TAG):0n1n2n3n, para n ≥ 0
I context-free grammars: 0n1n para n ≥ 0
I deterministic context-free grammars:
S → ε | Sc | SA | A,A→ aSb | ab
el lenguaje de parentesis balanceados
I regular grammars: (0 | 1)∗00(0 | 1)∗
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 106: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/106.jpg)
Nos Ubicamos
I context-sensitive grammars:0i , i no es primo y i > 0
I indexed grammars:0n1n2n . . .mn, para cualquier m fijo y n ≥ 0
I tree-adjoining grammars (TAG):0n1n2n3n, para n ≥ 0
I context-free grammars: 0n1n para n ≥ 0
I deterministic context-free grammars:
S → ε | Sc | SA | A,A→ aSb | ab
el lenguaje de parentesis balanceados
I regular grammars: (0 | 1)∗00(0 | 1)∗
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 107: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/107.jpg)
Nos Ubicamos
I context-sensitive grammars:0i , i no es primo y i > 0
I indexed grammars:0n1n2n . . .mn, para cualquier m fijo y n ≥ 0
I tree-adjoining grammars (TAG):0n1n2n3n, para n ≥ 0
I context-free grammars: 0n1n para n ≥ 0
I deterministic context-free grammars:
S → ε | Sc | SA | A,A→ aSb | ab
el lenguaje de parentesis balanceados
I regular grammars: (0 | 1)∗00(0 | 1)∗
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 108: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/108.jpg)
Nos Ubicamos
TAG esta entre CSL y CFG: puede ser reconocido en tiempopolinomial y puede representar dependencias cruzadas.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 109: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/109.jpg)
Complejidad
Problema: Dada una gramatica G y un input x , determinarx ∈ L(G )
I unrestricted: indecidible
I context-sensitive: NSPACE[n] – linear non-deterministic space
I indexed grammars: NP-Complete
I tree-adjoining grammars (TAG): O(n6)
I context-free: O(n3)
I deterministic context-free: O(n)
I regular grammars: O(n)
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 110: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/110.jpg)
Complejidad
Problema: Dada una gramatica G y un input x , determinarx ∈ L(G )
I unrestricted: indecidible
I context-sensitive: NSPACE[n] – linear non-deterministic space
I indexed grammars: NP-Complete
I tree-adjoining grammars (TAG): O(n6)
I context-free: O(n3)
I deterministic context-free: O(n)
I regular grammars: O(n)
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 111: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/111.jpg)
Complejidad
Problema: Dada una gramatica G y un input x , determinarx ∈ L(G )
I unrestricted: indecidible
I context-sensitive: NSPACE[n] – linear non-deterministic space
I indexed grammars: NP-Complete
I tree-adjoining grammars (TAG): O(n6)
I context-free: O(n3)
I deterministic context-free: O(n)
I regular grammars: O(n)
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 112: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/112.jpg)
Complejidad
Problema: Dada una gramatica G y un input x , determinarx ∈ L(G )
I unrestricted: indecidible
I context-sensitive: NSPACE[n] – linear non-deterministic space
I indexed grammars: NP-Complete
I tree-adjoining grammars (TAG): O(n6)
I context-free: O(n3)
I deterministic context-free: O(n)
I regular grammars: O(n)
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 113: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/113.jpg)
Complejidad
Problema: Dada una gramatica G y un input x , determinarx ∈ L(G )
I unrestricted: indecidible
I context-sensitive: NSPACE[n] – linear non-deterministic space
I indexed grammars: NP-Complete
I tree-adjoining grammars (TAG): O(n6)
I context-free: O(n3)
I deterministic context-free: O(n)
I regular grammars: O(n)
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 114: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/114.jpg)
Complejidad
Problema: Dada una gramatica G y un input x , determinarx ∈ L(G )
I unrestricted: indecidible
I context-sensitive: NSPACE[n] – linear non-deterministic space
I indexed grammars: NP-Complete
I tree-adjoining grammars (TAG): O(n6)
I context-free: O(n3)
I deterministic context-free: O(n)
I regular grammars: O(n)
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 115: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/115.jpg)
Complejidad
Problema: Dada una gramatica G y un input x , determinarx ∈ L(G )
I unrestricted: indecidible
I context-sensitive: NSPACE[n] – linear non-deterministic space
I indexed grammars: NP-Complete
I tree-adjoining grammars (TAG): O(n6)
I context-free: O(n3)
I deterministic context-free: O(n)
I regular grammars: O(n)
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 116: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/116.jpg)
Propiedades de TAG
I Pertenencia esta en P (como dijimos es O(n6))
I TALs (los lenguajes de string obtenidos mediante TAGs) estancerrados por union, concatenacion, clausura de Kleene, h,h−1, interseccion con RLs
I TALs no estan cerrados bajo interseccion, interseccion conCFLs ni complementacion
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 117: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/117.jpg)
Propiedades de TAG
I Pertenencia esta en P (como dijimos es O(n6))
I TALs (los lenguajes de string obtenidos mediante TAGs) estancerrados por union, concatenacion, clausura de Kleene, h,h−1, interseccion con RLs
I TALs no estan cerrados bajo interseccion, interseccion conCFLs ni complementacion
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 118: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/118.jpg)
Propiedades de TAG
I Pertenencia esta en P (como dijimos es O(n6))
I TALs (los lenguajes de string obtenidos mediante TAGs) estancerrados por union, concatenacion, clausura de Kleene, h,h−1, interseccion con RLs
I TALs no estan cerrados bajo interseccion, interseccion conCFLs ni complementacion
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 119: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/119.jpg)
Formalismos Gramaticales Restringidos
I Por que nos interesa definir el formalismo gramatical masrestringido que nos permita modelar lenguaje natural?
I Y si no nos importa el costo computacional?
I Por ejemplo, un linguısta podrıa usar el formalismo masgeneral posible para analysar un lengauje, sin preocuparse de‘cuanto cuesta’ computar ese modelo.Si fuera necesario, podrıamos despues ver si podemos traducir(‘implementar’) ese modelo a un formalismocomputacionalmente eficiente.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 120: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/120.jpg)
Formalismos Gramaticales Restringidos
I Por que nos interesa definir el formalismo gramatical masrestringido que nos permita modelar lenguaje natural?
I Y si no nos importa el costo computacional?
I Por ejemplo, un linguısta podrıa usar el formalismo masgeneral posible para analysar un lengauje, sin preocuparse de‘cuanto cuesta’ computar ese modelo.
Si fuera necesario, podrıamos despues ver si podemos traducir(‘implementar’) ese modelo a un formalismocomputacionalmente eficiente.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 121: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/121.jpg)
Formalismos Gramaticales Restringidos
I Por que nos interesa definir el formalismo gramatical masrestringido que nos permita modelar lenguaje natural?
I Y si no nos importa el costo computacional?
I Por ejemplo, un linguısta podrıa usar el formalismo masgeneral posible para analysar un lengauje, sin preocuparse de‘cuanto cuesta’ computar ese modelo.Si fuera necesario, podrıamos despues ver si podemos traducir(‘implementar’) ese modelo a un formalismocomputacionalmente eficiente.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 122: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/122.jpg)
Formalismos Gramaticales Restringidos
I En algunos casos, el formalismo gramatical nos puede ayudarproveyendo restricciones de que puede o no pasar.
I Si el formalismo esta cercano a como producimos el lenguaje,el mismo formalismo nos da pistas de como modelar ciertofenomeno.
I En otras palabras, un modelo erroneo deberıa ser mas dıficilde escribir en un formalismo gramatical restringido, siempre ycuando ese formalismo este proximo a LA VERDAD.
I En otras, otras palabras, en un formalismo flexible es facilescribir tanto modelos correctos como incorrectos.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 123: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/123.jpg)
Lo que Vemos Hoy
I Las Tareas Basicas de GLN
I Tree Adjoining Grammars (TAG)
Capacidad Generativa Debil vs. FuerteIntroduciendo TAGPropiedades de TAG, ComplejidadLexicalizacion de Gramaticas
I TAGs y Surface Realization
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 124: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/124.jpg)
Gramaticas Lexicas
I Decimos que una gramatica G esta lexicalizada si cada reglade G contiene un terminal.
I Este tipo de gramaticas son especialmente utiles para parsingI al observar un terminal en el string a parsear podemos
directamente restringir el conjunto de reglas de la gramaticaque pueden usarse para cubrirlo
I Pregunta: Dada una gramatica arbitraria G , es posibleencontrar una gramatica G ′ lexicalizada tal queL(G ) = L(G ′)?
I Si G es una CFG la respuesta es afirmativa: usar la FormaNormal de Griebach
Toda CFG puede ser reescrita de forma que susreglas sean del tipo A→ aα donde a es un terminal.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 125: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/125.jpg)
Gramaticas Lexicas
I Decimos que una gramatica G esta lexicalizada si cada reglade G contiene un terminal.
I Este tipo de gramaticas son especialmente utiles para parsingI al observar un terminal en el string a parsear podemos
directamente restringir el conjunto de reglas de la gramaticaque pueden usarse para cubrirlo
I Pregunta: Dada una gramatica arbitraria G , es posibleencontrar una gramatica G ′ lexicalizada tal queL(G ) = L(G ′)?
I Si G es una CFG la respuesta es afirmativa: usar la FormaNormal de Griebach
Toda CFG puede ser reescrita de forma que susreglas sean del tipo A→ aα donde a es un terminal.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 126: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/126.jpg)
Gramaticas Lexicas
I Decimos que una gramatica G esta lexicalizada si cada reglade G contiene un terminal.
I Este tipo de gramaticas son especialmente utiles para parsingI al observar un terminal en el string a parsear podemos
directamente restringir el conjunto de reglas de la gramaticaque pueden usarse para cubrirlo
I Pregunta: Dada una gramatica arbitraria G , es posibleencontrar una gramatica G ′ lexicalizada tal queL(G ) = L(G ′)?
I Si G es una CFG la respuesta es afirmativa: usar la FormaNormal de Griebach
Toda CFG puede ser reescrita de forma que susreglas sean del tipo A→ aα donde a es un terminal.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 127: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/127.jpg)
Lexicalizacion de TAGs
I (Joshi and Schabes, 1997) muestran que TALs estas cerradasbajo lexicalizacion:
toda TAL tiene una TAG lexicalizada que genera elmismo lenguaje.
I La idea de lexicalizacion es atractiva desde varias perspectivasI sintaxisI semantica (en Linguıstica)I procesamiento y produccıon (en psicolinguıstica)
I Intuitivamente, lo que estamos diciendo es que cada palabracodifica un entorno local de restricciones sintacticas ysemanticas.
I Muchos consideran esta intuicion acertada y una TAG pareceparticularmente apropiada para capturarla.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 128: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/128.jpg)
Lexicalizacion de TAGs
I (Joshi and Schabes, 1997) muestran que TALs estas cerradasbajo lexicalizacion:
toda TAL tiene una TAG lexicalizada que genera elmismo lenguaje.
I La idea de lexicalizacion es atractiva desde varias perspectivasI sintaxisI semantica (en Linguıstica)I procesamiento y produccıon (en psicolinguıstica)
I Intuitivamente, lo que estamos diciendo es que cada palabracodifica un entorno local de restricciones sintacticas ysemanticas.
I Muchos consideran esta intuicion acertada y una TAG pareceparticularmente apropiada para capturarla.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 129: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/129.jpg)
Lexicalizacion de TAGs
I (Joshi and Schabes, 1997) muestran que TALs estas cerradasbajo lexicalizacion:
toda TAL tiene una TAG lexicalizada que genera elmismo lenguaje.
I La idea de lexicalizacion es atractiva desde varias perspectivasI sintaxisI semantica (en Linguıstica)I procesamiento y produccıon (en psicolinguıstica)
I Intuitivamente, lo que estamos diciendo es que cada palabracodifica un entorno local de restricciones sintacticas ysemanticas.
I Muchos consideran esta intuicion acertada y una TAG pareceparticularmente apropiada para capturarla.
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 130: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/130.jpg)
Ejemplo: TAG Lexica
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 131: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/131.jpg)
Ejemplo: TAG Lexica
Areces & Benotti: GLN y Aplicaciones INRIA / UNC
![Page 132: Generación de Lenguaje Natural y Aplicacionesglyc.dc.uba.ar/elic2010/elic10-2.pdf · Areces & Benotti: GLN y Aplicaciones INRIA / UNC. Un Mensaje por Sentencia I El resultado ser](https://reader034.fdocuments.mx/reader034/viewer/2022043007/5f94c9a7e02e133f8f179e28/html5/thumbnails/132.jpg)
Ejemplo: TAG Lexica
Areces & Benotti: GLN y Aplicaciones INRIA / UNC