Archive for the ‘Artículos’ Category

h1

Romania Nova VII

17 noviembre 2014

Está muy cerca la VII edición del Workshop Romania Nova. Esta vez, el encuentro se realiza en el Museo de la Lengua, en la Ciudad de Buenos Aires. El Workshop pretende ser un espacio de intercambio para aquellos lingüistas y filólogos interesados en el estudio comparativo de las variedades americanas de las lenguas romances.

El libro de resúmenes del encuentro puede ser descargado aquí.

El siguiente es el programa del evento.

26.11 – MIÉRCOLES / QUARTA-FEIRA / WEDNESDAY
8:30 – 9:00
Acreditación / Acreditação / Registration
9:00 – 9:30
Inauguración / Inauguração / Opening remarks
9:30 – 10:00
Poliana Rabelo (Universidade de Brasília). A categoria de pessoa no português do Brasil (PB): indícios de cisão
10:00 – 10:30
Humberto Borges (Universidade de Brasília). A emergência da gramática do português brasileiro em goiás
10:30 – 11:00
Humberto Soares da Silva & Juliana Esposito Marins (Universidade Federal do Rio de Janeiro). O preenchimento da posição de sujeito com verbos que não selecionam argumento externo
11:00 – 11:30
Café / Coffee break
11:30 – 12:00
Diego Estomba (Universidad Nacional del Comahue). Sintagma de número sin flexión de número: un análisis del haitiano
12:00 – 12:30
Alicia Avellana (Universidad de Buenos Aires/ CONICET) & Laura Kornfeld (Universidad de Buenos Aires/ Universidad de General Sarmiento/ CONICET). ¿Quién piko lo que entiende este trabajo? Estructuras focales en el español en contacto con guaraní
12:30 – 13:00
María Mare (Universidad Nacional del Comahue/ CONICET). De posesivos y otros demonios en el español de América
13:00 – 14:30
Almuerzo / Almoço / Lunch
14:30 – 15:30
EXPOSITOR INVITADO / ORADOR CONVIDADO / INVITED SPEAKER: Jairo Nunes
15:30 – 16:00
Cristina Schmitt (MSU) & Charlotte Galves (Unicamp). Avaliando propostas sincrônicas a luz da diacronia: o caso dos nomes nus no Português Brasileiro e no Português Europeu
16:00 – 16:30
Inés Kuguel (Universidad de General Sarmiento) & Carolina Oggiani (CONICET). Sintagmas preposicionales escuetos en las variedades rioplatenses del español
16:30 – 17:00
María Teresa Espinal (UAB) & Sonia Cyrino (UNICAMP). On overt/null determiners in Romance: the case of weak and expletive definites in Spanish, Catalan and Brazilian Portuguese
17:00 – 17:30
Café / Coffee Break
17:30 – 18:00
Maria Cristina Figueiredo Silva (UFPR/CNPq) & Sérgio de Moura Menuzzi (UFRGS/CNPq). Sobre o uso de sentenças clivadas como resposta para perguntas WH
18:00 – 18:30
João Costa*, Elaine Grolla** & Maria Lobo* (*CLUNL/FCSH – Universidade Nova de Lisboa, **Universidade de São Paulo). The acquisition of syntactic microvariation in silent categories
18:30 – 19:00
Maria Eugenia Lammoglia Duarte & Mayara Nicolau de Paula (Universidade Federal do Rio de Janeiro). Wh-questions in European and Brazilian Portuguese
=-=-=-=-=-=-=-=-=-=
27.11 – JUEVES / QUINTA-FEIRA / THURSDAY
9:00 – 9:30
Pascual Masullo (Universidad Nacional de Río Negro). A vacuous split between reference and predication in Argentinian Spanish
9:30 – 10:00
María Eugenia Mangialavori (Universidad Nacional de Rosario-CONICET) & Rafael Marin (CNRS (UMR 8163) – Université Lille 3). ‘Hasta el moño’. Boundedness and (non)directionality following from estar´s Semantic structure.
10:00 – 10:30
Esthela Treviño (UAM-Iztapalapa). De Comp a Evid: ‘que’ en el Español Mexicano
10:30 – 11:00
Café/ Coffee break
11:00 – 11:30
Laura Kornfeld (Universidad de Buenos Aires / Universidad de General Sarmiento / CONICET). ‘Dale nomás…’ Misterios y revelaciones de un clásico argentino
11:30 – 12:00
Gabriela Resnik (Universidad Nacional de General Sarmiento). La gramática de los nombres de tratamiento en español rioplatense
12:00 – 12:30
Mercedes Pujalte (Universidad de General Sarmiento). Propiedades del incremento de la valencia argumental de los verbos intransitivos en el español del Río de la Plata
12:30 – 14:00
Almuerzo / Almoço / Lunch
14:00 – 15:00
Expositora invitada/ Invited Speaker: Ángela Di Tullio
15:00 – 15:30
Maria Aparecida Torres Morais (USP). Definite articles and possessives: a microcomparative perspective
15:30 – 16:00
Sabrina Grimberg (Universidad de Buenos Aires). Spanish possessives as phases: on tus amigos, estos mis amigos and sus amigos de ellos
16:00 – 16:30
Bruna Pereira (UFVJM). “Eu quero uma resposta suas”: o possessivo em [d[cp]]
16:30 – 17:00
Café / Coffee Break
17:00 – 17:30
Silvina Montrul (University of Illinois at Urbana-Champaign). Differential Object Marking in Spanish and Romanian in the United States
17:30 – 18:00
Chiyo Nishida (University of Texas at Austin). IO realization variation in Spanish gustar-type verb constructions: a corpus-based study
18:00 – 18:30
Liliana Sánchez (Rutgers University) & Pablo Zdrojewski (Universidad Nacional de General Sarmiento / Universidad de Buenos Aires). Notas sobre la variación en el orden VOS en el español
=-=-=-=-=-=-=-=-=-=
28.11 – VIERNES / SEXTA-FEIRA / FRIDAY
9:00 – 9:30
Cristina Prim (Unicamp). A relação entre determinantes e movimento dos adjetivos
9:30 – 10:00
Eloisa Pilati (UnB), Rozana Naves (UnB) & Marcus Lunguinho (FAJESU). Ordem verbo-sujeito, inversão locativa e o estatuto sintático dos elementos locativos: análises para o português brasileiro e para o italiano
10:00 – 10:30
Lílian Teixeira de Sousa (Unicamp). As múltiplas negações sentenciais no Português Brasileiro: de denegação a negação semântica
10:30 – 11:00
Café / Coffee break
11:00 – 11:30
Francisco Ordóñez (Stony Brook University) & Andrés Saab (CONICET-UBA). Parameters in causatives, doubling and DOM in Peninsular Spanish and Río de la Plata Spanish
11:30 – 12:00
Aquiles Tescari Neto (Unicamp/FAPESP / UFRJ). A hierarquia dos advérbios focalizadores e a Cartografia das estruturas sintáticas
12:00 – 13:00
CONFERENCIA DE CIERRE / CONFERÊNCIA FINAL / FINAL CONFERENCE: Mary Kato
h1

Sobre “On Recursion”

14 enero 2014

El ya clásico trabajo de Hauser, Chomsky y Fitch (2002) postula la diferencia entre los componentes del lenguaje que son comunes a más de un sistema cognitivo (Lenguaje en Sentido Amplio, LSA) y aquellos que son exclusivos de la Facultad Humana del Lenguaje (Lenguaje en Sentido Estricto, LSE). Como recordarán, el artículo propone como tesis que la única capacidad que forma parte del LSE es la Recursión. Curiosamente, tan importante propiedad no recibe definición alguna: el término “recursión” es mencionado 16 veces a lo largo del artículo, pero lo más cercano a una definición que se brinda es la sugerencia de que dicho mecanismo es el que habilita la infinitud discreta del lenguaje, “the capacity to generate an infinite range of expressions from a finite set of elements”. Esta falta de explicitud llevo a varios problemas y discusiones a lo largo de los años: a que se confunda la recursión con la posibilidad de tener subordinación, a que se diga que hay otras especies animales que tienen sistemas de comunicación recursivos, etc.

Felizmente, un paper reciente procura aclarar estas y otras confusiones al dar una definición explícita de RecursiónWatumull, Hauser, Roberts y Hornstein (2014) definen recursión a partir de tres principios: computabilidad (computability), inducción (induction) e irrestricción (unboundedness).

La computabilidad hace referencia al carácter intensional del LSE. Se trata de un procedimiento generativo de funcionamiento equiparable al de una Máquina de Turing:

In a stepwise process analogous to proof construction, the machine deterministically generates outputs (analogous to theorems) given inputs (which, with initial conditions, form a set analogous to axioms) by returning —recursing— intermediate results (analogous to lines or lemmas) according to its programmed rules.

La idea es bastante conocida, a pesar de la oscuridad aparente del párrafo citado: la sintaxis es una función computable que dado ciertos elementos (ítems léxicos) puede generar ciertos conjuntos de oraciones (e.g. la sintaxis del español genera el conjunto infinito de oraciones del español a partir del conjunto finito de ítems léxicos del español).

La inducción refiere a la estructuralidad de los outputs del LSE. Es una noción similar a la de recursión en el sentido de Gödel:

a number theoretic function φ is said to be recursive if there is a finite sequence of number-theoretic functions φ1, φ2, …, φn that ends with φ and has the property that every function φn of the sequence is recursively defined in terms of […] preceding functions.

Este párrafo refiere a que la generación de una estructura sintáctica se da constituyente inmediato por constituyente inmediato. Cada uno de los sintagmas que componen una oración es el producto resultante de un mismo proceso generativo (en términos de Chomsky 1995, la operación Merge).

Por último, la noción de irrestricción pretende explicitar cómo debe ser entendida la idea de que una lengua es un conjunto infinito de oraciones. Algunos críticos (se me viene a la cabeza Postal, entre otros. Ver aquí) señalan que es absurdo decir que el lenguaje es un fenómeno de la mente-cerebro y sostener al mismo tiempo que el lenguaje puede generar infinitas oraciones: nadie puede generar infinitas oraciones. La respuesta es bastante simple: la naturaleza del LSE es intensional y finita, si bien el conjunto que define es infinito. En palabras de los autores: finite brains running in finite time literally do generate infinite sets.

Esta nueva definición tripartita de recursión, si bien no dice nada que no esté presente tácitamente en el razonamiento lingüístico general, promete generar bastante debate. Algo ya se está discutiendo en el post correspondiente del blog Faculty of Language.

 

h1

Esa aplicación de moda: what would I Say?

16 noviembre 2013

Como muchos sabrán, what would I say? es un una aplicación de Facebook que toma el historial de posteos de un usuario y genera posibles frases que podría llegar a decir ese usuario.

whatwould

Es divertido porque genera cosas que pueden ser consideradas “poéticas” (uso la palabra, aunque no comparto la idea: pobres poetas). Algunos ejemplos podrían ser:

vine de conocer un mensaje sarcástico

me vio en estado y quise al ferrocarril

Uno de los mayores problemas de ser lingüista es que uno tiene la rara tendencia de detenerse a pensar cómo funcionan estas cosas. Lo primero que pensé fue “hay que crear una cuenta de Facebook falsa, postear sólo dos oraciones (i.e., un par mínimo) y ver qué cosas puede generar a partir de eso”. (Sí, lo sé: soy un idiota). Como tampoco es que esto me obsesionaba demasiado, decidí no hacerlo.

Lo segundo que supuse fue “bueno, esta cosa claramente genera oraciones bastante aceptables, así que además de incluir un mecanismo de tipo markoviano (un robot que computa las relaciones de adyacencia entre las palabras) enriquecido con algún tipo de programita estadístico, también tiene que tener algún tipo de información sobre estructuras sintácticas recurrentes”. Esta segunda idea era más fácil de verificar: me puse a ver en los posteos de los bots de mis conocidos si era posible reconocer algún tipo de “molde general” para las oraciones. No encontré exactamente eso, pero me pareció ver ciertas regularidades: (i) casi no hay construcciones nominales mal formadas, (ii) casi todos los modificadores de tipo circunstancial (adjuntos) están mal usados, (iii) por lo general, los argumentos de los verbos son incorrectos en términos semánticos (e.g., *comer una casa, *ver una canción). A partir de estos datos (?), mi hipótesis fue que la aplicación tiene información sobre cómo reconocer el verbo de una oración y sus argumentos directos (i.e., sujeto y objeto). Esto es relativamente “fácil” para el inglés o el español que tienen un orden de palabras Sujeto-Verbo-Objeto. Los circunstanciales, en cambio, se reconocerían por el uso de comas. En definitiva, lo que haría el programa es combinar aleatoriamente cosas que reconoce como sujetos, objetos, verbos y circunstanciales. Dado que no hay una verdadera gramática detrás del programita (Chomsky demostró hace 60 años que los mecanismos markovianos son insuficientes como para capturar el fenómeno sintáctico), algunas oraciones mal formadas son esperables.

(Nótese que yo estaba sobreestimando muchísimo la precisión sintáctica de la aplicación. Esto se debe a que estaba omitiendo algo bastante evidente: que la gente postea sólo aquellos estados con oraciones más o menos bien formadas. Seguramente, hay muchos mensajes agramaticales generados por el programa que son descartados por los usuarios. En otras palabras, el mini corpus con el que trabajé estaba muy filtrado por auténticos hablantes).

Se me ocurrió, finalmente, ver si en alguna parte había información sobre el funcionamiento del programa (algo que debería habérseme ocurrido antes de hipotetizar cualquier cosa). Sus creadores son bastante explícitos con respecto al mecanismo utilizado:

Technically speaking, it trains a Markov Bot based on mixture model of bigram and unigram probabilities derived from your past post history.

Básicamente, lo que dice ahí es que el programa no tiene ningún tipo de información lingüística previa (como yo había supuesto erróneamente), sino que simplemente repite patrones recurrentes. Lo de unigram y bigram refiere a cuantas palabras por delante de la que se está computando registra el programa. Por ejemplo, para una frase como el lindo día y con respecto al artículo el, un unigrama registra la aparición de lindo delante de el, mientras que un bigrama registra la aparición del par ordenado <lindo, día> delante de el. En otras palabras, lo que hace el programa es aprenderse qué palabra o par de palabras usa un usuario después de una determinada palabra. Por ejemplo, el programa sabe que “casi todas las oraciones” empiezan por un artículo (e.g., “el libro que leí”, “las vacaciones te hacen bien”), por lo que seguramente empiece la oración con un artículo. Después del artículo, se fija cuál es la palabra o par de palabras que más frecuentemente aparecen en co-ocurrencia con ese artículo. Y así va generando frases, palabra a palabra. Es necesario, además, que el programita vaya armando lista de tipos de constituyentes que reconoce (el término técnico es clusters), para (i) no generar siempre las mismas oraciones y (ii) no tener que calcular toda la estadística de los patrones lingüísticos cada vez que se le pide que genere un nuevo posteo.

En fin, terminó resultando que el funcionamiento del programa era bastante aburrido desde un punto de vista lingüístico… Pero al menos no necesito escribir ningún tipo de conclusión para todo esto: tengo un viejo chiste de xkcd que resulta más que elocuente.

computational_linguists

h1

Subextraction by Szyslak (1997) Revisited (o sobre cómo un capítulo de Los Simpsons me llevó a un divague sobre la Condición de Ciclo Estricto)

21 julio 2013

El capítulo de Los Simpsons titulado “Un milagro en la avenida Siempreviva” (S9E10) está lejos de ser uno de mis favoritos. De hecho, creo que es el capítulo que marca la frontera entre los grandes clásicos de la serie y los capítulos que no le gustan a nadie (e.g., el capítulo siguiente, “Todos cantan todos bailan”, es una compilación de musicales. Puaj). Sin embargo, en este episodio se encuentra uno de los gags más festejados por la comunidad lingüística (?): Moe Szyslak, el bizarro dueño del bar, un tipo con una historia sórdida, metido en la trata ilegal de animales y personas, un ser de carácter totalmente desagradable y despreciable, le dice a Homero:

(1) *You know what I blame this on the breakdown of? Society.

Si le preguntan a cualquier hablante nativo de inglés, esto es totalmente imposible de decir. En el doblaje mexicano el chiste se pierde (los traductores arreglaron el “error”, por lo que si ven el capítulo el gag no aparece), pero la oración original es fácilmente adaptable al español. Sería una ensalada de palabras como la siguiente:

(2) *¿Sabés de qué responsabilizo a esto por la caída? De la sociedad.

La idea es que De la sociedad funciona (o debería funcionar) como respuesta a lo que está en negrita dentro de la pregunta. Que esto no se pueda decir es llamativo. Veamos por qué. La forma activa (i.e., aseverativa) de esa pregunta es algo así como lo siguiente:

(3) (Vos) sabés que responsabilizo a esto por la caída de la sociedad.

Lo que es perfectamente correcto en español. Lo mismo se da si preguntamos por otras partes de esta oración:

(4) ¿Sabés a qué responsabilizo por la caída de la sociedad? A esto.

(5) ¿Sabés por qué (cosa) responsabilizo a esto? Por la caída de la sociedad.

Hay tres preguntas que cabe hacerse con respecto a las oraciones de (2), (4) y (5):

  1. ¿Qué tiene de distinto de la sociedad con respecto a a esto y a por la caída de la sociedad?
  2. ¿ Qué tipo de principio lingüístico restringe la formación de preguntas con constituyentes del tipo de de la sociedad?
  3. ¿De dónde sale ese principio lingüístico?

Analicemos algunas posibles respuestas a estas preguntas.

La primera pregunta es fácil de responder a simple vista: de la sociedad está “metido adentro” de por la caída de la sociedad. La sintaxis de las lenguas naturales funciona como las muñecas rusas: vamos metiendo frases dentro de otras frases, y esas frases dentro de otras frases más grandes. Generalmente se asume que el proceso por el que surgen estas estructuras se da “de abajo hacia arriba”. O sea que primero tenemos lo que está “más adentro” de la frase y le vamos agregando de a poco varias capas. Para el caso de por la caída de la sociedad sería algo así:

  • P1. Primero se combinan la y sociedad: [la sociedad]
  • P2. Luego se combinan de y [la sociedad]: [de [la sociedad]]
  • P3. Después, todo esto se combina con caída: [caída [de [la sociedad]]]
  • P4. Ese bodoque se combina con la: [la [caída [de [la sociedad]]]]
  • P5. Y, por último, se combina por: [por [la [caída [de [la sociedad]]]]]

A partir de esto se puede empezar a ofrecer una respuesta para la segunda pregunta. Dado que la sintaxis de las lenguas naturales opera paso a paso, operación por operación, es posible suponer que en un determinado momento de la generación de una pregunta se aplica una regla de, digamos, formación de estructura interrogativa. Dicha regla diría algo así como “tome el constituyente por el que usted desea preguntar, cámbielo por un pronombre interrogativo y póngalo a la izquierda del verbo”. Un ejemplo:

  • Estructura base: [Llegó la abuela]
  • Inserción de pronombre interrogativo: [Llegó quién]
  • Movimiento del pronombre a la izquierda: [¿Quién llegó?]

Si la regla de formación de estructura interrogativa es de la misma naturaleza que las reglas combinatorias ejemplificadas para formar por la caída de la sociedad, entonces dicha operación debe aplicarse sobre el producto de las operaciones sintácticas previas (e.g., en el caso de por la caída de la sociedad, la regla combinatoria que se aplica en el paso P3 se aplica necesariamente sobre el constituyente formado en el paso P2). En otras palabras, la idea es que la regla de formación de interrogativas no puede manipular cualquier constituyente de la oración, sino sólo aquellos que le sean accesibles por haber sido generados por una regla inmediatamente anterior. Entonces, si asumimos que la regla de formación de interrogativas se forma en el paso P6, posterior a P5, dicha regla no puede acceder a la información del constituyente de la sociedad por ser este visible sólo en el paso P3. En definitiva, la explicación por la que la oración de (2) es agramatical recae, entonces, sobre la naturaleza cíclica del sistema sintáctico.

Con respecto a la tercera pregunta, cabe definir cómo es que la ciclicidad es una propiedad de la sintaxis humana. Es decir, si la sintaxis funciona cíclicamente hay que especificar a qué factor incidente en el diseño de la Facultad Lingüística se hará responsable de tal característica. Básicamente, hay tres posibilidades:

  • La sintaxis es cíclica porque en la evolución biológica de la especie humana resultó que un sistema combinatorio mental de este tipo proveía ventajas reproductivas a los individuos.
  • La sintaxis es cíclica porque los bebés/chicos infieren un algoritmo cíclico a partir de los datos lingüísticos recibidos durante los primeros años de vida.
  • La sintaxis es cíclica por alguna razón inespecífica al lenguaje, quizá se trate de una manera de ahorrar recursos cognitivos durante la generación de una oración compleja.

Definir cuál de estas posibilidades lógicas es la correcta para varias de las propiedades del lenguaje es, en cierto sentido, uno de los ejes de discusión en teoría lingüística actual. Sin embargo, es también la cuestión más difícil de zanjar. Eso, sin embargo, tal vez sea tema de otro divague…

h1

Un cambio en la marea

16 enero 2013

Me gusta entender el desarrollo de la gramática generativa como una secuencia de pequeños paradigmas cuasi-metodológicos de investigación intrínsecamente relacionados a lo largo de los años. No se trata de una división perfecta, por supuesto, pero más o menos pueden reconocerse los siguientes períodos.

(1957 a 1969) — Reglas para las gramáticas de las lenguas
(1969 a 1979) — Restringir y filtrar el poder generativo de las reglas
(1979 a 1991) — Reducir reglas y filtros a principios lingüísticos universales.
(1991 a hoy) — Una vez definidos algunos principios, procuremos entenderlos.

Si le damos una mirada al escenario más amplio de los estudios gramaticales (aunque no creo que sea mucho más amplio que esto), podemos reconocer un estadio previo lógicamente necesario.

(1916 a 1957) — Intentemos ofrecer descripciones sistemáticas de la lengua (esto puede sonar redundante).

Varias veces me han criticado por opinar que, en la actualidad, el acercamiento generativo al estudio de las gramáticas humanas es el único que tiene algo interesante que decir sobre ellas (uso el término generativo en un sentido amplio). Lo sostengo. Por mucha tinta y saliva que se pueda utilizar en argumentar lo contrario, la gramática generativa es el único marco teórico que se esfuerza por explicar las propiedades intrínsecas del sistema gramatical.

El marco ha resultado fructífero. Se han podido reconocer varias propiedades del lenguaje humano. Algunas son:

Las operaciones gramaticales son dependientes de la estructura. A cualquiera que tenga formación en lingüística esto le va a sonar obvio, pero no lo es. No cualquier cosa puede concordar con cualquier cosa, y no cualquier elemento puede moverse a cualquier parte: todo depende de la estructura en la que se encuentre. Esto es un hecho.

Las dependencias lingüísticas son locales. Minimidad relativizada, básicamente: para que haya una relación gramatical entre A y B no puede haber un elemento C entre ellos que pueda cumplir el mismo rol que A o B. Esto es cierto desde el funcionamiento de las operaciones de concordancia (gramática), hasta ciertas dependencias entre fonos (Forma Fonética) y hasta en los principios de ligamiento (Forma Lógica).

El ordenamiento de la información en la estructura oracional sigue un patrón universal. Básicamente, Cinque. La idea es que parece haber un ordenamiento universal del tipo de información contenida en una estructura gramatical. No copio la estructura porque es un poquito larga…

Hay varias observaciones más de este tipo, y otros cientos de teorías que permiten explicar patrones lingüísticos en lenguas totalmente inconexas. En fin, el tema es que hay ciertas cuestiones que han salido a la luz en los estudios gramaticales en los últimos años y que son generalizaciones sumamente importantes sobre como funciona el lenguaje humano. O sea, son descubrimientos importantes en el marco general de la ciencia moderna. Hay, sin embargo, un problema: ¿alguien se entera de estos descubrimientos? ¿qué hacemos los lingüistas para estos descubrimientos lleguen al gran público?

Hace un par de semanas, David Pesetsky presentó una plenaria en el congreso anual de la LSA en la que señalaba precisamente este problema y las implicaciones que conlleva. Resumo brevemente estos puntos a partir del ppt que usó (puede descargarse desde aquí). En un mundo ideal para los lingüistas, dice Pesetsky, esto debería haber pasado:

The Cinque hierarchy would have appeared first in Nature.

Rice’s discovery of unity-in-diversity in Athapaskan affix-ordering would have merited a front-page article in the NY Times Science section.

Merchant’s discovery of a link between preposition-stranding sluicing and its overt counterpart would have appeared in the Proceedings of the Royal Society, heralded in the press as “perhaps the final blow to an age-old debate about ellipsis”.

Legate’s discovery that the left periphery of Warlpiri looks like Rizzi’s left periphery for Italian (and Cable’s for Tlingit) would have been the topic of an hour on NPR Science Friday.

Bobaljik’s recent discoveries about comparatives and superlatives would have appeared first in Science, reported as an AP news item, and ended up as the theme for a joke by a late-night talk-show host.

Por supuesto, no vivimos en un mundo ideal para los lingüistas. De hecho, parece que vivimos en un mundo de pesadillas para los lingüistas, un mundo en el que los papers que llegan a las más importantes publicaciones son aquellas que intentan negar los descubrimientos realizados por los gramáticos. Por ejemplo, Frank, Bod y Christiansen (2012) señalan que

It is generally assumed that hierarchical phrase structure plays a central role in human language. However, considerations of simplicity and evolutionary continuity suggest that hierarchical structure should not be invoked too hastily. Indeed, recent neurophysiological, behavioural and computational studies show that sequential sentence structure has considerable explanatory power and that hierarchical processing is often not involved. In this paper, we review evidence from the recent literature supporting the hypothesis that sequential structure may be fundamental to the comprehension, production and acquisition of human language. Moreover, we provide a preliminary sketch outlining a non-hierarchical model of language use and discuss its implications and testable predictions. If linguistic phenomena can be explained by sequential rather than hierarchical structure, this will have considerable impact in a wide range of fields, such as linguistics, ethology, cognitive neuroscience, psychology and computer science.

Un fragmento del artículo que parece haber molestado especialmente a Pesetsky (y que en realidad molestaría a cualquier lingüista con dos dedos de frente):

the practice of analysing sentences in terms of deep hierarchical structures is still part and parcel of linguistic theory. In this paper, we question this practice, not so much for language analysis but for the description of language use. We argue that hierarchical structure is rarely (if ever) needed to explain how language is used in practice.

O sea: no importa que el resultado necesario de décadas de estudio lingüístico sea que las oraciones del lenguaje natural tienen estructura interna, sino que en el uso del lenguaje esta propiedad se ve poco. Esta proclama equivale teóricamente a decir algo así como “no es que el agua no se componga de dos átomos de hidrógeno y uno de oxígeno, sino que eso no se evidencia cuando alguien tiene sed”. No voy a entrar en detalles sobre cuales son las motivaciones (bastante básicas) de por qué es necesario asumir un ordenamiento jerárquico para los sintagmas ya que lo básico está en cualquier buen manual de gramática de los últimos 50 años.

Otro artículo crítico hacia los estudios gramaticales que apareció en una publicación importante es el de Evans y Levinson (2009) sobre los universales lingüísticos. Hace poco tuve oportunidad de leerlo nuevamente y concuerdo con las observaciones de numerosos especialistas: el artículo hace agua por todas partes. Particularmente, a mí me llamó la atención el análisis que hacen sobre una estructura en particular: ellos están discutiendo que los modelos teóricos como la gramática generativa hacen demasiado hincapié en la estructura de constituyentes de los sintagmas, cuando hay lenguas que, se supone, no obedecen estructura de constituyentes sino que hacen uso de dependencias discontinuas.

Example (15) illustrates a discontinuous sequence of words in Thalanyji, which would correspond to a constituent in most European languages; “the woman’s dog” is grouped as a single semantic unit by sharing the accusative case.

Kupuju-lu    kaparla-nha      yanga-lkin               wartirra-ku-nha
niños-ERG   perro-ACUS      perseguir-PRES    mujer-ACUS-DAT
‘El niño persigue el perro de la mujer’.

Note how possessive modifiers – coded by a special use of the dative case – additionally pick up the case of the noun they modify, as with the accusative –nha on “dog” and “woman-Dat” in (15). In this way multiple case marking (Dench & Evans 1988) allows the grouping of elements from distinct levels of structure, such as embedded possessive phrases, even when they are not contiguous. It is this case-tagging, rather than grouping of words into constituents, which forms the basic organizational principle in many Australian languages (see Nordlinger 1998 for a formalization).

It is even possible in Jiwarli to intermingle words that in English would belong to two distinct clauses, since the case suffixes function to match up the appropriate elements. These are tagged, as it were, with instructions like “I am object of the subordinate clause verb,” or “I am a possessive modifier of an object of a main clause verb.” By fishing out these distinct cases, a hearer can discern the structure of a two-clause sentence like “the child (ERG) is chasing the dog (ACC) of the woman (DAT-ACC) who is sitting down cooking meat (DAT)” without needing to attend to the order in which words occur (Austin & Bresnan 1996). The syntactic structure here is most elegantly represented via a dependency formalism (supplemented with appropriate morphological features) rather than a constituency one. Although languages like Jiwarli have been increasingly well documented over the last forty years, syntactic theories developed in the English-speaking world have primarily focussed on constituency, no doubt because English fits this bill. In the Slavic world, by contrast, where languages like Russian have a structure much more like Jiwarli or Latin, models of syntactic relations have been largely based on dependency relations (Melcuk 1988).

El problema con la estructura que analizan Evans y Levinson es que si bien es rara para el inglés, en español (rioplatense, al menos) tenemos una estructura sumamente similar:

(15′) Los niños le persiguieron el perro a la mujer.

En esta oración, a la mujer es un aplicativo común y silvestre (creo) y la mujer recibe interpretación de poseedor del perro. El problema que señalan Evans y Levinson sólo surge si se considera que la única estructura que permite dar cuenta de un sentido posesivo es mediante una modificación de tipo “genitivo” de un nominal, pero esta claro que ese no es el único modo. Sorprende que un dato con un análisis tan obvio pueda ser considerado “demoledor”.

Ahora bien, volviendo a Pesetsky, lo que él nota es que este tipo de artículos llega a las publicaciones importantes y que, subsecuentemente, llegan a los medios masivos de comunicación gracias al llamado “periodismo científico“.

beans_string

La pregunta que se hace Pesetsky (y a la que se debe el título de la plenaria) es “¿Qué debemos hacer?“.  La respuesta es simple: educar.

Most educated people have never encountered linguistics, and have no idea what it might even mean to examine a linguistic puzzle scientifically. An undergraduate linguistics class is our counterpart to a high-school science class: we have to teach basics.

Imagine a world in which an editor for the Proceedings of the Royal Society might know enough to say: “Wait a minute, if phrase structure rules play no role in use, what does that say about condition C effects?” —because like every educated person, he studied that in high school.

Is this a hopeless goal?

Taking account of the world as it is, with all its difficulties, we must start presenting our work outside our field, taking whatever lumps come our way…

Lo que hay que hacer, entonces, es empezar a difundir los resultados (propios y ajenos) de la lingüística moderna. Algo de eso intenta hacer muy modestamente este blog. Otra gente un poco más ilustre también ha tenido la misma idea, sino prueben entrar al blog Faculty of Language, cuyo objetivo es, justamente, empezar a abrir al gran público la disciplina lingüística moderna (vean en particular su primer post).

En fin, cuando dije que “está cambiando la marea” me refería a este cambio: a la idea de que la lingüística debe dejar de construirse puertas adentro y debe exhibir sus resultados. Este también es un pequeño cambio de paradigma. Quién sabe… tal vez en algún momento alguien pueda escribir lo siguiente:

(2013 en adelante) — La lingüística se abre al mundo.

h1

El desarrollo lingüístico: un problema, dos perspectivas

21 septiembre 2012

El desarrollo lingüístico: un problema, dos perspectivas es el título del panel que estaremos presentando la próxima semana en el marco del ENeL 8. Se trata de una charla que pretende servir de introducción a varios aspectos de los estudios lingüísticos. Esto tendrá lugar el próximo viernes 28 a las 17 en la Facultad de Filosofía y Letras (Puan 480, CABA).

PRESENTACIÓN
En los últimos sesenta años, la relación entre teoría gramatical, tipología y los estudios psicológicos sobre el desarrollo lingüístico en infantes se ha vuelto cada vez más estrecha. La postulación de la Gramática Universal (GU) como respuesta al problema de Platón permitió el desarrollo de un rico campo interdisciplinar cuyo objetivo primordial fue verificar la plausibilidad psicológica de dicha noción. En general, si bien los resultados obtenidos convalidan la existencia de conocimiento lingüístico innato en los seres humanos, estos también llevaron a la constante reformulación de las teorías particulares de la GU. Sin embargo, quizá el resultado más interesante de este proceso sea el desplazamiento del eje del debate desde una perspectiva ontogenética a una perspectiva filogenética, lo que derivó en la emergencia de un nuevo campo interdisciplinar cuyo principal objetivo es responder la siguiente pregunta: ¿cómo fue que el conocimiento lingüístico pasó a formar parte del patrimonio biológico de los seres humanos? (i.e., el problema de Darwin).
OBJETIVOS
• Presentar y debatir algunos de los aspectos teóricos que constituyen el eje del debate con respecto a los problemas de Platón y Darwin.
• Discutir el papel que los lingüistas desempeñan (o deberían desempeñar) en los estudios de adquisición y evolución del lenguaje.
ESTRUCTURA DEL PANEL
1. INTRODUCCIÓN
El problema de la unificación en teoría lingüística y biología.
Niveles de adecuación de la teoría gramatical.
2. EL PROBLEMA LÓGICO DE LA ADQUISICIÓN DEL LENGUAJE
Las varias acepciones del término innato.
Consideraciones en torno al Argumento de la Pobreza de los Estímulos.
3. EL PROBLEMA LÓGICO DE LA EVOLUCIÓN DEL LENGUAJE
El problema de la aprendibilidad filogenética del lenguaje.
Arquitectura lingüística y teoría evolutiva.
COORDINACIÓN
Fernando Carranza (UBA, IESJRF) – Pablo Ceballos (UBA) – Sabrina Grimberg (UBA) – Sonia Kaminszczik (UBA) – Carlos Muñoz Pérez (UBA, UNGS) – Julian Schwartz (UBA) – Laura Stigliano (UBA)
h1

Megapost de Mario Montalbetti

24 febrero 2012
(Tal vez lo de "mega" sea algo exagerado, pero me gusta como suena. Es muy de Taringa!).

Ayer por la tarde estuve viendo un par de videos de Mario Montalbetti que la gente de la PUCP publicó en Youtube. Me resultaron muy interesantes, así que los voy a compartir aquí. Por supuesto, antes voy a responder la pregunta que muchos se estarán haciendo: ¿quién es Mario Montalbetti?

Mario Montalbetti es un lingüista peruano que se doctoró en el MIT con una tesis sobre ligamiento. No soy un experto ni nada parecido, pero hasta donde entiendo, él fue el primero en señalar empíricamente que el paralelismo entre pronombres fonéticamente realizados y pronombres nulos (e.g. pro) es falso. Por ejemplo, un sujeto con un pronombre nulo tiene una interpretación ligada con un cuantificador estructuralmente superior, mientras que un pronombre que funciona como sujeto no permite tal interpretación.

(1) Nadiei sabe que proi vendrá

(2) *Nadiei sabe que éli vendrá (vs. Nadiej sabe que éli vendrá)

Datos como estos (que han pasado a la historia como los Montalbetti’s Effects) llevaron a que Montalbetti propusiera una condición a partir de la cual se regula la alternancia de pronombres abiertos y nulos en la estructura de la cláusula: la Overt Pronoun Constraint. Su versión original es la siguiente.

Overt Pronoun Constraint
Overt pronouns cannot link to formal variables iff the alternation overt/empty obtains.

En cristiano, esto significa que un pronombre abierto no puede estar ligado si es posible poner en su lugar un pronombre nulo. Quien se haya interesado en esto puede consultar la tesis de Montelbetti, que se descarga para lectura desde aquí.

Cambiando de tema, en el blog de Montalbetti (acá) hay una serie de frases tipo aforismo de las cuales rescato las que refieren a la labor del lingüista.

La lingüística está llena de esas cosas que “no sirven para nada”. Por ejemplo, se puede decir “durante la lluvia” pero no “durante el viento”. (Se puede decir “durante el día de hoy” pero no “durante hoy”.)

Pero ojo:

Cuando digo que hay cosas que “no sirven para nada” en realidad quiero decir que hay cosas que “no sirven a nadie” en ambos sentidos: que no tienen una relación servil con un amo y que no son de utilidad.

Sobre la investigación:

Si alguien ya sabe la verdad no necesita investigar. Por eso es una mala idea que quienes ya saben la verdad dirijan centros de investigación. Un arzobispo católico, por definición, ya sabe la verdad. El que sabe la verdad lo único que quiere hacer con ella es propagarla. Una Universidad parte del principio opuesto: no sabemos la verdad, busquémosla. En este camino, hay verdades parciales: sabemos construir puentes y sabemos hacer análisis gramaticales . La otra verdad, a veces expresada como solución a la pregunta “¿de qué va esto?”, la Universidad no la tiene, pero la busca. Esto, de paso, distingue a una Universidad de un Centro de Adiestramiento. A este último no les interesa de qué va esto.

Esto es demasiado cierto:

A veces los lingüistas pensamos en estas cosas: un semáforo solamente necesita una luz, no tres. Digamos que nos quedamos con la roja. Si está encendida, uno para; si está apagada uno no-para. Listo. El problema es que si la luz está apagada uno no sabe si el semáforo está funcionando o no. Entonces: lo que la luz verde quiere decir no es “siga” sino “el semáforo está funcionando”. Este análisis no mejorará el manejo de la gente pero se entenderá mejor cómo es que funcionan las relaciones sociales. (El estructuralismo es una gran cosa y el hiper-estructuralismo es una mejor cosa aún.)

Y ahora, finalmente, los videos. El primero es una entrevista en la que explica por qué y cómo se dedicó a la lingüística.

El segundo es una pequeña clase en la que se discuten algunas cuestiones del estudio del lenguaje que generalmente se asumen y no son correctas. No quiero adelantar más.

 

h1

Pullum sobre Chomsky en la UCL

20 noviembre 2011

El 10 de octubre pasado Noam Chomsky dio una polémica charla en la University College London (UCL). Nada raro en eso. (Se puede ver el video haciendo click aquí).

Hoy, Geoffrey Pullum envió a través de Linguist List una respuesta ciertas partes de la charla de Chomsky. Se trata de un documento corto, pero sumamente interesante. Lo pego a continuación. Al final voy a hacer un breve comentario a favor de Chomsky. Mi comentario, quiero aclarar, no se basa tanto en el contenido de la polémica, sino en la postura que toma Chomsky.

About a month ago (10 October 2011) Noam Chomsky spoke at an invitation-only seminar at University College London (UCL).  I attended along with about 90 other British linguists.  The announced title was: “On the poverty of the stimulus”.  The video of both the talk and the question period is available: (http://www.ucl.ac.uk/psychlangsci/research/linguistics/news-events/latest-news/n_chomsky; henceforth, UCL video). In what follows I summarize some of the content of Chomsky’s London talk and its question session, and explain some of my reactions.
Chomsky’s remarks in London were not very different in tone from things he has said elsewhere: the UCL presentation was extremely similar to a lecture given at Carleton University in Canada last April (http://www.youtube.com/watch?v=XbjVMq0k3uc), and echoed themes from Chomsky’s talk at the symposium on the biology of language at the 2011 Cognitive Science Society conference in Boston last July, and journal articles such as “Language and other cognitive systems” (Chomsky 2011), and particularly the paper “Poverty of the stimulus revisited” (Berwick et al. 2011, henceforth BPYC-2011). These recent talks and papers share a steadfast refusal to engage with anything that might make the debate about the poverty of the stimulus (POS) an empirical one.  They issue blanket dismissals of nearly all modern cognitive/linguistic science as worthless, and sweep aside whole genres of work on the basis of what seems to be extremely shallow acquaintance.  Claims about parallels in the natural sciences feature prominently, as does a preference for authority over evidence.  I will discuss a selection of topics, without attempting to be very systematic.
1. ROCKS AND KITTENS
Two aspects of the way Chomsky chose to deal with the topic of stimulus poverty struck me as startling.  The first was that he stuck entirely with the version of the argument from POS that the late Barbara Scholz used to call the rocks-and-kittens version.
A child’s pet kitten (so the argument goes), exposed to the same primary linguistic data as the child, learns no language at all, and is indistinguishable from a rock in this regard.  Since the linguistic inputs are the same, an innate interspecies difference in language readiness and capacity for language acquisition must be involved; therefore linguistic nativism is true.  (This is not parody, as I scarcely need to document: Chomsky has happily repeated his views on kittens and the like many times.  A Google search on a pattern as specific as {Chomsky granddaughter rock kitten innate} will yield tens of thousands of hits, nearly all relevant ones.  See Smith 1999: 169-170, or Stemmer 1999, or Chomsky 2000: 50 for quotable quotes in print.)
At UCL Chomsky didn’t really give even this much of an argument: he just noted that humans had a genetic endowment that permitted them to learn language, and stipulated that he would call it Universal Grammar (UG). (Compare, e.g., “The faculty of language then is a special property that enables my granddaughter but not her pet kitten or chimpanzee to attain a specific I-language on exposure to appropriate data…”
(http://hotbookworm.wordpress.com/2010/01/11/noam-chomsky-the-biolinguistic-turn-lecture-notes-part-two/.)
He even admitted that “intellectually … there’s just nothing to it — [it’s] a truism” (UCL video, 3:42); but he went on to argue that there is “a kind of pathology in the cognitive sciences” (UCL video, 4:24) in that its practitioners obdurately refuse to accept the simple point involved.
The real trouble, of course, is that everyone accepts it — nobody doubts that there is something special about humans as opposed to kittens and rocks — but they do not recognize it as a scientific result concerning human beings or their capacities.
What I had imagined would be under discussion in this seminar is the specific view about the character of human first language acquisition that is known as linguistic nativism.  This is a substantive thesis asserting that language acquisition is largely guided by an intricate, complex, human-specific, internal mechanism that is (crucially) independent of general cognitive developmental capacities.  This assertion seems to me worthy of serious and lengthy discussion.  The rocks-and-kittens claim is surely not.  We all agree that kittens and rocks can’t acquire language, and that it’s not because they don’t get sufficient exposure.  But that hardly amounts to support for linguistic nativism over general nativism (Scholz & Pullum 2002: 189).
It’s not that Chomsky doesn’t recognize the distinction between linguistic nativism and general nativism.  He says (Chomsky 2000: 50, reproduced at (http://www.chomsky.info/books/architecture01.htm):
”Now a question that could be asked is whether whatever is
innate about language is specific to the language faculty or
whether it is just some combination of the other aspects of
the mind. That is an empirical question and there is no reason
to be dogmatic about it; you look and you see. What we seem
to find is that it is specific.”
But to say that you simply look and see, when the question is as subtle and difficult as this one and concerns mechanisms inaccessible to the tools we currently have, is surely not a responsible characterization of what science involves.
2. STIMULUS POVERTY WITHOUT STIMULUS
The second striking choice Chomsky made was to address the poverty of the stimulus without ever mentioning the stimulus at all.  This was POS without the S.  One would expect that when someone claims that the child’s input is too poverty-stricken to support language acquisition through ordinary learning from experience, they would treat empirical observations about the nature of that input as potentially relevant.  It would give a POS argument some empirical bite if one could specify ways in which the child’s input was demonstrably too thin to support learning of particular features of language from experience of language use.  That would seem worthy of attention.  The rocks-and-kittens version does not.  I was very surprised that Chomsky stuck to it so firmly (though that does explain his lack of interest in the child’s input: the rocks-and-kittens argument doesn’t need anything to be true or false of the input).
The POS issue is going to take a long time to resolve if we can’t even focus on roughly similar versions of the purported argument. Yet Chomsky regards it as crucial that it be resolved.  He began his talk, in fact, with some alarmist remarks about the prospects for linguistics (“the future of the field depends on resolving it”: UCL video, 4:38).  If we do not settle this question of stimulus poverty, he claimed, we are doomed to seeing our subject shut down.  So he portrays current skepticism among cognitive scientists about linguistic nativism as not just obtuse, but actively harmful, a threat to our whole discipline.
This is an interesting (if rather risky) new way of stoking enthusiasm for linguistic nativism: appeal to linguists’ self-interest and desire for security (you don’t want to be shut down, do you?).  But it’s hard to take seriously.  Linguistics is not going to die just because a fair number of its practitioners now have at least some interest in machine learning, evolutionary considerations, computational models of acquisition, and properties of the child’s input, and are becoming acquainted with probability theory, corpus use, computer simulation, and psychological experimentation — as opposed to waving all such techniques contemptuously aside.
3. THE LESSON OF BAYES’ THEOREM
Chomsky went on to remind us all of the linguists and psychologists in the 1950s who (allegedly) stuck so rigidly to corpus data that they regarded experiments going beyond the corpus data as almost a betrayal of science.  And he stressed that the work of people today who work on Bayesian learning of patterns or regularities from raw data has no value at all (“zero results”).  He compared their modeling of phenomena to physicists making statistical models to predict the movements of medium-sized physical objects seen outside in the street (UCL video, 36:41).
I think such a blanket dismissal overlooks a crucial conceptual contribution that Bayesian thinking makes to theoretical linguists, one that has nothing to do with the statistical modeling on which Chomsky pours such scorn.  Many linguists have given the impression that they think it is impossible to learn from positive data that something is not grammatical.  Lightfoot (1998: 585) suggests, for example, that although you can perhaps learn from experience that auxiliary reduction is optional in the interior of a clause, you cannot possibly learn that it is forbidden at the end of a clause; hence linguistic nativism has to be true. This reasoning is flawed, and Bayes’ Theorem teaches us why.
The lesson is that probability of a generalization G being correct given a body of evidence E is not dependent merely on whether E contains crucial evidence confirming G over its rivals.  The probability of G is proportional to the product of the antecedent probability of G’s being true with something else: the probability that the evidence would look like E if G were true.  That means that what is absent from experience can be crucial evidence concerning what the grammar has to account for. For example, all the thousands of times you’ve heard clause-final auxiliary verbs uncontracted strengthen the probability that they’re not allowed to contract.
The argument from absence of stimulus is pretty much demolished by this Bayesian insight: the argument form simply is not valid.  And for people who use the phrase “the logical problem of language acquisition” (as linguistic nativists have been doing since 1981), that ought to mean something.  It certainly seems to me sufficient to justify including at least a brief introduction to Bayesian statistical reasoning in the education of every theoretical linguist.
Suppose, though, that it ultimately turns out that the current fashion for constructing Bayesian computational models of learning is something of a dead end.  It still doesn’t follow that it is deleterious.  Much can be learned by watching models ultimately fail.  There is no threat to the discipline here: linguistics is not so fragile that it will collapse just because one possibly false trail was followed.
The people interested in Bayesian modeling and similar computational lines of research are smart enough to eventually perceive its inadequacy (if indeed it is inadequate), and will move to something that looks more interesting.  People get bored in dead-end ventures.  I talked to Roger Brown in 1968 and he told me that the reason he had abandoned Skinnerian behaviorism ten years before had nothing to do with any revolutionary new ideas in scientific thinking about cognition or the impact of Chomsky’s famous review of Skinner: he was just bored with the work that behaviorism demanded, and wanted to try something more interesting. Intellectually agile people want to move on.
4. BIAS AT THE NSF
About half-way through his talk, Chomsky made some claims about the probability of success with proposals to the NSF to fund research projects on Universal Grammar (UG).  He said: “If you want a grant from the National Science Foundation, you better not include that [the phrase “UG”] in your proposal; it will be knocked out before it even reaches the review board” (UCL video, 30:35).
He warmed to this theme: “If you want to get a grant approved, you have to have the phrase ‘sophisticated Bayesian’ in it, and you also have to ask for an fMRI, especially if you have nothing whatever to do with it” (he chuckled here and there was general laughter) “… if you meet those two conditions, you might make it through the granting procedures” (UCL video, 31:02).
Then he returned to the claim that “UG” will doom your proposal: “But if you use a dirty word like UG, and you say there’s something special about humans and we’ve got to find out what it is, that pretty much rules it out” (UCL video, 31:18). And then, with no chuckling, he added: “I’m not joking; I have concrete cases in mind … of good work that just can’t get funded, because it doesn’t meet these conditions…  Right at MIT in fact” (UCL video, 31:28).
Since award details are public information, it is trivial to find out whether the NSF is making awards for purely theoretical study of UG in a Chomskyan perspective.  And it is. Željko Bošković’s grant “On the Traditional Noun Phrase: Comparing Languages With and Without Articles” (BCS-0920888) is an example.  And MIT is not left out.  For example, David Pesetsky obtained Doctoral Dissertation Research grant no. BCS-1122426 for a project “Argument licensing and agreement”; the abstract begins: “Which properties of human language are universal, and which may vary across languages?  Answering these questions will help us understand the unique human capacity for language, through which we hope to gain insight into the overall architecture of the human mind.”  And Chomsky must know that his co-author Robert Berwick received grant BCS-0951620 for a “Workshop on Rich Grammars from Poor Inputs” at MIT in 2009.
Naturally, many NSF proposals mentioning UG will go unfunded — the majority, given that across the board less than 25% of grant proposals get funded.  But (of course) proposals are sent out for peer review whether they mention UG or not, and whether they mention Bayes or not.
It seems a strange strategy to make claims of this sort to an audience of linguistics professionals in a foreign country who would have little knowledge of the NSF, and send out the message to young investigators internationally that following Chomsky’s theoretical line will blight their careers by dooming their chances of NSF funding. Even if this were true, it would give the impression of a fractious field that has bad relations with its most important Federal funding agency.  But it is much stranger to make such statements when they are easily discovered to be false.
5. AN UNCOMPREHENDED QUESTION ABOUT MACHINE LEARNING
In the question period there was an extremely unfortunate interaction when the computational learning experimenter Alexander Clark tried to ask a question.  Chomsky interrupted and began his answer before Clark had managed to make his point.  The question Clark want to put was roughly the following (I knew enough to see where he was going, and he has confirmed to me that this was what he meant).
A paper Clark had published with Eyraud (2007) on learning some kinds of context-free grammars (CFGs) from positive data is dismissed in BPYC-2011 as useless.  Chomsky repeated that dismissal in his talk. But Clark’s more recent work has focused on languages in the much larger context-sensitive family that are generated by minimalist grammars as formalized by Edward Stabler.  These are strongly equivalent to the Multiple Context-Free Grammars (MCFGs) that were invented by Seki & Fujii (1991), as Clark tried to begin to explain.  He was not attempting to say anything about CFGs, but to raise the issue of learning the languages of minimalist grammars, or equivalently MCFGs.  This is a wildly different class, vastly larger than the class of CFGs.  It corresponds to the infinite union, for all natural numbers N, of a hierarchy of classes of languages (each definable in several ways) in which the first few steps are these:
N = 0      finite languages
N = 1      regular (finite-state) languages
N = 2      context-free languages
N = 3      tree adjoining languages
N = 4      …
There has been much relevant mathematical work on these matters between 1984 and the present by people like Gerald Gazdar, Henk Harkema, Aravind Joshi, Greg Kobele, Jens Michaelis, Carl Pollard, Kelly Roach, James Rogers, Edward Stabler, K. Vijay-Shanker, and David Weir (it is easily findable; I will not try to give even a brief bibliography here.)  If Stabler has accurately captured the intent of the hints in the “minimalist program” about Merge and feature-checking, then minimalism embraces an enormous proper superset of the context-free languages.  (I say “if” because Chomsky declines to refer to any of Stabler’s work, so we don’t know whether the formalization is acceptable as a precise reconstruction of the minimalist program as he conceives of it.)
Clark was trying to get Chomsky’s reaction to recent results (see e.g. Clark 2010) exhibiting efficient algorithms for learning various subclasses of the MCFGs, including some fairly large classes going well beyond CFGs.
Chomsky interrupted the question and began to talk about CFGs.  But he misspoke, and talked about having proved in 1959 that CFGs are equivalent to linear bounded automata (they aren’t; LBAs are equivalent to context-sensitive grammars).  Even if CFGs had been equivalent to LBAs, and even if Chomsky had been responsible for results on LBAs in 1959 (he wasn’t, it was Kuroda five years later), CFGs had nothing to do with the observation Clark was trying to make about MCFGs.  And Chomsky had in any case never proved any theorems about learnability, which was what Clark was trying to ask about. Clark’s question not only was never answered, it was not even heard, hence of course not understood.
6. LANGUAGES EVOLVING
After Clark’s question, there were only a few more. I was lucky enough to be allocated time to ask two brief questions before the session ended.  Chomsky had condemned language evolution work wholesale (“a burgeoning literature, most of which in my view is total nonsense”: UCL video, 27:08), and I asked him to speak more directly about Simon Kirby’s research on iterated learning of initially randomly structured finite languages, which he has shown leads to the rapid evolution of morphological regularity.
Chomsky’s answer was that it is not at all interesting if successive generations of learners regularize the language they are trying to learn: the regularity emerges only because human intelligence and linguistic competence is utilized in the task, and if you gave the same task to computers the same evolution would not happen.
Kirby’s group has in fact addressed both those points, and both claims appear to be false.  It seems to be the cognitive bottleneck of memory limitation that forces the emergence of regularity (decrease in Kolmogorov complexity) in the language over learning generations, not human linguistic capacity or intelligence (note the remark of Kirby, Cornish, & Smith 2008: 10685, that “if participants were merely stamping their own linguistic knowledge onto the data that they were seeing, there would be no reason we would find rampant structured underspecification in the first experiment and a system of morphological concatenation in the second”).  And the effect of weak learning bias being amplified by cultural transmission through iterated learning does indeed turn up when the learner is simulated on a computer (see e.g. Kirby, Dowman, and Griffiths 2007).
There is an opportunity for substantive discussion here.  And since both Chomsky and Kirby are invited speakers at the upcoming EvoLang conference in Kyoto (http://kyoto.evolang.org/), there will be a forum where it could happen.  I hope it will.  But maybe I’m too optimistic: I see the current integration of computationally-assisted cognitive science with careful syntactic description and theorizing as precisely what should inspire confidence that the language sciences in the 21st century has a bright future rather than spelling doom to linguistics.
7. GENETIC FIXITY
The other topic I was able to ask about was the scientific plausibility of a view that has a remarkable genetic quirk arising between 50,000 and 200,000 years ago, giving a single developing hominid species an unprecedented innate UG that permits articulate linguistic capacities, and then remaining absolutely fixed in all of its details until the present.
A very few linguists (they include James McCawley, Geoffrey Sampson, and Philip Lieberman) have pointed out this prediction of genetically determined variation in UG between widely separated human groups.  Lieberman notes that dramatic evolutionary developments like disappearance of lactose intolerance or radical alteration in the ability to survive in high-altitude low-oxygen environments can take place in under 3000 years; yet (as Chomsky stresses) the evidence that any human being can learn any human languages is strong, suggesting that UG shows no genetic variation at all.
Why would UG remain so astonishingly resistant to minor mutations for so many tens of thousands of years?  There is no selection pressure that would make it disadvantageous for Australian aborigines to have different innate constraints on movement or thematic role assignment from European or African populations; yet not a hint of any such genetic diversity in innate linguistic capacities has ever been identified, at least in grammar.  Why not?
Chomsky’s response is basically that it just happened.  He robustly insists that this kind of thing happens all the time in genetics: all sorts of developments in evolution occur once and then remain absolutely fixed, like the architecture of our visual perception mechanism.  Human beings, he told me solemnly, are not going to develop an insect visual system over the coming 50,000 years.
This was his final point before his schedule required him to leave, and I had to agree with him (so let’s not have any loose talk about kneejerk disagreement, OK?) — we’re not going to develop insect eyes.  But I couldn’t help thinking that this hardly answered the question. There are parts of our genome that remain identical for hundreds of millions of years, like HOX genes; but generally they cause catastrophic effects on the organism if incorrectly expressed.  Even with the visual system, arbitrary changes could put an organism in real trouble.  For widely separated populations of humans to have different constraints on remnant movement wouldn’t do any damage at all, and it would offer dramatic support for the view that there is a genetically inherited syntax module (though the “U” of UG would now not be so appropriate).
So it was just as with the rocks-and-kittens POS argument: I agree with the starting observations, as everyone must; but the broader conclusions that Chomsky defends, and more generally his extremely negative attitude to computer simulation work, human-subject experimentation, evolutionary investigations, and data-intensive research don’t seem to follow.
I am not pessimistic enough to believe that contemporary experimental research in the cognitive and linguistic sciences — Bayesian and connectionist work included — will prove to be some kind of toxic threat to our discipline.  I think it represents an encouragingly lively and stimulating contribution. I think we have a responsibility as academics to acknowledge such work and do our best to appreciate its methods and results. It won’t do anything clarify our understanding of language if we simply condemn it all out of hand.
Geoff Pullum
University of Edinburgh
REFERENCES
Berwick, Robert; Paul Pietroski; Yankama; and Noam Chomsky (2011). [BPYC-2011]  Poverty of the stimulus revisited.  Cognitive Science 35: 1207–1242.
Chomsky, Noam (2000). The Architecture of Language.  New Delhi: Oxford University Press.
Chomsky, Noam (2011). Language and other cognitive systems: What is special about language?  Language Learning and Development 7 (4): 263-278.  http://dx.doi.org/10.1080/15475441.2011.584041
Clark, Alexander (2010).  Efficient, correct, unsupervised learning of context-sensitive languages.  Proceedings of the Fourteenth Conference on Computational Natural Language Learning, 28-37. Uppsala, Sweden: Association for Computational Linguistics. http://www.cs.rhul.ac.uk/home/alexc/papers/conll2010.pdf
Clark, Alexander, and Remi Eyraud (2007). Polynomial time identification in the limit of substitutable context-free languages. Journal of Machine Learning Research, 8, 1725–1745.
Kirby, Simon; Michael Dowman; and Thomas Griffiths (2007). Innateness and culture in the evolution of language.  Proceedings of the National Academy of Sciences, 104 (12): 5241-5245.
Kirby, Simon; Hannah Cornish; and Kenny Smith (2008). Cumulative cultural evolution in the laboratory: An experimental approach to the origins of structure in human language. Proceedings of the National Academy of Sciences, 105 (31): 10681-10686.
Lightfoot, David (1998).  Promises, promises: general learning algorithms. Mind and Language 13: 582-587.
Seki, Matsumura and Kasami Fujii (1991).  On multiple context-free grammars.  Theoretical Computer Science 88: 191-229.
Smith, Neilson Voyne (1999).  Chomsky: Ideas and Ideals.  Cambridge: Cambridge University Press.
Stabler, Edward (1997).  Derivational minimalism.  Christian Retore, Logical Aspects of Computational Linguistics (Lecture Notes in Artificial Intelligence, 1328), 68-95.  Berlin: Springer Verlag.
Stemmer, Brigitte (1999).  An on-line interview with Noam Chomsky: On the nature of pragmatics and related issues.  Brain and Language 68 (3): 393-401.

Si bien no estoy de acuerdo con la postura cuasi-separacionista que parece promover Chomsky con respecto a otros métodos y perspectivas sobre el estudio del lenguaje, creo que es necesario reconocer el valor de su postura.

Como es sabido, la gramática generativa clásicamente asume que el lenguaje es algo así como un “órgano mental”, un aspecto de la cognición que, mayormente, está definido por principios evolutivos (sean cuales sean). Gracias a esta concepción, gracias a este marco, el estudio de la gramática se convirtió en algo científico. (Por supuesto, no estoy diciendo que antes no lo fuera, sino que la concepción chomskyana del lenguaje le permitió al gramático pasar a un primer plano en la discusión sobre la naturaleza de la mente humana). Cuando se hace gramática ya no sólo se está describiendo un fenómeno gramatical de una lengua X, sino se están  elaborando teorías acerca del funcionamiento de ese órgano que es el lenguaje. Cada análisis gramatical involucra una concepción definida de ciertos aspectos de la Facultad del Lenguaje.

La postura de Chomsky es contra aquellos que en mayor o menor medida sostienen que es exagerado considerar el lenguaje como un órgano. Si el lenguaje no es un órgano, si el lenguaje es sólo una serie de rutinas adquiridas por un proceso estocástico general, entonces la función del gramático pierde mucho sentido. Si el objeto de estudio del gramático deja de ser un órgano mental cuya existencia se asume real, sus análisis sólo son observaciones momentáneamente válidas sobre un conjunto de transiciones probabilísticas.

También comparto el pesimismo de Chomsky con respecto a varios tipo de estudios probabilísticos: la estadística puede ser útil para predecir datos, pero es inútil para explicarnos la naturaleza de la Facultad del Lenguaje. Mientras asumamos que el lenguaje es algo más que una conducta adquirida y que tiene características que le son propias, la predicción estocástica del comportamiento lingüístico será (al menos científicamente) de escaso valor.

h1

Cuestiones de método y obtención de datos en gramática generativa

1 febrero 2011

Últimamente he perdido bastante tiempo pensando en los aspectos más “epistemológicos” de la gramática generativa. Cierto punto que ha despertado mi interés es la discusión existente entre quienes plantean que los datos del gramático deben provenir de corpus lingüísticos y quienes sostienen que lo mejor es basarse en las “intuiciones” de los hablantes. Algo de esto es lo que transcribo a continuación en un fragmento que adapté parcialmente a partir del capítulo introductorio a Syntax: A Generative Introduction, de Carnie.

La aplicación del método científico a la sintaxis involucra considerar cuáles serán las fuentes de nuestros datos. Una fuente obvia es la compilación de textos hablados o escritos. Tales fuentes son denominadas corpora (singular: corpus). Hay muchos corpora disponibles al alcance de cualquier investigador (muchas son accesibles a través de internet). Por otro lado, aquellas lenguas que no tienen una larga tradición literaria o son habladas por un grupo minoritario deben ser investigadas a partir de otras fuentes. Así, muchas veces es necesario que el lingüista compile datos haciendo estudio de campo. De hecho, ésta fue la principal tarea de los lingüistas en la primera parte del siglo XX y es, en la actualidad, llevada adelante por gran número de investigadores.

Si bien los corpora son incuestionablemente una fuente importantísima de datos, los mismos sólo son una representación parcial de la realidad psicológica de la sintaxis. En concreto, los corpora sólo contienen oraciones gramaticales (i.e. oraciones que “suenan bien” a los oídos de un hablante nativo), y ya se ha mencionado que es necesario testear nuestras hipótesis con evidencia negativa para probar su falsabilidad. Incluso aquellos corpora basados en la recopilación de errores reales no necesariamente contienen el tipo de dato que necesitamos.

Las restricciones de los corpora no se limitan sólo a su falta de datos negativos. Un corpus es, por definición, sólo un muestreo de las formas que se registran en una lengua. El problema es que la naturaleza intrínsecamente productiva y creativa del lenguaje hace que no exista manera de que un corpus contenga, al menos, una muestra representativa de las oraciones gramaticales de una lengua. Si basamos nuestra teoría únicamente en los corpora, tendremos una teoría que predecirá los datos que han sido registrados, pero eso no nos garantiza que estemos describiendo fielmente qué es la sintaxis humana.

Vayamos a un caso más concreto. Considérese la siguiente oración:

(4)          *¿Qué te preguntas quién compró?

Para todo hablante de español, (4) es casi una ensalada de palabras, no un oración bien formada. ¿Cómo lo saben? ¿Alguien se encargó de enseñarle a la gente que no se pueden decir cosas como (4)? El hecho de que una oración como (4) suene mal pero oraciones similares como la de (5) suenen bien no está reflejado en ningún corpus.

(5)          ¿Quién pensás que compró la computadora?

La diferencia que hay entre (4) y (5) es central para el requisito de predictibilidad que impone el método científico sobre nuestras teorías (i.e. debemos ser capaces de predecir que la sintaxis del español puede generar (5) pero no (4)). Para detectar este contraste es necesario confiar en el conocimiento de nuestra lengua nativa (o en el conocimiento de un informante hablante nativo, para el caso de lenguas que no hablemos). Nótese que este tipo de conocimiento no esconsciente: es poco probable que las personas en general sepan por qué (4) está mal formada (y, sin embargo, se dan cuenta de ello). La tarea del sintactista debe ser describir este conocimiento inconsciente.

El experimento psicológico que se utiliza para dar cuenta de este tipo de conocimiento inconsciente es llamado tarea de juicio gramatical. El juicio gramatical consiste en pedirle a un hablante nativo que lea o escuche una oración y juzgue si está bien formada (gramatical), marginalmente bien formada, o definitivamente mal formada (inaceptable o agramatical). La tarea de juicio gramatical tiene una base científica bien establecida, dado que la prueba puede ser replicada bajo condiciones experimentales estrictamente controladas. Además, otras disciplinas también utilizan tareas de juicios basados en conocimiento inconsciente: en el estudio de la visión, por ejemplo, se ha determinado que las personas pueden establecer acertadamente la diferencia entre distintos grados de intensidad de luz.

Pues bien, justamente hoy me topé con un trabajo en el que se ha demostrado parcialmente que la metodología que ha venido utilizando la gramática generativa es adecuada con respecto a la realidad psicológica del lenguaje. La investigación en cuestión fue realizada por Jon Sprouse y Diogo Almeida y lleva el descriptivo título de The 469 data points that form the empirical foundation of generative syntactic theory are at least 98% replicable using formal experiments. He aquí el abstract (que traduje al español):

Los juicios de gramaticalidad en el campo de la sintaxis generativa han sido objeto de un desarrollo informal, es decir, no se han ajustado estrictamente a los métodos formales de la psicología experimental. Dos tipos de argumento han sido propuestos para la adopción de técnicas experimentales en la sintaxis generativa: (i) que este tipo de experimento provee una mejor herramienta de medición, y (ii) que las técnicas informales son una herramienta en la que no se puede confiar. Mientras que (i) es relativamente aceptado, el segundo argumento ha sido objeto de un considerable debate debido a que sugiere que los datos utilizados para construir las actuales versiones de la teoría generativa son falsos. Para investigar esta cuestión, testeamos los 469 tipos de dato que aparecen en un popular manual de sintaxis generativa [Core Syntax, de Adger (2003)] con 440 participantes, utilizando estimaciones de magnitud, tareas de si-no y tres tipos distintos de análisis estadístico. El estudio sugiere que la tasa de error máxima para los resultados aportados informalmente es del 2%, o para ponerlo de otra forma, que la base empírica de la teoría sintáctica generativa es al menos un 98% replicable con experimentos formales. Estos resultados sugieren (i) que el uso extenso de juicios recolectados informalmente en la sintaxis generativa no ha llevado a construir teorías basadas en datos falsos, y (ii) que si bien existen muchos motivos para que los sintactistas generativos adopten metodología experimental más formal, la inadecuación de la base empírica de la teoría no es una de ellos.

A quien le interese, el trabajo de Sprouse y Almeida puede descargarse desde aquí.

h1

Los genetistas japoneses y la leyenda del ratón cantante

27 enero 2011

En realidad, había escuchado esto hace alrededor de una semana por la radio, pero recién hoy busqué información seria sobre la noticia. Aparentemente, un grupo de científicos japoneses ha producido un ratón que puede “cantar como un pájaro”. El siguiente video es más que elocuente al respecto:

Por supuesto, esto no implica que se haya aislado algún gen o grupo de genes que se encargue del canto de los pájaros (una lástima, dada la relación que se ha establecido entre el lenguaje humano y el canto de ciertas aves en términos, por ejemplo, de adquisición). En realidad, el ratón fue obtenido casi por azar: la investigación de estos señores japoneses tiene el nombre de  Evolved Mouse Project y se basa en el siguiente método:

  1. Modificar genéticamente algunos ratones.
  2. Cruzarlos por varias generaciones.
  3. Ver qué tipo de “ratones raros” se obtienen en el proceso.

Con “ratones raros” quiero señalar el hecho de que en realidad lo que buscan es obtener cambios físicos (según declaraciones de un miembro del equipo, el proyecto también produjo un ratón sumamente parecido a un perro salichicha), y no alteraciones conductuales o cognitivas.

A pesar de esto, el ratón cantante no deja de ser una buena noticia: dada la similitud entre el su cerebro y el cerebro humano (entienden a qué me refiero: el cerebro de un ratón se parece más a nuestro cerebro que el de un pájaro), pueden surgir muy interesantes estudios acerca de qué es diferente entre el cerebro de un ratón común y uno cantante. Tales diferencias, salvando las distancas, claro, serían teóricamente comparables a la diferencia que existió entre los cerebros de hominidos “sin lenguaje” y el hombre moderno.

En fin, todo será cuestión de esperar a ver qué nos dicen tales investigaciones (si es que se hacen…).

PS: una cosa más… ¿soy yo o el llamado “canto” del ratón se parece más al ruido de un delfín que al canto de un pájaro?