Archive for the ‘Artículos’ Category

h1

Romania Nova VII

17 noviembre 2014

Está muy cerca la VII edición del Workshop Romania Nova. Esta vez, el encuentro se realiza en el Museo de la Lengua, en la Ciudad de Buenos Aires. El Workshop pretende ser un espacio de intercambio para aquellos lingüistas y filólogos interesados en el estudio comparativo de las variedades americanas de las lenguas romances.

El libro de resúmenes del encuentro puede ser descargado aquí.

El siguiente es el programa del evento.

26.11 – MIÉRCOLES / QUARTA-FEIRA / WEDNESDAY
8:30 – 9:00
Acreditación / Acreditação / Registration
9:00 – 9:30
Inauguración / Inauguração / Opening remarks
9:30 – 10:00
Poliana Rabelo (Universidade de Brasília). A categoria de pessoa no português do Brasil (PB): indícios de cisão
10:00 – 10:30
Humberto Borges (Universidade de Brasília). A emergência da gramática do português brasileiro em goiás
10:30 – 11:00
Humberto Soares da Silva & Juliana Esposito Marins (Universidade Federal do Rio de Janeiro). O preenchimento da posição de sujeito com verbos que não selecionam argumento externo
11:00 – 11:30
Café / Coffee break
11:30 – 12:00
Diego Estomba (Universidad Nacional del Comahue). Sintagma de número sin flexión de número: un análisis del haitiano
12:00 – 12:30
Alicia Avellana (Universidad de Buenos Aires/ CONICET) & Laura Kornfeld (Universidad de Buenos Aires/ Universidad de General Sarmiento/ CONICET). ¿Quién piko lo que entiende este trabajo? Estructuras focales en el español en contacto con guaraní
12:30 – 13:00
María Mare (Universidad Nacional del Comahue/ CONICET). De posesivos y otros demonios en el español de América
13:00 – 14:30
Almuerzo / Almoço / Lunch
14:30 – 15:30
EXPOSITOR INVITADO / ORADOR CONVIDADO / INVITED SPEAKER: Jairo Nunes
15:30 – 16:00
Cristina Schmitt (MSU) & Charlotte Galves (Unicamp). Avaliando propostas sincrônicas a luz da diacronia: o caso dos nomes nus no Português Brasileiro e no Português Europeu
16:00 – 16:30
Inés Kuguel (Universidad de General Sarmiento) & Carolina Oggiani (CONICET). Sintagmas preposicionales escuetos en las variedades rioplatenses del español
16:30 – 17:00
María Teresa Espinal (UAB) & Sonia Cyrino (UNICAMP). On overt/null determiners in Romance: the case of weak and expletive definites in Spanish, Catalan and Brazilian Portuguese
17:00 – 17:30
Café / Coffee Break
17:30 – 18:00
Maria Cristina Figueiredo Silva (UFPR/CNPq) & Sérgio de Moura Menuzzi (UFRGS/CNPq). Sobre o uso de sentenças clivadas como resposta para perguntas WH
18:00 – 18:30
João Costa*, Elaine Grolla** & Maria Lobo* (*CLUNL/FCSH – Universidade Nova de Lisboa, **Universidade de São Paulo). The acquisition of syntactic microvariation in silent categories
18:30 – 19:00
Maria Eugenia Lammoglia Duarte & Mayara Nicolau de Paula (Universidade Federal do Rio de Janeiro). Wh-questions in European and Brazilian Portuguese
=-=-=-=-=-=-=-=-=-=
27.11 – JUEVES / QUINTA-FEIRA / THURSDAY
9:00 – 9:30
Pascual Masullo (Universidad Nacional de Río Negro). A vacuous split between reference and predication in Argentinian Spanish
9:30 – 10:00
María Eugenia Mangialavori (Universidad Nacional de Rosario-CONICET) & Rafael Marin (CNRS (UMR 8163) – Université Lille 3). ‘Hasta el moño’. Boundedness and (non)directionality following from estar´s Semantic structure.
10:00 – 10:30
Esthela Treviño (UAM-Iztapalapa). De Comp a Evid: ‘que’ en el Español Mexicano
10:30 – 11:00
Café/ Coffee break
11:00 – 11:30
Laura Kornfeld (Universidad de Buenos Aires / Universidad de General Sarmiento / CONICET). ‘Dale nomás…’ Misterios y revelaciones de un clásico argentino
11:30 – 12:00
Gabriela Resnik (Universidad Nacional de General Sarmiento). La gramática de los nombres de tratamiento en español rioplatense
12:00 – 12:30
Mercedes Pujalte (Universidad de General Sarmiento). Propiedades del incremento de la valencia argumental de los verbos intransitivos en el español del Río de la Plata
12:30 – 14:00
Almuerzo / Almoço / Lunch
14:00 – 15:00
Expositora invitada/ Invited Speaker: Ángela Di Tullio
15:00 – 15:30
Maria Aparecida Torres Morais (USP). Definite articles and possessives: a microcomparative perspective
15:30 – 16:00
Sabrina Grimberg (Universidad de Buenos Aires). Spanish possessives as phases: on tus amigos, estos mis amigos and sus amigos de ellos
16:00 – 16:30
Bruna Pereira (UFVJM). “Eu quero uma resposta suas”: o possessivo em [d[cp]]
16:30 – 17:00
Café / Coffee Break
17:00 – 17:30
Silvina Montrul (University of Illinois at Urbana-Champaign). Differential Object Marking in Spanish and Romanian in the United States
17:30 – 18:00
Chiyo Nishida (University of Texas at Austin). IO realization variation in Spanish gustar-type verb constructions: a corpus-based study
18:00 – 18:30
Liliana Sánchez (Rutgers University) & Pablo Zdrojewski (Universidad Nacional de General Sarmiento / Universidad de Buenos Aires). Notas sobre la variación en el orden VOS en el español
=-=-=-=-=-=-=-=-=-=
28.11 – VIERNES / SEXTA-FEIRA / FRIDAY
9:00 – 9:30
Cristina Prim (Unicamp). A relação entre determinantes e movimento dos adjetivos
9:30 – 10:00
Eloisa Pilati (UnB), Rozana Naves (UnB) & Marcus Lunguinho (FAJESU). Ordem verbo-sujeito, inversão locativa e o estatuto sintático dos elementos locativos: análises para o português brasileiro e para o italiano
10:00 – 10:30
Lílian Teixeira de Sousa (Unicamp). As múltiplas negações sentenciais no Português Brasileiro: de denegação a negação semântica
10:30 – 11:00
Café / Coffee break
11:00 – 11:30
Francisco Ordóñez (Stony Brook University) & Andrés Saab (CONICET-UBA). Parameters in causatives, doubling and DOM in Peninsular Spanish and Río de la Plata Spanish
11:30 – 12:00
Aquiles Tescari Neto (Unicamp/FAPESP / UFRJ). A hierarquia dos advérbios focalizadores e a Cartografia das estruturas sintáticas
12:00 – 13:00
CONFERENCIA DE CIERRE / CONFERÊNCIA FINAL / FINAL CONFERENCE: Mary Kato
Anuncios
h1

Sobre “On Recursion”

14 enero 2014

El ya clásico trabajo de Hauser, Chomsky y Fitch (2002) postula la diferencia entre los componentes del lenguaje que son comunes a más de un sistema cognitivo (Lenguaje en Sentido Amplio, LSA) y aquellos que son exclusivos de la Facultad Humana del Lenguaje (Lenguaje en Sentido Estricto, LSE). Como recordarán, el artículo propone como tesis que la única capacidad que forma parte del LSE es la Recursión. Curiosamente, tan importante propiedad no recibe definición alguna: el término “recursión” es mencionado 16 veces a lo largo del artículo, pero lo más cercano a una definición que se brinda es la sugerencia de que dicho mecanismo es el que habilita la infinitud discreta del lenguaje, “the capacity to generate an infinite range of expressions from a finite set of elements”. Esta falta de explicitud llevo a varios problemas y discusiones a lo largo de los años: a que se confunda la recursión con la posibilidad de tener subordinación, a que se diga que hay otras especies animales que tienen sistemas de comunicación recursivos, etc.

Felizmente, un paper reciente procura aclarar estas y otras confusiones al dar una definición explícita de RecursiónWatumull, Hauser, Roberts y Hornstein (2014) definen recursión a partir de tres principios: computabilidad (computability), inducción (induction) e irrestricción (unboundedness).

La computabilidad hace referencia al carácter intensional del LSE. Se trata de un procedimiento generativo de funcionamiento equiparable al de una Máquina de Turing:

In a stepwise process analogous to proof construction, the machine deterministically generates outputs (analogous to theorems) given inputs (which, with initial conditions, form a set analogous to axioms) by returning —recursing— intermediate results (analogous to lines or lemmas) according to its programmed rules.

La idea es bastante conocida, a pesar de la oscuridad aparente del párrafo citado: la sintaxis es una función computable que dado ciertos elementos (ítems léxicos) puede generar ciertos conjuntos de oraciones (e.g. la sintaxis del español genera el conjunto infinito de oraciones del español a partir del conjunto finito de ítems léxicos del español).

La inducción refiere a la estructuralidad de los outputs del LSE. Es una noción similar a la de recursión en el sentido de Gödel:

a number theoretic function φ is said to be recursive if there is a finite sequence of number-theoretic functions φ1, φ2, …, φn that ends with φ and has the property that every function φn of the sequence is recursively defined in terms of […] preceding functions.

Este párrafo refiere a que la generación de una estructura sintáctica se da constituyente inmediato por constituyente inmediato. Cada uno de los sintagmas que componen una oración es el producto resultante de un mismo proceso generativo (en términos de Chomsky 1995, la operación Merge).

Por último, la noción de irrestricción pretende explicitar cómo debe ser entendida la idea de que una lengua es un conjunto infinito de oraciones. Algunos críticos (se me viene a la cabeza Postal, entre otros. Ver aquí) señalan que es absurdo decir que el lenguaje es un fenómeno de la mente-cerebro y sostener al mismo tiempo que el lenguaje puede generar infinitas oraciones: nadie puede generar infinitas oraciones. La respuesta es bastante simple: la naturaleza del LSE es intensional y finita, si bien el conjunto que define es infinito. En palabras de los autores: finite brains running in finite time literally do generate infinite sets.

Esta nueva definición tripartita de recursión, si bien no dice nada que no esté presente tácitamente en el razonamiento lingüístico general, promete generar bastante debate. Algo ya se está discutiendo en el post correspondiente del blog Faculty of Language.

 

h1

Esa aplicación de moda: what would I Say?

16 noviembre 2013

Como muchos sabrán, what would I say? es un una aplicación de Facebook que toma el historial de posteos de un usuario y genera posibles frases que podría llegar a decir ese usuario.

whatwould

Es divertido porque genera cosas que pueden ser consideradas “poéticas” (uso la palabra, aunque no comparto la idea: pobres poetas). Algunos ejemplos podrían ser:

vine de conocer un mensaje sarcástico

me vio en estado y quise al ferrocarril

Uno de los mayores problemas de ser lingüista es que uno tiene la rara tendencia de detenerse a pensar cómo funcionan estas cosas. Lo primero que pensé fue “hay que crear una cuenta de Facebook falsa, postear sólo dos oraciones (i.e., un par mínimo) y ver qué cosas puede generar a partir de eso”. (Sí, lo sé: soy un idiota). Como tampoco es que esto me obsesionaba demasiado, decidí no hacerlo.

Lo segundo que supuse fue “bueno, esta cosa claramente genera oraciones bastante aceptables, así que además de incluir un mecanismo de tipo markoviano (un robot que computa las relaciones de adyacencia entre las palabras) enriquecido con algún tipo de programita estadístico, también tiene que tener algún tipo de información sobre estructuras sintácticas recurrentes”. Esta segunda idea era más fácil de verificar: me puse a ver en los posteos de los bots de mis conocidos si era posible reconocer algún tipo de “molde general” para las oraciones. No encontré exactamente eso, pero me pareció ver ciertas regularidades: (i) casi no hay construcciones nominales mal formadas, (ii) casi todos los modificadores de tipo circunstancial (adjuntos) están mal usados, (iii) por lo general, los argumentos de los verbos son incorrectos en términos semánticos (e.g., *comer una casa, *ver una canción). A partir de estos datos (?), mi hipótesis fue que la aplicación tiene información sobre cómo reconocer el verbo de una oración y sus argumentos directos (i.e., sujeto y objeto). Esto es relativamente “fácil” para el inglés o el español que tienen un orden de palabras Sujeto-Verbo-Objeto. Los circunstanciales, en cambio, se reconocerían por el uso de comas. En definitiva, lo que haría el programa es combinar aleatoriamente cosas que reconoce como sujetos, objetos, verbos y circunstanciales. Dado que no hay una verdadera gramática detrás del programita (Chomsky demostró hace 60 años que los mecanismos markovianos son insuficientes como para capturar el fenómeno sintáctico), algunas oraciones mal formadas son esperables.

(Nótese que yo estaba sobreestimando muchísimo la precisión sintáctica de la aplicación. Esto se debe a que estaba omitiendo algo bastante evidente: que la gente postea sólo aquellos estados con oraciones más o menos bien formadas. Seguramente, hay muchos mensajes agramaticales generados por el programa que son descartados por los usuarios. En otras palabras, el mini corpus con el que trabajé estaba muy filtrado por auténticos hablantes).

Se me ocurrió, finalmente, ver si en alguna parte había información sobre el funcionamiento del programa (algo que debería habérseme ocurrido antes de hipotetizar cualquier cosa). Sus creadores son bastante explícitos con respecto al mecanismo utilizado:

Technically speaking, it trains a Markov Bot based on mixture model of bigram and unigram probabilities derived from your past post history.

Básicamente, lo que dice ahí es que el programa no tiene ningún tipo de información lingüística previa (como yo había supuesto erróneamente), sino que simplemente repite patrones recurrentes. Lo de unigram y bigram refiere a cuantas palabras por delante de la que se está computando registra el programa. Por ejemplo, para una frase como el lindo día y con respecto al artículo el, un unigrama registra la aparición de lindo delante de el, mientras que un bigrama registra la aparición del par ordenado <lindo, día> delante de el. En otras palabras, lo que hace el programa es aprenderse qué palabra o par de palabras usa un usuario después de una determinada palabra. Por ejemplo, el programa sabe que “casi todas las oraciones” empiezan por un artículo (e.g., “el libro que leí”, “las vacaciones te hacen bien”), por lo que seguramente empiece la oración con un artículo. Después del artículo, se fija cuál es la palabra o par de palabras que más frecuentemente aparecen en co-ocurrencia con ese artículo. Y así va generando frases, palabra a palabra. Es necesario, además, que el programita vaya armando lista de tipos de constituyentes que reconoce (el término técnico es clusters), para (i) no generar siempre las mismas oraciones y (ii) no tener que calcular toda la estadística de los patrones lingüísticos cada vez que se le pide que genere un nuevo posteo.

En fin, terminó resultando que el funcionamiento del programa era bastante aburrido desde un punto de vista lingüístico… Pero al menos no necesito escribir ningún tipo de conclusión para todo esto: tengo un viejo chiste de xkcd que resulta más que elocuente.

computational_linguists

h1

Subextraction by Szyslak (1997) Revisited (o sobre cómo un capítulo de Los Simpsons me llevó a un divague sobre la Condición de Ciclo Estricto)

21 julio 2013

El capítulo de Los Simpsons titulado “Un milagro en la avenida Siempreviva” (S9E10) está lejos de ser uno de mis favoritos. De hecho, creo que es el capítulo que marca la frontera entre los grandes clásicos de la serie y los capítulos que no le gustan a nadie (e.g., el capítulo siguiente, “Todos cantan todos bailan”, es una compilación de musicales. Puaj). Sin embargo, en este episodio se encuentra uno de los gags más festejados por la comunidad lingüística (?): Moe Szyslak, el bizarro dueño del bar, un tipo con una historia sórdida, metido en la trata ilegal de animales y personas, un ser de carácter totalmente desagradable y despreciable, le dice a Homero:

(1) *You know what I blame this on the breakdown of? Society.

Si le preguntan a cualquier hablante nativo de inglés, esto es totalmente imposible de decir. En el doblaje mexicano el chiste se pierde (los traductores arreglaron el “error”, por lo que si ven el capítulo el gag no aparece), pero la oración original es fácilmente adaptable al español. Sería una ensalada de palabras como la siguiente:

(2) *¿Sabés de qué responsabilizo a esto por la caída? De la sociedad.

La idea es que De la sociedad funciona (o debería funcionar) como respuesta a lo que está en negrita dentro de la pregunta. Que esto no se pueda decir es llamativo. Veamos por qué. La forma activa (i.e., aseverativa) de esa pregunta es algo así como lo siguiente:

(3) (Vos) sabés que responsabilizo a esto por la caída de la sociedad.

Lo que es perfectamente correcto en español. Lo mismo se da si preguntamos por otras partes de esta oración:

(4) ¿Sabés a qué responsabilizo por la caída de la sociedad? A esto.

(5) ¿Sabés por qué (cosa) responsabilizo a esto? Por la caída de la sociedad.

Hay tres preguntas que cabe hacerse con respecto a las oraciones de (2), (4) y (5):

  1. ¿Qué tiene de distinto de la sociedad con respecto a a esto y a por la caída de la sociedad?
  2. ¿ Qué tipo de principio lingüístico restringe la formación de preguntas con constituyentes del tipo de de la sociedad?
  3. ¿De dónde sale ese principio lingüístico?

Analicemos algunas posibles respuestas a estas preguntas.

La primera pregunta es fácil de responder a simple vista: de la sociedad está “metido adentro” de por la caída de la sociedad. La sintaxis de las lenguas naturales funciona como las muñecas rusas: vamos metiendo frases dentro de otras frases, y esas frases dentro de otras frases más grandes. Generalmente se asume que el proceso por el que surgen estas estructuras se da “de abajo hacia arriba”. O sea que primero tenemos lo que está “más adentro” de la frase y le vamos agregando de a poco varias capas. Para el caso de por la caída de la sociedad sería algo así:

  • P1. Primero se combinan la y sociedad: [la sociedad]
  • P2. Luego se combinan de y [la sociedad]: [de [la sociedad]]
  • P3. Después, todo esto se combina con caída: [caída [de [la sociedad]]]
  • P4. Ese bodoque se combina con la: [la [caída [de [la sociedad]]]]
  • P5. Y, por último, se combina por: [por [la [caída [de [la sociedad]]]]]

A partir de esto se puede empezar a ofrecer una respuesta para la segunda pregunta. Dado que la sintaxis de las lenguas naturales opera paso a paso, operación por operación, es posible suponer que en un determinado momento de la generación de una pregunta se aplica una regla de, digamos, formación de estructura interrogativa. Dicha regla diría algo así como “tome el constituyente por el que usted desea preguntar, cámbielo por un pronombre interrogativo y póngalo a la izquierda del verbo”. Un ejemplo:

  • Estructura base: [Llegó la abuela]
  • Inserción de pronombre interrogativo: [Llegó quién]
  • Movimiento del pronombre a la izquierda: [¿Quién llegó?]

Si la regla de formación de estructura interrogativa es de la misma naturaleza que las reglas combinatorias ejemplificadas para formar por la caída de la sociedad, entonces dicha operación debe aplicarse sobre el producto de las operaciones sintácticas previas (e.g., en el caso de por la caída de la sociedad, la regla combinatoria que se aplica en el paso P3 se aplica necesariamente sobre el constituyente formado en el paso P2). En otras palabras, la idea es que la regla de formación de interrogativas no puede manipular cualquier constituyente de la oración, sino sólo aquellos que le sean accesibles por haber sido generados por una regla inmediatamente anterior. Entonces, si asumimos que la regla de formación de interrogativas se forma en el paso P6, posterior a P5, dicha regla no puede acceder a la información del constituyente de la sociedad por ser este visible sólo en el paso P3. En definitiva, la explicación por la que la oración de (2) es agramatical recae, entonces, sobre la naturaleza cíclica del sistema sintáctico.

Con respecto a la tercera pregunta, cabe definir cómo es que la ciclicidad es una propiedad de la sintaxis humana. Es decir, si la sintaxis funciona cíclicamente hay que especificar a qué factor incidente en el diseño de la Facultad Lingüística se hará responsable de tal característica. Básicamente, hay tres posibilidades:

  • La sintaxis es cíclica porque en la evolución biológica de la especie humana resultó que un sistema combinatorio mental de este tipo proveía ventajas reproductivas a los individuos.
  • La sintaxis es cíclica porque los bebés/chicos infieren un algoritmo cíclico a partir de los datos lingüísticos recibidos durante los primeros años de vida.
  • La sintaxis es cíclica por alguna razón inespecífica al lenguaje, quizá se trate de una manera de ahorrar recursos cognitivos durante la generación de una oración compleja.

Definir cuál de estas posibilidades lógicas es la correcta para varias de las propiedades del lenguaje es, en cierto sentido, uno de los ejes de discusión en teoría lingüística actual. Sin embargo, es también la cuestión más difícil de zanjar. Eso, sin embargo, tal vez sea tema de otro divague…

h1

Un cambio en la marea

16 enero 2013

Me gusta entender el desarrollo de la gramática generativa como una secuencia de pequeños paradigmas cuasi-metodológicos de investigación intrínsecamente relacionados a lo largo de los años. No se trata de una división perfecta, por supuesto, pero más o menos pueden reconocerse los siguientes períodos.

(1957 a 1969) — Reglas para las gramáticas de las lenguas
(1969 a 1979) — Restringir y filtrar el poder generativo de las reglas
(1979 a 1991) — Reducir reglas y filtros a principios lingüísticos universales.
(1991 a hoy) — Una vez definidos algunos principios, procuremos entenderlos.

Si le damos una mirada al escenario más amplio de los estudios gramaticales (aunque no creo que sea mucho más amplio que esto), podemos reconocer un estadio previo lógicamente necesario.

(1916 a 1957) — Intentemos ofrecer descripciones sistemáticas de la lengua (esto puede sonar redundante).

Varias veces me han criticado por opinar que, en la actualidad, el acercamiento generativo al estudio de las gramáticas humanas es el único que tiene algo interesante que decir sobre ellas (uso el término generativo en un sentido amplio). Lo sostengo. Por mucha tinta y saliva que se pueda utilizar en argumentar lo contrario, la gramática generativa es el único marco teórico que se esfuerza por explicar las propiedades intrínsecas del sistema gramatical.

El marco ha resultado fructífero. Se han podido reconocer varias propiedades del lenguaje humano. Algunas son:

Las operaciones gramaticales son dependientes de la estructura. A cualquiera que tenga formación en lingüística esto le va a sonar obvio, pero no lo es. No cualquier cosa puede concordar con cualquier cosa, y no cualquier elemento puede moverse a cualquier parte: todo depende de la estructura en la que se encuentre. Esto es un hecho.

Las dependencias lingüísticas son locales. Minimidad relativizada, básicamente: para que haya una relación gramatical entre A y B no puede haber un elemento C entre ellos que pueda cumplir el mismo rol que A o B. Esto es cierto desde el funcionamiento de las operaciones de concordancia (gramática), hasta ciertas dependencias entre fonos (Forma Fonética) y hasta en los principios de ligamiento (Forma Lógica).

El ordenamiento de la información en la estructura oracional sigue un patrón universal. Básicamente, Cinque. La idea es que parece haber un ordenamiento universal del tipo de información contenida en una estructura gramatical. No copio la estructura porque es un poquito larga…

Hay varias observaciones más de este tipo, y otros cientos de teorías que permiten explicar patrones lingüísticos en lenguas totalmente inconexas. En fin, el tema es que hay ciertas cuestiones que han salido a la luz en los estudios gramaticales en los últimos años y que son generalizaciones sumamente importantes sobre como funciona el lenguaje humano. O sea, son descubrimientos importantes en el marco general de la ciencia moderna. Hay, sin embargo, un problema: ¿alguien se entera de estos descubrimientos? ¿qué hacemos los lingüistas para estos descubrimientos lleguen al gran público?

Hace un par de semanas, David Pesetsky presentó una plenaria en el congreso anual de la LSA en la que señalaba precisamente este problema y las implicaciones que conlleva. Resumo brevemente estos puntos a partir del ppt que usó (puede descargarse desde aquí). En un mundo ideal para los lingüistas, dice Pesetsky, esto debería haber pasado:

The Cinque hierarchy would have appeared first in Nature.

Rice’s discovery of unity-in-diversity in Athapaskan affix-ordering would have merited a front-page article in the NY Times Science section.

Merchant’s discovery of a link between preposition-stranding sluicing and its overt counterpart would have appeared in the Proceedings of the Royal Society, heralded in the press as “perhaps the final blow to an age-old debate about ellipsis”.

Legate’s discovery that the left periphery of Warlpiri looks like Rizzi’s left periphery for Italian (and Cable’s for Tlingit) would have been the topic of an hour on NPR Science Friday.

Bobaljik’s recent discoveries about comparatives and superlatives would have appeared first in Science, reported as an AP news item, and ended up as the theme for a joke by a late-night talk-show host.

Por supuesto, no vivimos en un mundo ideal para los lingüistas. De hecho, parece que vivimos en un mundo de pesadillas para los lingüistas, un mundo en el que los papers que llegan a las más importantes publicaciones son aquellas que intentan negar los descubrimientos realizados por los gramáticos. Por ejemplo, Frank, Bod y Christiansen (2012) señalan que

It is generally assumed that hierarchical phrase structure plays a central role in human language. However, considerations of simplicity and evolutionary continuity suggest that hierarchical structure should not be invoked too hastily. Indeed, recent neurophysiological, behavioural and computational studies show that sequential sentence structure has considerable explanatory power and that hierarchical processing is often not involved. In this paper, we review evidence from the recent literature supporting the hypothesis that sequential structure may be fundamental to the comprehension, production and acquisition of human language. Moreover, we provide a preliminary sketch outlining a non-hierarchical model of language use and discuss its implications and testable predictions. If linguistic phenomena can be explained by sequential rather than hierarchical structure, this will have considerable impact in a wide range of fields, such as linguistics, ethology, cognitive neuroscience, psychology and computer science.

Un fragmento del artículo que parece haber molestado especialmente a Pesetsky (y que en realidad molestaría a cualquier lingüista con dos dedos de frente):

the practice of analysing sentences in terms of deep hierarchical structures is still part and parcel of linguistic theory. In this paper, we question this practice, not so much for language analysis but for the description of language use. We argue that hierarchical structure is rarely (if ever) needed to explain how language is used in practice.

O sea: no importa que el resultado necesario de décadas de estudio lingüístico sea que las oraciones del lenguaje natural tienen estructura interna, sino que en el uso del lenguaje esta propiedad se ve poco. Esta proclama equivale teóricamente a decir algo así como “no es que el agua no se componga de dos átomos de hidrógeno y uno de oxígeno, sino que eso no se evidencia cuando alguien tiene sed”. No voy a entrar en detalles sobre cuales son las motivaciones (bastante básicas) de por qué es necesario asumir un ordenamiento jerárquico para los sintagmas ya que lo básico está en cualquier buen manual de gramática de los últimos 50 años.

Otro artículo crítico hacia los estudios gramaticales que apareció en una publicación importante es el de Evans y Levinson (2009) sobre los universales lingüísticos. Hace poco tuve oportunidad de leerlo nuevamente y concuerdo con las observaciones de numerosos especialistas: el artículo hace agua por todas partes. Particularmente, a mí me llamó la atención el análisis que hacen sobre una estructura en particular: ellos están discutiendo que los modelos teóricos como la gramática generativa hacen demasiado hincapié en la estructura de constituyentes de los sintagmas, cuando hay lenguas que, se supone, no obedecen estructura de constituyentes sino que hacen uso de dependencias discontinuas.

Example (15) illustrates a discontinuous sequence of words in Thalanyji, which would correspond to a constituent in most European languages; “the woman’s dog” is grouped as a single semantic unit by sharing the accusative case.

Kupuju-lu    kaparla-nha      yanga-lkin               wartirra-ku-nha
niños-ERG   perro-ACUS      perseguir-PRES    mujer-ACUS-DAT
‘El niño persigue el perro de la mujer’.

Note how possessive modifiers – coded by a special use of the dative case – additionally pick up the case of the noun they modify, as with the accusative –nha on “dog” and “woman-Dat” in (15). In this way multiple case marking (Dench & Evans 1988) allows the grouping of elements from distinct levels of structure, such as embedded possessive phrases, even when they are not contiguous. It is this case-tagging, rather than grouping of words into constituents, which forms the basic organizational principle in many Australian languages (see Nordlinger 1998 for a formalization).

It is even possible in Jiwarli to intermingle words that in English would belong to two distinct clauses, since the case suffixes function to match up the appropriate elements. These are tagged, as it were, with instructions like “I am object of the subordinate clause verb,” or “I am a possessive modifier of an object of a main clause verb.” By fishing out these distinct cases, a hearer can discern the structure of a two-clause sentence like “the child (ERG) is chasing the dog (ACC) of the woman (DAT-ACC) who is sitting down cooking meat (DAT)” without needing to attend to the order in which words occur (Austin & Bresnan 1996). The syntactic structure here is most elegantly represented via a dependency formalism (supplemented with appropriate morphological features) rather than a constituency one. Although languages like Jiwarli have been increasingly well documented over the last forty years, syntactic theories developed in the English-speaking world have primarily focussed on constituency, no doubt because English fits this bill. In the Slavic world, by contrast, where languages like Russian have a structure much more like Jiwarli or Latin, models of syntactic relations have been largely based on dependency relations (Melcuk 1988).

El problema con la estructura que analizan Evans y Levinson es que si bien es rara para el inglés, en español (rioplatense, al menos) tenemos una estructura sumamente similar:

(15′) Los niños le persiguieron el perro a la mujer.

En esta oración, a la mujer es un aplicativo común y silvestre (creo) y la mujer recibe interpretación de poseedor del perro. El problema que señalan Evans y Levinson sólo surge si se considera que la única estructura que permite dar cuenta de un sentido posesivo es mediante una modificación de tipo “genitivo” de un nominal, pero esta claro que ese no es el único modo. Sorprende que un dato con un análisis tan obvio pueda ser considerado “demoledor”.

Ahora bien, volviendo a Pesetsky, lo que él nota es que este tipo de artículos llega a las publicaciones importantes y que, subsecuentemente, llegan a los medios masivos de comunicación gracias al llamado “periodismo científico“.

beans_string

La pregunta que se hace Pesetsky (y a la que se debe el título de la plenaria) es “¿Qué debemos hacer?“.  La respuesta es simple: educar.

Most educated people have never encountered linguistics, and have no idea what it might even mean to examine a linguistic puzzle scientifically. An undergraduate linguistics class is our counterpart to a high-school science class: we have to teach basics.

Imagine a world in which an editor for the Proceedings of the Royal Society might know enough to say: “Wait a minute, if phrase structure rules play no role in use, what does that say about condition C effects?” —because like every educated person, he studied that in high school.

Is this a hopeless goal?

Taking account of the world as it is, with all its difficulties, we must start presenting our work outside our field, taking whatever lumps come our way…

Lo que hay que hacer, entonces, es empezar a difundir los resultados (propios y ajenos) de la lingüística moderna. Algo de eso intenta hacer muy modestamente este blog. Otra gente un poco más ilustre también ha tenido la misma idea, sino prueben entrar al blog Faculty of Language, cuyo objetivo es, justamente, empezar a abrir al gran público la disciplina lingüística moderna (vean en particular su primer post).

En fin, cuando dije que “está cambiando la marea” me refería a este cambio: a la idea de que la lingüística debe dejar de construirse puertas adentro y debe exhibir sus resultados. Este también es un pequeño cambio de paradigma. Quién sabe… tal vez en algún momento alguien pueda escribir lo siguiente:

(2013 en adelante) — La lingüística se abre al mundo.

h1

El desarrollo lingüístico: un problema, dos perspectivas

21 septiembre 2012

El desarrollo lingüístico: un problema, dos perspectivas es el título del panel que estaremos presentando la próxima semana en el marco del ENeL 8. Se trata de una charla que pretende servir de introducción a varios aspectos de los estudios lingüísticos. Esto tendrá lugar el próximo viernes 28 a las 17 en la Facultad de Filosofía y Letras (Puan 480, CABA).

PRESENTACIÓN
En los últimos sesenta años, la relación entre teoría gramatical, tipología y los estudios psicológicos sobre el desarrollo lingüístico en infantes se ha vuelto cada vez más estrecha. La postulación de la Gramática Universal (GU) como respuesta al problema de Platón permitió el desarrollo de un rico campo interdisciplinar cuyo objetivo primordial fue verificar la plausibilidad psicológica de dicha noción. En general, si bien los resultados obtenidos convalidan la existencia de conocimiento lingüístico innato en los seres humanos, estos también llevaron a la constante reformulación de las teorías particulares de la GU. Sin embargo, quizá el resultado más interesante de este proceso sea el desplazamiento del eje del debate desde una perspectiva ontogenética a una perspectiva filogenética, lo que derivó en la emergencia de un nuevo campo interdisciplinar cuyo principal objetivo es responder la siguiente pregunta: ¿cómo fue que el conocimiento lingüístico pasó a formar parte del patrimonio biológico de los seres humanos? (i.e., el problema de Darwin).
OBJETIVOS
• Presentar y debatir algunos de los aspectos teóricos que constituyen el eje del debate con respecto a los problemas de Platón y Darwin.
• Discutir el papel que los lingüistas desempeñan (o deberían desempeñar) en los estudios de adquisición y evolución del lenguaje.
ESTRUCTURA DEL PANEL
1. INTRODUCCIÓN
El problema de la unificación en teoría lingüística y biología.
Niveles de adecuación de la teoría gramatical.
2. EL PROBLEMA LÓGICO DE LA ADQUISICIÓN DEL LENGUAJE
Las varias acepciones del término innato.
Consideraciones en torno al Argumento de la Pobreza de los Estímulos.
3. EL PROBLEMA LÓGICO DE LA EVOLUCIÓN DEL LENGUAJE
El problema de la aprendibilidad filogenética del lenguaje.
Arquitectura lingüística y teoría evolutiva.
COORDINACIÓN
Fernando Carranza (UBA, IESJRF) – Pablo Ceballos (UBA) – Sabrina Grimberg (UBA) – Sonia Kaminszczik (UBA) – Carlos Muñoz Pérez (UBA, UNGS) – Julian Schwartz (UBA) – Laura Stigliano (UBA)
h1

Megapost de Mario Montalbetti

24 febrero 2012
(Tal vez lo de "mega" sea algo exagerado, pero me gusta como suena. Es muy de Taringa!).

Ayer por la tarde estuve viendo un par de videos de Mario Montalbetti que la gente de la PUCP publicó en Youtube. Me resultaron muy interesantes, así que los voy a compartir aquí. Por supuesto, antes voy a responder la pregunta que muchos se estarán haciendo: ¿quién es Mario Montalbetti?

Mario Montalbetti es un lingüista peruano que se doctoró en el MIT con una tesis sobre ligamiento. No soy un experto ni nada parecido, pero hasta donde entiendo, él fue el primero en señalar empíricamente que el paralelismo entre pronombres fonéticamente realizados y pronombres nulos (e.g. pro) es falso. Por ejemplo, un sujeto con un pronombre nulo tiene una interpretación ligada con un cuantificador estructuralmente superior, mientras que un pronombre que funciona como sujeto no permite tal interpretación.

(1) Nadiei sabe que proi vendrá

(2) *Nadiei sabe que éli vendrá (vs. Nadiej sabe que éli vendrá)

Datos como estos (que han pasado a la historia como los Montalbetti’s Effects) llevaron a que Montalbetti propusiera una condición a partir de la cual se regula la alternancia de pronombres abiertos y nulos en la estructura de la cláusula: la Overt Pronoun Constraint. Su versión original es la siguiente.

Overt Pronoun Constraint
Overt pronouns cannot link to formal variables iff the alternation overt/empty obtains.

En cristiano, esto significa que un pronombre abierto no puede estar ligado si es posible poner en su lugar un pronombre nulo. Quien se haya interesado en esto puede consultar la tesis de Montelbetti, que se descarga para lectura desde aquí.

Cambiando de tema, en el blog de Montalbetti (acá) hay una serie de frases tipo aforismo de las cuales rescato las que refieren a la labor del lingüista.

La lingüística está llena de esas cosas que “no sirven para nada”. Por ejemplo, se puede decir “durante la lluvia” pero no “durante el viento”. (Se puede decir “durante el día de hoy” pero no “durante hoy”.)

Pero ojo:

Cuando digo que hay cosas que “no sirven para nada” en realidad quiero decir que hay cosas que “no sirven a nadie” en ambos sentidos: que no tienen una relación servil con un amo y que no son de utilidad.

Sobre la investigación:

Si alguien ya sabe la verdad no necesita investigar. Por eso es una mala idea que quienes ya saben la verdad dirijan centros de investigación. Un arzobispo católico, por definición, ya sabe la verdad. El que sabe la verdad lo único que quiere hacer con ella es propagarla. Una Universidad parte del principio opuesto: no sabemos la verdad, busquémosla. En este camino, hay verdades parciales: sabemos construir puentes y sabemos hacer análisis gramaticales . La otra verdad, a veces expresada como solución a la pregunta “¿de qué va esto?”, la Universidad no la tiene, pero la busca. Esto, de paso, distingue a una Universidad de un Centro de Adiestramiento. A este último no les interesa de qué va esto.

Esto es demasiado cierto:

A veces los lingüistas pensamos en estas cosas: un semáforo solamente necesita una luz, no tres. Digamos que nos quedamos con la roja. Si está encendida, uno para; si está apagada uno no-para. Listo. El problema es que si la luz está apagada uno no sabe si el semáforo está funcionando o no. Entonces: lo que la luz verde quiere decir no es “siga” sino “el semáforo está funcionando”. Este análisis no mejorará el manejo de la gente pero se entenderá mejor cómo es que funcionan las relaciones sociales. (El estructuralismo es una gran cosa y el hiper-estructuralismo es una mejor cosa aún.)

Y ahora, finalmente, los videos. El primero es una entrevista en la que explica por qué y cómo se dedicó a la lingüística.

El segundo es una pequeña clase en la que se discuten algunas cuestiones del estudio del lenguaje que generalmente se asumen y no son correctas. No quiero adelantar más.