h1

Caroline Heycock explicando teoría sintáctica

17 febrero 2015

Acabo de encontrar unos videos muy útiles en Youtube para quienes empiezan a estudiar sintaxis. Caroline Heycock (The University of Edinburgh) explica en términos muy sencillos y precisos (i) la teoría X-barra, (ii) la estructura de los nominales, (iii) la teoría del DP, (iv) la estructura oracional y (v) la sintaxis de las oraciones interrogativas. Muy recomendado.

 

 

 

 

 

 

h1

Curso online y gratuito de lingüística teórica

6 diciembre 2014

Marc van Oostendorp y sus estudiantes dictarán un curso online titulado Miracles of Human Language. El curso se divide en cinco módulos (propiedades del lenguaje humano, sonidos del lenguaje, palabras y oraciones, significado y lenguaje en contexto social). Las clases empiezan a fines de marzo del 2015 y son totalmente gratuitas. Te dan un certificado y todo.

Se puede acceder al curso aquí.

h1

Romania Nova VII

17 noviembre 2014

Está muy cerca la VII edición del Workshop Romania Nova. Esta vez, el encuentro se realiza en el Museo de la Lengua, en la Ciudad de Buenos Aires. El Workshop pretende ser un espacio de intercambio para aquellos lingüistas y filólogos interesados en el estudio comparativo de las variedades americanas de las lenguas romances.

El libro de resúmenes del encuentro puede ser descargado aquí.

El siguiente es el programa del evento.

26.11 – MIÉRCOLES / QUARTA-FEIRA / WEDNESDAY
8:30 – 9:00
Acreditación / Acreditação / Registration
9:00 – 9:30
Inauguración / Inauguração / Opening remarks
9:30 – 10:00
Poliana Rabelo (Universidade de Brasília). A categoria de pessoa no português do Brasil (PB): indícios de cisão
10:00 – 10:30
Humberto Borges (Universidade de Brasília). A emergência da gramática do português brasileiro em goiás
10:30 – 11:00
Humberto Soares da Silva & Juliana Esposito Marins (Universidade Federal do Rio de Janeiro). O preenchimento da posição de sujeito com verbos que não selecionam argumento externo
11:00 – 11:30
Café / Coffee break
11:30 – 12:00
Diego Estomba (Universidad Nacional del Comahue). Sintagma de número sin flexión de número: un análisis del haitiano
12:00 – 12:30
Alicia Avellana (Universidad de Buenos Aires/ CONICET) & Laura Kornfeld (Universidad de Buenos Aires/ Universidad de General Sarmiento/ CONICET). ¿Quién piko lo que entiende este trabajo? Estructuras focales en el español en contacto con guaraní
12:30 – 13:00
María Mare (Universidad Nacional del Comahue/ CONICET). De posesivos y otros demonios en el español de América
13:00 – 14:30
Almuerzo / Almoço / Lunch
14:30 – 15:30
EXPOSITOR INVITADO / ORADOR CONVIDADO / INVITED SPEAKER: Jairo Nunes
15:30 – 16:00
Cristina Schmitt (MSU) & Charlotte Galves (Unicamp). Avaliando propostas sincrônicas a luz da diacronia: o caso dos nomes nus no Português Brasileiro e no Português Europeu
16:00 – 16:30
Inés Kuguel (Universidad de General Sarmiento) & Carolina Oggiani (CONICET). Sintagmas preposicionales escuetos en las variedades rioplatenses del español
16:30 – 17:00
María Teresa Espinal (UAB) & Sonia Cyrino (UNICAMP). On overt/null determiners in Romance: the case of weak and expletive definites in Spanish, Catalan and Brazilian Portuguese
17:00 – 17:30
Café / Coffee Break
17:30 – 18:00
Maria Cristina Figueiredo Silva (UFPR/CNPq) & Sérgio de Moura Menuzzi (UFRGS/CNPq). Sobre o uso de sentenças clivadas como resposta para perguntas WH
18:00 – 18:30
João Costa*, Elaine Grolla** & Maria Lobo* (*CLUNL/FCSH – Universidade Nova de Lisboa, **Universidade de São Paulo). The acquisition of syntactic microvariation in silent categories
18:30 – 19:00
Maria Eugenia Lammoglia Duarte & Mayara Nicolau de Paula (Universidade Federal do Rio de Janeiro). Wh-questions in European and Brazilian Portuguese
=-=-=-=-=-=-=-=-=-=
27.11 – JUEVES / QUINTA-FEIRA / THURSDAY
9:00 – 9:30
Pascual Masullo (Universidad Nacional de Río Negro). A vacuous split between reference and predication in Argentinian Spanish
9:30 – 10:00
María Eugenia Mangialavori (Universidad Nacional de Rosario-CONICET) & Rafael Marin (CNRS (UMR 8163) – Université Lille 3). ‘Hasta el moño’. Boundedness and (non)directionality following from estar´s Semantic structure.
10:00 – 10:30
Esthela Treviño (UAM-Iztapalapa). De Comp a Evid: ‘que’ en el Español Mexicano
10:30 – 11:00
Café/ Coffee break
11:00 – 11:30
Laura Kornfeld (Universidad de Buenos Aires / Universidad de General Sarmiento / CONICET). ‘Dale nomás…’ Misterios y revelaciones de un clásico argentino
11:30 – 12:00
Gabriela Resnik (Universidad Nacional de General Sarmiento). La gramática de los nombres de tratamiento en español rioplatense
12:00 – 12:30
Mercedes Pujalte (Universidad de General Sarmiento). Propiedades del incremento de la valencia argumental de los verbos intransitivos en el español del Río de la Plata
12:30 – 14:00
Almuerzo / Almoço / Lunch
14:00 – 15:00
Expositora invitada/ Invited Speaker: Ángela Di Tullio
15:00 – 15:30
Maria Aparecida Torres Morais (USP). Definite articles and possessives: a microcomparative perspective
15:30 – 16:00
Sabrina Grimberg (Universidad de Buenos Aires). Spanish possessives as phases: on tus amigos, estos mis amigos and sus amigos de ellos
16:00 – 16:30
Bruna Pereira (UFVJM). “Eu quero uma resposta suas”: o possessivo em [d[cp]]
16:30 – 17:00
Café / Coffee Break
17:00 – 17:30
Silvina Montrul (University of Illinois at Urbana-Champaign). Differential Object Marking in Spanish and Romanian in the United States
17:30 – 18:00
Chiyo Nishida (University of Texas at Austin). IO realization variation in Spanish gustar-type verb constructions: a corpus-based study
18:00 – 18:30
Liliana Sánchez (Rutgers University) & Pablo Zdrojewski (Universidad Nacional de General Sarmiento / Universidad de Buenos Aires). Notas sobre la variación en el orden VOS en el español
=-=-=-=-=-=-=-=-=-=
28.11 – VIERNES / SEXTA-FEIRA / FRIDAY
9:00 – 9:30
Cristina Prim (Unicamp). A relação entre determinantes e movimento dos adjetivos
9:30 – 10:00
Eloisa Pilati (UnB), Rozana Naves (UnB) & Marcus Lunguinho (FAJESU). Ordem verbo-sujeito, inversão locativa e o estatuto sintático dos elementos locativos: análises para o português brasileiro e para o italiano
10:00 – 10:30
Lílian Teixeira de Sousa (Unicamp). As múltiplas negações sentenciais no Português Brasileiro: de denegação a negação semântica
10:30 – 11:00
Café / Coffee break
11:00 – 11:30
Francisco Ordóñez (Stony Brook University) & Andrés Saab (CONICET-UBA). Parameters in causatives, doubling and DOM in Peninsular Spanish and Río de la Plata Spanish
11:30 – 12:00
Aquiles Tescari Neto (Unicamp/FAPESP / UFRJ). A hierarquia dos advérbios focalizadores e a Cartografia das estruturas sintáticas
12:00 – 13:00
CONFERENCIA DE CIERRE / CONFERÊNCIA FINAL / FINAL CONFERENCE: Mary Kato
h1

Curso: Bases experimentales y teóricas para el estudio del procesamiento del lenguaje

21 mayo 2014

10264687_465717376896692_203776068089008570_n

 

DOCENTES

  • Lic. Carolina Gattei (Grupo de Lingüística, INCIHUSA, CCT Mendoza)
  • Dr. Luis Paris (Grupo de Lingüística, INCIHUSA, CCT Mendoza)
  • Lic. Ángel Tabullo (Grupo de Lingüística, INCIHUSA, CCT Mendoza)
  • Dr. Alejandro Wainselboim (Grupo de Lingüística, INCIHUSA, CCT Mendoza)

CONTENIDOS

  • Metodología de investigación en psicolingüística. Protocolos experimentales más utilizados. Neuroimágenes y lenguaje (RMf, PET/SPECT; NIRS.
  • Potenciales Evocados (ERPs) en experimentos de Lenguaje: N400; P600 y ELAN. Posibles significados funcionales de los ERPs.
  • Análisis y estadística de datos comportamentales. Estadística y procesamiento de datos electrofisiológicos con EEGLAB: del EEG al ERP.
  • Expectativa y predicción durante el procesamiento del lenguaje: protocolos y resultados experimentales. Aprendizaje estadístico e inferencial a nivel formal y estructural. Probabilidad condicional y lenguaje. Medidas de expectativa utilizadas experimentalmente: Cloze, Entropía y surprisal.
  • Interfaz Sintáctico-semántica. Bases de lingüística teórica: Jerarquías sintácticas y semánticas. Resultados experimentales en psicolingüística: Efectos del movimiento (“scrambling”). Protocolos de “self-paced reading task” y “eyetracking” (seguimiento ocular).
  • Perspectivas recientes en el estudio del procesamiento del lenguaje. ¿Cuál es el rol funcional del área de Broca? La “unificación” como proceso en el lenguaje y otros dominios cognitivos.

MODALIDAD

  • Curso teórico-práctico con registros experimentales en laboratorio.

NIVEL

  • Estudiantes de posgrado y estudiantes de grado avanzados.

FECHAS Y CARGA HORARIA

  • Fecha del curso: 28 de Julio al 1 de Agosto. Tendrá una duración de 30 horas.

MODO DE EVALUACIÓN

  • Evaluación final escrita con puntaje numérico.

ARANCEL

  • Becarios doctorales de CCT CONICET Mendoza y alumnos del posgrado avalante: $ 400
  • Otros alumnos:$ 500

LUGAR DE REALIZACIÓN DEL CURSO

  • CCT CONICET Mendoza, Sede CRICYT, Av. Ruiz Leal s/n, 5500 Mendoza, Argentina.

PREINSCRIPCIONES

  • Del 12 de mayo al 2 de Junio. Enviar curriculum vitae (máximo 3 páginas) y formulario de inscripción a Susana Godoy. La selección de los alumnos preincriptos será realizada en base a los antecedentes presentados una vez cerrada la inscripción.
h1

Dos videos recientes de Chomsky

19 abril 2014

Comparto dos videos bastante recientes de Noam Chomsky. En el primero se abordan temas varios (e.g. política, medios, lingüística) a partir de preguntas elegidas por los usuarios de Google. El segundo es bastante más específico: teoría sintáctica pura y dura.

Con respecto a este segundo video me molestaron varias observaciones de Chomsky. Creo que la más molesta es la afirmación acerca de la no-existencia de operaciones como Copy o Remerge.

¿Qué?

Vayamos por partes. Para explicar el fenómeno de desplazamiento de las lenguas naturales (e.g. Juan lee el libro vs. El libro, lee Juan), la mayor parte de los modelos que siguen el Programa Minimalista asume que la información acerca de dónde se pronuncia e interpreta un constituyente debe estar presente en una única representación de carácter sintáctico. Esto puede hacerse de dos maneras: (i) asumiendo que varias instancias de un mismo constituyente se ensamblan en una derivación (i.e. copias. Véase Nunes 2004 para mayores detalles) o (ii) suponiendo que un mismo constituyente puede estar dominado por más de un nodo sintáctico (i.e. multidominancia. Véase Gärtner 1997 entre varios otros). Ambas opciones teóricas hacen uso de dos operaciones diferentes, las ya mencionadas Copy y Remerge, respectivamente. Bien, Chomsky niega ambas. Lo que dice es que “lo único que existe es Merge” (la operación combinatoria mínima). No entiendo el sentido de esta afirmación. Sobre todo cuando el propio Chomsky distingue entre dos instancias de Merge, Interno y Externo. Pensémoslo así: una de las ventajas de los sistemas de multidominancia es que prescinden de la operación Copy, tal como parece querer hacer Chomsky. Entonces, ¿cuál es la diferencia entre Merge Interno y Remerge?  ¿La posibilidad de que existan relaciones de multidominancia? ¿El nombre? Y si Chomsky no piensa en términos de multidominancia, ¿cómo hace para descartar una operación, en ese caso, conceptualmente necesaria como Copy? ¿Y qué hacemos con los fenómenos de realización múltiple de copias, tan abundantemente reportados en la bibliografía?

En fin, sin más preámbulos, he aquí los videos.

h1

Sobre “On Recursion”

14 enero 2014

El ya clásico trabajo de Hauser, Chomsky y Fitch (2002) postula la diferencia entre los componentes del lenguaje que son comunes a más de un sistema cognitivo (Lenguaje en Sentido Amplio, LSA) y aquellos que son exclusivos de la Facultad Humana del Lenguaje (Lenguaje en Sentido Estricto, LSE). Como recordarán, el artículo propone como tesis que la única capacidad que forma parte del LSE es la Recursión. Curiosamente, tan importante propiedad no recibe definición alguna: el término “recursión” es mencionado 16 veces a lo largo del artículo, pero lo más cercano a una definición que se brinda es la sugerencia de que dicho mecanismo es el que habilita la infinitud discreta del lenguaje, “the capacity to generate an infinite range of expressions from a finite set of elements”. Esta falta de explicitud llevo a varios problemas y discusiones a lo largo de los años: a que se confunda la recursión con la posibilidad de tener subordinación, a que se diga que hay otras especies animales que tienen sistemas de comunicación recursivos, etc.

Felizmente, un paper reciente procura aclarar estas y otras confusiones al dar una definición explícita de RecursiónWatumull, Hauser, Roberts y Hornstein (2014) definen recursión a partir de tres principios: computabilidad (computability), inducción (induction) e irrestricción (unboundedness).

La computabilidad hace referencia al carácter intensional del LSE. Se trata de un procedimiento generativo de funcionamiento equiparable al de una Máquina de Turing:

In a stepwise process analogous to proof construction, the machine deterministically generates outputs (analogous to theorems) given inputs (which, with initial conditions, form a set analogous to axioms) by returning —recursing— intermediate results (analogous to lines or lemmas) according to its programmed rules.

La idea es bastante conocida, a pesar de la oscuridad aparente del párrafo citado: la sintaxis es una función computable que dado ciertos elementos (ítems léxicos) puede generar ciertos conjuntos de oraciones (e.g. la sintaxis del español genera el conjunto infinito de oraciones del español a partir del conjunto finito de ítems léxicos del español).

La inducción refiere a la estructuralidad de los outputs del LSE. Es una noción similar a la de recursión en el sentido de Gödel:

a number theoretic function φ is said to be recursive if there is a finite sequence of number-theoretic functions φ1, φ2, …, φn that ends with φ and has the property that every function φn of the sequence is recursively defined in terms of […] preceding functions.

Este párrafo refiere a que la generación de una estructura sintáctica se da constituyente inmediato por constituyente inmediato. Cada uno de los sintagmas que componen una oración es el producto resultante de un mismo proceso generativo (en términos de Chomsky 1995, la operación Merge).

Por último, la noción de irrestricción pretende explicitar cómo debe ser entendida la idea de que una lengua es un conjunto infinito de oraciones. Algunos críticos (se me viene a la cabeza Postal, entre otros. Ver aquí) señalan que es absurdo decir que el lenguaje es un fenómeno de la mente-cerebro y sostener al mismo tiempo que el lenguaje puede generar infinitas oraciones: nadie puede generar infinitas oraciones. La respuesta es bastante simple: la naturaleza del LSE es intensional y finita, si bien el conjunto que define es infinito. En palabras de los autores: finite brains running in finite time literally do generate infinite sets.

Esta nueva definición tripartita de recursión, si bien no dice nada que no esté presente tácitamente en el razonamiento lingüístico general, promete generar bastante debate. Algo ya se está discutiendo en el post correspondiente del blog Faculty of Language.

 

h1

Esa aplicación de moda: what would I Say?

16 noviembre 2013

Como muchos sabrán, what would I say? es un una aplicación de Facebook que toma el historial de posteos de un usuario y genera posibles frases que podría llegar a decir ese usuario.

whatwould

Es divertido porque genera cosas que pueden ser consideradas “poéticas” (uso la palabra, aunque no comparto la idea: pobres poetas). Algunos ejemplos podrían ser:

vine de conocer un mensaje sarcástico

me vio en estado y quise al ferrocarril

Uno de los mayores problemas de ser lingüista es que uno tiene la rara tendencia de detenerse a pensar cómo funcionan estas cosas. Lo primero que pensé fue “hay que crear una cuenta de Facebook falsa, postear sólo dos oraciones (i.e., un par mínimo) y ver qué cosas puede generar a partir de eso”. (Sí, lo sé: soy un idiota). Como tampoco es que esto me obsesionaba demasiado, decidí no hacerlo.

Lo segundo que supuse fue “bueno, esta cosa claramente genera oraciones bastante aceptables, así que además de incluir un mecanismo de tipo markoviano (un robot que computa las relaciones de adyacencia entre las palabras) enriquecido con algún tipo de programita estadístico, también tiene que tener algún tipo de información sobre estructuras sintácticas recurrentes”. Esta segunda idea era más fácil de verificar: me puse a ver en los posteos de los bots de mis conocidos si era posible reconocer algún tipo de “molde general” para las oraciones. No encontré exactamente eso, pero me pareció ver ciertas regularidades: (i) casi no hay construcciones nominales mal formadas, (ii) casi todos los modificadores de tipo circunstancial (adjuntos) están mal usados, (iii) por lo general, los argumentos de los verbos son incorrectos en términos semánticos (e.g., *comer una casa, *ver una canción). A partir de estos datos (?), mi hipótesis fue que la aplicación tiene información sobre cómo reconocer el verbo de una oración y sus argumentos directos (i.e., sujeto y objeto). Esto es relativamente “fácil” para el inglés o el español que tienen un orden de palabras Sujeto-Verbo-Objeto. Los circunstanciales, en cambio, se reconocerían por el uso de comas. En definitiva, lo que haría el programa es combinar aleatoriamente cosas que reconoce como sujetos, objetos, verbos y circunstanciales. Dado que no hay una verdadera gramática detrás del programita (Chomsky demostró hace 60 años que los mecanismos markovianos son insuficientes como para capturar el fenómeno sintáctico), algunas oraciones mal formadas son esperables.

(Nótese que yo estaba sobreestimando muchísimo la precisión sintáctica de la aplicación. Esto se debe a que estaba omitiendo algo bastante evidente: que la gente postea sólo aquellos estados con oraciones más o menos bien formadas. Seguramente, hay muchos mensajes agramaticales generados por el programa que son descartados por los usuarios. En otras palabras, el mini corpus con el que trabajé estaba muy filtrado por auténticos hablantes).

Se me ocurrió, finalmente, ver si en alguna parte había información sobre el funcionamiento del programa (algo que debería habérseme ocurrido antes de hipotetizar cualquier cosa). Sus creadores son bastante explícitos con respecto al mecanismo utilizado:

Technically speaking, it trains a Markov Bot based on mixture model of bigram and unigram probabilities derived from your past post history.

Básicamente, lo que dice ahí es que el programa no tiene ningún tipo de información lingüística previa (como yo había supuesto erróneamente), sino que simplemente repite patrones recurrentes. Lo de unigram y bigram refiere a cuantas palabras por delante de la que se está computando registra el programa. Por ejemplo, para una frase como el lindo día y con respecto al artículo el, un unigrama registra la aparición de lindo delante de el, mientras que un bigrama registra la aparición del par ordenado <lindo, día> delante de el. En otras palabras, lo que hace el programa es aprenderse qué palabra o par de palabras usa un usuario después de una determinada palabra. Por ejemplo, el programa sabe que “casi todas las oraciones” empiezan por un artículo (e.g., “el libro que leí”, “las vacaciones te hacen bien”), por lo que seguramente empiece la oración con un artículo. Después del artículo, se fija cuál es la palabra o par de palabras que más frecuentemente aparecen en co-ocurrencia con ese artículo. Y así va generando frases, palabra a palabra. Es necesario, además, que el programita vaya armando lista de tipos de constituyentes que reconoce (el término técnico es clusters), para (i) no generar siempre las mismas oraciones y (ii) no tener que calcular toda la estadística de los patrones lingüísticos cada vez que se le pide que genere un nuevo posteo.

En fin, terminó resultando que el funcionamiento del programa era bastante aburrido desde un punto de vista lingüístico… Pero al menos no necesito escribir ningún tipo de conclusión para todo esto: tengo un viejo chiste de xkcd que resulta más que elocuente.

computational_linguists

Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.

Únete a otros 26 seguidores