Lengua universal – científicos descubren la lengua que se hablaría antes de la Destrucción de la torre de Babel

Lengua universal – científicos descubren la lengua que se hablaría antes de la Destrucción de la torre de Babel

4 enero, 2018 | adm

Los científicos han encontrado una “lengua universal” que une a todos los idiomas juntos.

¿Es posible que exista un lenguaje universal común que una a todos los demás idiomas juntos?

La idea de una lengua universal humana se remonta a la Biblia. En el que la humanidad hablaba una lengua común. Pero fueron castigados con falta de comprensión mutua después de tratar de construir la Torre de Babel hacia el cielo. (Génesis 11:1-9)

Ahora, los científicos creen que han encontrado un lenguaje que en realidad se auto-organiza. De tal manera que los conceptos relacionados se mantienen tan cerca como sea posible dentro de una frase. Por lo que es más fácil de reconstruir el significado global.

La lengua universal es un gran problema porque arroja luz sobre cuestiones pesadas ​​sobre la cognición humana.

El más famoso defensor de la idea es Noam Chomsky. Este sugirió una “gramática universal” que subyace en todos los idiomas.

Encontrar una propiedad que se produce en todos los idiomas solo sugeriría que algún elemento del lenguaje está genéticamente predeterminado. Tal vez hay una arquitectura específica del cerebro dedicada a la lengua.

Sin embargo, otros investigadores sostienen que hay infinitamente pocos candidatos para un verdadero lenguaje universal.

Dicen que hay una enorme diversidad en todos los niveles posibles de la estructura lingüística. Hasta en los sonidos individuales que hacemos con nuestras bocas (eso es sin incluir las lenguas de signos).

Conceden, sin embargo, que hay tendencias generalizadas en todos los idiomas. Pero argumentan que estos patrones son sólo una señal de que las lenguas encuentran soluciones comunes a los problemas comunes.

Sin encontrar una verdad universal, es difícil hacer el caso de que el lenguaje es un paquete cognitivo específico. En lugar de un resultado más general por la considerable potencia del cerebro humano.

Los sistemas de auto-organización de esta “Lengua Universal”

Mucho se ha escrito acerca de una tendencia en los lenguajes de colocar las palabras con una relación sintáctica. Para que estén estrechamente cerca como sea posible. Richard Futrell, Kyle Mahowald, y Edward Gibson en el MIT (1) se hicieron una pregunta:

Estaban interesados ​​en saber si todos los idiomas pueden utilizar esto como una técnica para hacer frases más fáciles de entender.

La idea es que cuando las sentencias lían conceptos relacionados en la proximidad, se pone menos de una tensión en la memoria de trabajo. Por ejemplo, los adjetivos (como “viejo”) pertenecen a los sustantivos que modifican (como “señora”), por lo que es más fácil de entender el concepto de “anciana” si las palabras aparecen juntas en una oración.

Se puede ver este efecto, al decidir cuál de estas dos frases es más fácil de entender: “John tiró afuera la basura vieja que estaba en la cocina”. O “John tiró la basura vieja que estaba en la cocina afuera”.

Para muchas personas de habla inglesa, la segunda frase sonará extraña. Estamos dispuestos a mantener las palabras “tiró” y “fuera” tan cerca como sea posible. Este proceso de limitación de distancia entre palabras relacionadas se llama minimización de longitud de largo, o DLM (en inglés).

¿Los idiomas desarrollan las gramáticas que obligan a los que hablan concentrar ordenadamente los conceptos juntos?

¿O bien, cuando nos fijamos en una variedad de idiomas, lo que encontramos que no todos ellos siguen el mismo patrón?

Los investigadores querían mirar en el lenguaje, que realmente se utiliza en lugar de compensar frases por sí mismos. Por lo que reunieron las bases de datos de ejemplos de lenguaje de 37 idiomas diferentes. Cada frase en la base de datos se le dio una puntuación basada en el grado de DLM que mostró.

Las frases donde las palabras relacionadas conceptualmente estaban muy separadas en la frase tenían puntuaciones altas. Y esas palabras relacionadas donde se combinaban perfectamente entre sí tenían puntuaciones bajas.

Luego, los investigadores compararon estos resultados a una línea de base.

Tomaron las palabras en cada frase y las pusieron de modo que las palabras relacionadas tuvieran distintas distancias entre ellas.

Si el DLM no estaba jugando un papel en el desarrollo de las gramáticas, argumentaron, deberíamos estar viendo los patrones al azar. Palabras relacionadas deben ser capaces de tener cualquier cantidad de distancia entre ellos. Si el DLM es importante, entonces las puntuaciones de frases reales, deben ser significativamente más bajas que las frases al azar.

Ellos encontraron lo que esperaban: “Todas las lenguas tienen longitudes medias de dependencia más corta que la línea de base al azar”, escriben. Esto fue especialmente cierto para las frases más largas, lo cual tiene sentido. No hay tanta diferencia entre “John tiró afuera la basura”, y “John tiró la basura afuera”.

Aunque el estudio se limitó a 37 idiomas, en realidad es muy difícil construir estas bases de datos de lenguaje en uso.

Lo que hace que sea una muestra razonablemente impresionante, dijo.

En este trabajo se suma a una gran cantidad de trabajos anteriores sobre el tema. Así que no es evidencia solitaria que el DLM se corrobora. Y añadido a, una buena cantidad de investigaciones anteriores, se trata de “una gran cantidad de buena evidencia convergente”, dijo.

“El DML podría ser un candidato prometedor para un mecanismo cognitivo universal que afecta a cómo se estructuran las lenguas”.

Recursos externos:

(1) arstechnica.com

¿Qué te parece?

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

SUBSCRIBETE !