Los bebés aprenden a hablar sobre la base de unos pocos ejemplos de habla.
Neurocientíficos del
Trinity College de Dublín, en Irlanda, y la Universidad de Rochester, en Estados Unidos, han identificado una
señal cerebral específica asociada con la conversión del habla en comprensión. La señal está presente cuando el oyente ha entendido lo que han escuchado, pero está ausente cuando o no entendió o no prestó atención.
La singularidad de la señal significa que podría tener una serie de posibles aplicaciones, como el
seguimiento del desarrollo del lenguaje en bebés, la
evaluación de la función cerebral en pacientes que no responden o la determinación del
inicio temprano de la demencia en personas mayores.
Durante nuestras interacciones cotidianas, habitualmente hablamos a velocidades de
120 a 200 palabras por minuto. Para que los oyentes comprendan el habla a estas tasas, y para no perder el hilo de la conversación, l
os cerebros deben comprender el significado de cada una de estas palabras muy rápidamente. Una hazaña del cerebro humano que hacemos tan fácilmente, especialmente dado que el significado de las palabras puede variar mucho según el contexto. Por ejemplo, la palabra
bat en inglés significa cosas muy diferentes en las siguientes dos oraciones: "Vi un murciélago (bat) volando sobre mi cabeza anoche"; "El jugador de béisbol bateó (bat) un 'homerun' con su bate favorito".
Sin embargo, hasta ahora, no estaba claro
cómo calculan nuestros cerebros el significado de las palabras en el contexto. El nuevo enfoque, que se detalla en un artículo publicado este jueves en la revista internacional
Current Biology, muestra que nuestros cerebros realizan un cálculo rápido de la similitud en el significado que tiene cada palabra con las palabras que nos han llegado inmediatamente antes.
Enseñaron a ordenadores a "entender" el habla
Para descubrir esto, los investigadores comenzaron
explotando las técnicas más avanzadas que permiten que los ordenadores modernos y los teléfonos inteligentes "entiendan" el habla. Éstas técnicas son bastante diferentes de cómo funcionan los humanos. La evolución humana ha sido tal que los bebés vienen más o menos cableados para aprender a hablar sobre la base de un número relativamente pequeño de ejemplos de habla. Por otro lado, los ordenadores necesitan una gran cantidad de entrenamiento, pero debido a que son rápidos, lo pueden lograr muy rápidamente.
Registraron señales de ondas cerebrales eléctricas del cuero cabelludo
|
Por lo tanto, uno puede entrenar un ordenador dándole muchos ejemplos (por ejemplo, toda la Wikipedia) y pidiéndole que reconozca qué pares de palabras aparecen mucho juntos y cuáles no. Al hacer esto, el
ordenador comienza a "entender" que las
palabras que aparecen juntas regularmente, como "tarta" y "pastel",
deben significar algo similar. Y, de hecho, el ordenador termina con un conjunto de medidas numéricas que capturan cuán similar es una palabra a otra.
Para probar si los cerebros humanos realmente calculan la similitud entre las palabras mientras escuchamos el habla, los investigadores anotaron
señales de ondas cerebrales eléctricas registradas en el cuero cabelludo humano, una técnica conocida como electroencefalografía o EEG, mientras los
participantes escuchaban varios audiolibros. Luego, al analizar su actividad cerebral, identificaron una
respuesta cerebral específica que reflejaba cómo de similar o diferente era una palabra dada de las palabras que la precedieron en la historia.
Posible utilidad para valorar la aparición de la demencia
Fundamentalmente, esta señal desapareció por completo cuando los sujetos o no podían entender el habla (porque era demasiado ruidoso), o cuando simplemente no le prestaban atención. Por lo tanto, esta señal representa una
medida extremadamente sensible de si una persona está realmente entendiendo el discurso que está escuchando y, como tal, tiene una serie de
posibles aplicaciones importantes.
El profesor asistente en la Escuela de Ingeniería del
Trinity College en Dublín, el Instituto de Neurociencia del
Trinity College y el Centro de Bioingeniería de Trinity,
Ed Lalor, dirigió la investigación. "Las aplicaciones potenciales incluyen
pruebas de desarrollo del lenguaje en bebés, o determinar el nivel de
función cerebral en pacientes en un estado reducido de conciencia", afirma este experto.
"La presencia o ausencia de la señal también puede
confirmar si una persona en un trabajo que exige precisión y las reacciones rápidas -como un controlador de tránsito aéreo o un soldado--
ha entendido las instrucciones que ha recibido, y tal vez incluso sean útiles para evaluar la aparición de
demencia en personas mayores según su capacidad para seguir una conversación", plantea el profesor Lalor.
"Hay
más trabajo por hacer antes de comprender totalmente la gama completa de cálculos que nuestros cerebros realizan cuando entendemos el habla. Sin embargo, ya hemos comenzado a buscar otras formas en que nuestros cerebros puedan calcular el significado, y cómo esos cálculos difieren de aquellos realizado por ordenadores. Esperamos que el nuevo enfoque suponga una gran diferencia cuando se aplique de alguna de las maneras que imaginamos", concluye.
Las informaciones publicadas en Redacción Médica contienen afirmaciones, datos y declaraciones procedentes de instituciones oficiales y profesionales sanitarios. No obstante, ante cualquier duda relacionada con su salud, consulte con su especialista sanitario correspondiente.