El cerebro usa ventanas temporales fijas para entender el habla, sin importar la velocidad

Las personas oyen el habla a muchas velocidades diferentes, desde explicaciones lentas hasta ráfagas rápidas de palabras. Pero, ¿cómo se las arregla el cerebro? Un nuevo estudio muestra que la corteza auditiva no cambia su sincronización para adaptarse al ritmo del habla. En su lugar, procesa los sonidos en ventanas temporales fijas, desafiando teorías de larga data sobre la percepción del habla.

El cerebro usa ventanas temporales fijas para entender el habla, sin importar la velocidad. Imagen de Freepik

Nota: Este artículo tiene fines informativos y educativos. Resume una investigación científica en un lenguaje accesible para un público amplio y no es un comunicado de prensa científico oficial.

Un estudio cerebral revela un procesamiento en tiempo fijo del habla en la corteza auditiva

Un equipo de investigación dirigido por Sam V. Norman-Haignere de la Universidad de Rochester, en colaboración con colegas del Zuckerman Institute de la Universidad de Columbia y de Weill Cornell Medicine, publicó un estudio en Nature Neuroscience en septiembre de 2025. El artículo explora cómo el cerebro humano procesa el lenguaje hablado a diferentes velocidades. Contrariamente a los modelos influyentes que proponían que el cerebro estira o comprime su sincronización para alinearse con el ritmo del habla, los autores informan de que la corteza auditiva mantiene ventanas temporales estables.

El trabajo se basa en raras grabaciones intracraneales de pacientes con epilepsia a quienes se les implantaron electrodos con fines clínicos. Al analizar la actividad neuronal directamente en regiones auditivas mientras los pacientes escuchaban frases a diferentes velocidades de reproducción, los investigadores probaron si el procesamiento auditivo adapta su ritmo o depende de marcos temporales fijos.

Lo que investigaron los científicos

La cuestión central era si la percepción del habla depende de un mecanismo de sincronización flexible o de un marco temporal constante. Durante años, las teorías del procesamiento del lenguaje se basaron en la idea de la “entrainment”, es decir, que las oscilaciones neuronales se alinean con ritmos externos como la tasa de sílabas o el ritmo del habla. Bajo esa visión, la corteza auditiva debería acelerarse al escuchar un habla rápida y ralentizarse al oír palabras alargadas.

Según los autores, esta suposición dio forma a los modelos computacionales y cognitivos del lenguaje. De ser cierta, implicaría que el sistema sensorial se adapta dinámicamente a diversas condiciones de escucha. El estudio puso a prueba esta predicción reproduciendo frases naturales a diferentes velocidades y examinando si la actividad cortical seguía el cambio de tempo.

Al estudiar respuestas neuronales directas, el equipo esperaba aclarar si la adaptación se produce a nivel sensorial o más adelante en la jerarquía del procesamiento.

Cómo se llevó a cabo el estudio

El estudio incluyó a 22 pacientes con epilepsia farmacorresistente a quienes se les implantaron quirúrgicamente electrodos para un seguimiento diagnóstico. Estos electrodos se colocaron en la superficie del cerebro, incluido el giro temporal superior, una parte clave de la corteza auditiva. Esta circunstancia clínica brindó una rara oportunidad de observar la actividad cerebral con gran precisión temporal y espacial.

Los investigadores utilizaron electrocorticografía (ECoG), una técnica que mide la actividad eléctrica directamente desde la corteza. A diferencia de métodos no invasivos como el EEG o la fMRI, la ECoG capta señales con resolución de milisegundos, lo que permite a los científicos ver cómo responde el cerebro en tiempo real a cambios acústicos rápidos.

Los pacientes escucharon frases naturales que se presentaron a diferentes velocidades de reproducción. Algunas grabaciones se ralentizaron, mientras que otras se aceleraron, produciendo una amplia gama de ritmos del habla. Es importante destacar que el contenido de las frases se mantuvo igual en todas las condiciones, aislando la velocidad como la variable principal.

El equipo analizó cómo las respuestas neuronales seguían la estructura acústica del habla. Se centraron en si las “ventanas de integración” – los intervalos de tiempo durante los cuales la corteza auditiva combina la información sonora – cambiaban en función de la velocidad. Si el cerebro realmente adaptara su ritmo, estas ventanas se ampliarían para un habla más lenta y se contraerían para un habla más rápida. En cambio, los autores informan de que las ventanas permanecieron constantes.

Qué hace novedoso a este estudio

Los autores destacan que sus hallazgos desafían una teoría dominante en la neurociencia auditiva. Durante décadas, muchos investigadores asumieron que la sincronización neuronal flexible sustentaba la percepción del habla. El estudio actual aporta evidencias de que la corteza auditiva codifica el habla en ventanas fijas, independientemente de la velocidad con la que se emita.

Según el artículo, “la corteza auditiva procesa el habla en ventanas temporales fijas que no se reajustan con la velocidad del habla”. Esta observación sugiere que la variabilidad en el ritmo del habla debe resolverse en áreas superiores que integran e interpretan el significado, en lugar de que la corteza sensorial ajuste su sincronización.

En comparación con investigaciones anteriores, esto representa un cambio de énfasis. En lugar de suponer que la corteza se amolda a la señal de entrada, los resultados implican que la estabilidad es la base. Según los autores, esta reorientación puede influir en cómo los modelos computacionales simulan la percepción del habla humana y en cómo los científicos piensan acerca de los trastornos que afectan a la comprensión del lenguaje.

Principales hallazgos del estudio

El artículo informa de varios hallazgos principales, que pueden resumirse directamente con las palabras de los autores:

  • “La corteza auditiva procesa el habla en ventanas temporales fijas que no se expanden ni se contraen con la velocidad del habla.”
  • “Las respuestas neuronales mostraron una integración temporal consistente tanto en condiciones lentas como rápidas.”
  • “La comprensión del habla depende de regiones corticales superiores que interpretan la información entregada dentro de estas ventanas estables.”
  • “Los resultados demuestran que la corteza no está adaptando su sincronización, sino que mantiene un marco temporal estable.”

Estos hallazgos indican que, incluso cuando las palabras se pronuncian de forma inusualmente lenta o rápida, la corteza auditiva produce bloques temporales consistentes. La comprensión depende entonces de la interpretación posterior por otros sistemas cerebrales.

Conclusiones de los autores

Los autores concluyen que la corteza sensorial proporciona una base estable para la percepción del habla, mientras que las regiones superiores del cerebro se encargan de la flexibilidad necesaria para comprender diferentes ritmos. Según el estudio, esta división de funciones puede explicar cómo las personas logran entender el habla en un amplio rango de velocidades.

También subrayan varias limitaciones. Todos los datos proceden de pacientes con epilepsia, cuya actividad neuronal podría diferir de la de la población general. La colocación de los electrodos estuvo determinada por necesidades médicas, no por el diseño experimental, lo que significa que no todas las regiones auditivas pudieron muestrearse por igual. Además, el estudio se centró en la sincronización y no exploró otros aspectos del habla como la semántica o el tono emocional.

A pesar de estas salvedades, los autores proponen que su trabajo aclara un principio fundamental del procesamiento auditivo. Sugieren que futuros estudios podrían investigar cómo las áreas corticales superiores extraen significado del flujo constante de información, o si mecanismos similares de tiempo fijo se aplican en distintos idiomas y contextos.

Contexto científico más amplio

Aunque el estudio en sí no propone aplicaciones clínicas, los autores señalan que los resultados pueden aportar a los modelos teóricos del procesamiento del lenguaje. Muchos enfoques computacionales suponen una sincronización flexible en la corteza sensorial; este estudio sugiere que los modelos podrían necesitar incorporar ventanas temporales fijas en la etapa de entrada.

Según informó Neuroscience News, uno de los principales objetivos de esta línea de investigación es construir modelos computacionales más precisos de cómo el cerebro procesa el habla. Tales modelos amplían el conjunto de herramientas científicas y permiten a los científicos investigar mejor qué puede suceder cuando las personas enfrentan dificultades en la comprensión del habla y el procesamiento del lenguaje.

Al refinar la manera en que los científicos piensan sobre los bloques fundamentales del habla, estos resultados pueden guiar nuevas hipótesis en lingüística, neurociencia e inteligencia artificial. Los autores recalcan que sus conclusiones se aplican estrictamente al grupo de pacientes estudiado y que se necesitarán más investigaciones para comprobar su generalización.

La publicación contribuye a un esfuerzo más amplio en neurociencia por mapear cómo las regiones sensoriales se relacionan con la cognición superior. Al mostrar que la estabilidad, y no la flexibilidad, caracteriza la temporización auditiva, el trabajo añade una nueva dimensión a los debates sobre cómo la percepción y la comprensión interactúan.

La información de este artículo es solo informativa y no es un consejo médico. Si tienes cualquier duda sobre tu salud, consulta siempre con un profesional.

Referencia

Norman-Haignere S. V., et al. (2025). Auditory cortex encodes speech in fixed temporal windows across different speech rates. Nature Neuroscience. doi:10.1038/s41593-025-02060-8