Aunque No Puedes Distinguir Entre una Voz Humana y una de IA. Tu Cerebro Sí.
- Brainketing
- 20 sept 2024
- 3 Min. de lectura
Las voces generadas por inteligencia artificial (IA) han alcanzado un nivel de sofisticación sorprendente, imitando con gran precisión las características acústicas de las voces humanas. Estas voces no solo suenan auténticas, sino que también son capaces de transmitir una variedad de emociones como la felicidad, el miedo o la neutralidad. Sin embargo, un estudio reciente realizado por investigadores de la Universidad de Oslo [1] ha revelado que, aunque los humanos no siempre logran identificar correctamente si una voz es humana o generada por IA, el cerebro sí responde de manera diferente a ambos tipos de voces.
El estudio se centró en investigar cómo el cerebro distingue entre voces emocionales naturales y aquellas creadas por IA. Los investigadores utilizaron una tarea de clasificación en la que los participantes escucharon expresiones emocionales (neutral, enfado, miedo, felicidad y placer) provenientes tanto de voces humanas como de voces generadas por IA. Durante esta tarea, las respuestas cerebrales de los participantes fueron monitorizadas mediante imágenes por resonancia magnética funcional (fMRI), lo que permitió a los investigadores identificar qué regiones del cerebro se activaban en respuesta a cada tipo de voz.
El desafío de identificar la IA en las voces
Uno de los hallazgos más sorprendentes del estudio fue la dificultad que los participantes experimentaron al tratar de distinguir entre las voces humanas y las de IA. En promedio, los participantes identificaron correctamente las voces humanas solo el 56% de las veces, mientras que las voces generadas por IA se identificaron correctamente en el 50.5% de los casos, lo que sugiere que fueron igualmente inexactos para ambos tipos de voces.
Las voces neutras generadas por IA resultaron ser las más fácilmente identificadas, con un 74.9% de precisión, frente a solo el 23% de acierto en el caso de las voces humanas neutrales. Curiosamente, las voces humanas felices fueron reconocidas correctamente el 77% de las veces, mientras que las voces felices de IA solo lograron una identificación correcta del 34.5%. Esto sugiere que las personas tienden a asociar la felicidad con voces humanas más fácilmente que con voces sintéticas, especialmente en el caso de voces femeninas.
Activación cerebral ante voces humanas e IA
El análisis de las neuroimágenes reveló diferencias claras en la forma en que el cerebro procesa las voces de IA y las voces humanas. Las voces generadas por IA activaron predominantemente áreas relacionadas con la vigilancia y la regulación cognitiva, tales como la corteza cingulada media anterior derecha, la corteza prefrontal dorsolateral derecha, el tálamo izquierdo, la corteza parietal posterior y otras regiones implicadas en la detección de errores. Esta activación podría indicar que, al escuchar voces sintéticas, el cerebro entra en un estado de mayor alerta y evaluación crítica.
Por otro lado, las voces humanas provocaron una activación más fuerte en áreas vinculadas al procesamiento emocional y la empatía. Entre estas áreas se encuentran el hipocampo derecho, involucrado en la memoria, y el giro frontal inferior derecho, así como la corteza cingulada anterior, el giro angular y el lóbulo temporal superior. Estas áreas están asociadas con la capacidad de empatizar y generar una conexión emocional con las voces. En resumen, las voces humanas no solo provocan una sensación de afinidad, sino que también parecen estar más profundamente relacionadas con nuestras experiencias emocionales.
¿Qué nos dice esto sobre nuestras interacciones con la IA?
A pesar de que las voces de IA han logrado imitar con éxito las voces humanas, este estudio sugiere que nuestro cerebro sigue respondiendo de manera distinta a ambas. Mientras que las voces humanas desencadenan respuestas asociadas a la empatía y la conexión emocional, las voces de IA activan mecanismos cerebrales más relacionados con la vigilancia y el análisis cognitivo.
Este hallazgo tiene implicaciones importantes para el desarrollo futuro de la tecnología de voz generada por IA, pues sugiere que, aunque estas voces puedan sonar indistinguibles para el oído, nuestros cerebros aún perciben una diferencia significativa en su autenticidad y confiabilidad.
Este tipo de investigaciones ofrece una mirada fascinante sobre cómo el cerebro humano se adapta a las nuevas tecnologías y cómo estas pueden influir en nuestras interacciones cotidianas. Estas diferencias neurocognitivas podrían influir en la forma en que las personas establecen confianza o conexión emocional con la fuente de la voz, lo que subraya la importancia de considerar cómo nuestro cerebro responde a estímulos que, en la superficie, parecen iguales.
Visita www.bkt.com.co análisis de la conducta humana desde los procesos cerebrales para entender, predecir y generar cambios de comportamiento que impacten positivamente tu organización y la sociedad.
Diego Andrés Aguas González | Neurocientífico Social | Investigador Toma de Decisiones.
Referencia.
[1] Frühholz, S., & Skjegstad, C. L. (2024). Neural dynamics of processing natural and digital emotions. Center for Open Science.







Comentarios