Estamos hechos de cosas muy pequeñas, e inmersos en un gran cosmos, y no entendemos bien la realidad de ninguna de esas escalas, y eso se debe a que el cerebro no ha evolucionado para entender el mundo en esa escala.
En cambio, estamos atrapados en esta rebanada muy delgada de
percepción justo en el medio. Pero es extraño, porque incluso en esa rebanada de realidad que llamamos
hogar, no vemos gran parte de la acción que ocurre. Veamos los colores del mundo. Estas son ondas de luz, radiación electromagnética que rebota en los
objetos y golpea receptores especializados en la parte posterior de los ojos. Pero no vemos todas las ondas
que existen. De hecho, vemos menos de una diez billonésima parte de lo que existe. Hay ondas de radio, microondas rayos X y rayos gamma que
atraviesan nuestros cuerpos ahora mismo y no somos conscientes de eso, porque no tenemos los receptores biológicos adecuados para detectarlos. Hay miles de conversaciones de
teléfonos móviles y estamos completamente ciegos a eso. Pero no es que estas cosas sean inherentemente invisibles.
Las serpientes perciben rayos infrarojos las abejas rayos ultravioletas, y, claro, construímos máquinas
en los tableros de nuestros autos para capturar señales en el rango de frecuencias de radio, y construímos máquinas en
hospitales para capturar rayos X. Pero no podemos percibir esto solos, al menos no todavía, porque no venimos equipados con los sensores adecuados
Esto significa que nuestra experiencia de la realidad se ve limitada por nuestra
biología, y eso va en contra de la noción del sentido común de que la vista, el oído, el tacto apenas percibe la realidad objetiva circundante. En cambio, el cerebro muestra solo una parte del mundo.
Ahora, en todo el reino animal, distintos animales perciben diferentes partes de la realidad. Así, en el mundo ciego y sordo
de la garrapata, las señales importantes son la temperatura y el ácido butírico; en el mundo del pez cuchillo, su ambiente sensorial es
profusamente coloreado por campos eléctricos; y para el murciélago de ecolocación, su mundo está compuesto por ondas de aire comprimido. Esa es la parte del ecosistema
que pueden captar, y en la ciencia tenemos una palabra para esto. Es el "umwelt", término alemán para denominar el mundo circundante. Al parecer los animales suponen que su umwelt es toda la realidad objetiva circundante, ya que por qué dejaríamos de
imaginar que existe algo más de lo que podemos percibir. En cambio, nosotros aceptamos la realidad como se nos presenta.
Hagamos un despertar de conciencia. Imaginen que somos un perro sabueso. Nuestro mundo gira en torno al olfato. Tenemos un morro largo con 200 millones de receptores olfativos, hocicos húmedos que atraen y
atrapan moléculas de olor, y fosas nasales que tienen hendiduras para inspirar grandes cantidades de
aire. Todo gira en torno al olfato. Un día tenemos una revelación. Miramos a nuestro dueño humano y pensamos: "¿Cómo debe ser tener esa lamentable, nariz humana tan empobrecida? (Risas) ¿Qué se sentirá al inspirar pequeñas y débiles cantidades de aire? ¿Cómo será no saber que hay un
gato a 90 m de distancia, o que tu vecino estuvo aquí mismo hace 6 horas?" (Risas)
Como somos humanos nunca hemos experimentado ese mundo del olfato, por eso no lo añoramos, porque estamos cómodos en nuestro umwelt. Pero la pregunta es, ¿debemos quedar atrapados en él? Como neurólogo, me interesa
ver de qué forma la tecnología podría expandir nuestro umwelt, y cómo eso podría cambiar la experiencia de ser humano.
Ya sabemos que podemos conjugar tecnología y biología porque hay cientos de miles de
personas que andan por allí con oído y vista artificiales. Eso funciona así, se pone un micrófono, se digitaliza la señal y se coloca una tira de
electrodos directamente en el oído interno. O, con el implante de retina, se coloca una cámara se digitaliza la señal, y luego se enchufa una tira de electrodos directamente en el nervio
óptico. Y, hace apenas 15 años, muchos científicos pensaban que estas tecnologías no funcionarían. ¿Por qué? Estas tecnologías
hablan la lengua de Silicon Valley, y esta no es exactamente la misma que la de nuestros órganos sensoriales
biológicos, pero funcionan. El cerebro se las ingenia para usar las señales.
¿Cómo podemos entender eso? Este es el gran secreto. El cerebro ni oye, ni ve esto. El cerebro está encerrado en una bóveda en silencio y oscuridad en el
cráneo. Solo ve señales electroquímicas que vienen en diferentes cables de datos, solo trabaja con esto, nada más. Sorprendentemente, el cerebro es muy bueno para captar estas señales extraer patrones y darle significado, así, con este cosmos interior, elabora una historia y, de ahí, nuestro mundo subjetivo.
Pero aquí está el secreto. El cerebro ni sabe, ni le importa de dónde vienen los datos. Cualquier información que llega, sabe descifrar qué hacer con ella. Es una máquina muy eficiente. Básicamente se trata de un
dispositivo de computación de propósito general, sencillamente recibe todo y se da cuenta qué hacer con eso, y eso, creo, libera a la Madre Naturaleza para probar distintos canales de entrada.
Lo llamo modelo evolutivo CP, no quiero entrar en detalles técnicos, CP significa Cabeza de Papa y uso este nombre para resaltar que todos estos sensores que conocemos y amamos, como
la vista, el oído y el tacto, son solo dispositivos periféricos enchufables: se enchufan y funcionan. El cerebro determina qué hacer con los datos que recibe. Si analizamos el reino animal, encontramos muchos periféricos. Las serpientes tienen hoyos de
calor para detectar infrarrojos, y el pez cuchillo tiene electrorreceptores, y el topo de nariz estrellada tiene este apéndice con 22 dedos con los que percibe y construye un modelo 3D del mundo, y muchas aves tienen magnetita
para orientarse hacia campo magnético del planeta. Esto significa que la naturaleza no tiene que rediseñar continuamente al cerebro. En cambio, establecidos los
principios de la operación del cerebro, la naturaleza solo tiene que diseñar nuevos periféricos.
Esto significa lo siguiente: La lección que surge es que no hay nada realmente especial o fundamental en la biología que traemos. Es lo que hemos heredado a partir de un complejo camino evolutivo. Pero no tenemos por qué limitarnos a eso, y la mejor prueba de ese principio viene de lo que se llama "sustitución sensorial". Se refiere a la información de
entrada en el cerebro por canales sensoriales inusuales; el cerebro entiende qué hacer con ella.
Esto puede sonar a especulación, pero el primer trabajo que demuestra esto se publicó en la revista Nature
en 1969. Un científico llamado Paul Bach-y-Rita puso ciegos en una silla dentada modificada, configuró un canal de video, y puso algo en frente de la cámara, para luego sentir una señal táctil en la espalda mediante una red de solenoides. Si uno mueve una taza de café
frente a la cámara, uno la siente en la espalda, y, sorprendentemente, los ciegos tienen buen desempeño detectando qué hay frente a la
cámara mediante vibraciones en la parte baja de la espalda. Ha habido muchas
implementaciones modernas de esto. Las gafas sónicas toman un canal de video del frente y lo convierten en un paisaje
sonoro, y conforme las cosas se mueven, se acercan y se alejan, hace un sonido "bzz, bzz,
bzz". Suena como una cacofonía, pero después de varias semanas, los ciegos empiezan a entender bastante
bien qué tienen enfrente a partir de lo que escuchan. Y no tiene por qué ser por los oídos: este sistema usa una rejilla electrotáctil en la frente, para sentir en la frente lo
que esté frente a la entrada de video, ¿Por qué la frente? Porque no se usa para mucho más.
La implementación más moderna se llama "brainport" y es una rejillita eléctrica
ubicada en la lengua, la señal de video se convierte en pequeñas señales electrotáctiles, y los ciegos lo usan tan bien
que pueden arrojar pelotas en una cesta, o pueden realizar carreras de obstáculos complejos. Pueden ver con la lengua. ¿Parece de locos, verdad? Pero recuerden que la visión siempre son señales electroquímicas que recorren el cerebro. El cerebro no sabe de dónde
vienen las señales. Se da cuenta qué hacer con ellas.
Por eso el interés de mi laboratorio es la "sustitución
sensorial" en sordos, y este es el proyecto que realizamos con un estudiante de posgrado en mi laboratorio, Scott Novich, que encabeza esto en su tesis. Esto es lo que queríamos hacer: queríamos hacerlo convirtiendo
el sonido del mundo de alguna forma para que un sordo pudiera entender lo que se dice. Y queríamos hacerlo, dado el
poder y ubicuidad de la informática portátil, queríamos asegurarnos de que ejecutase en teléfonos móviles y tabletas, y también queríamos hacerlo
portátil, algo que pudiéramos usar debajo de la ropa. Este es el concepto. Conforme hablo, una tableta capta mi sonido, y luego es mapeado en un chaleco cubierto con motores vibratorios, como los motores de sus
móviles. Conforme hablo, el sonido se traduce en patrones de vibración en el chaleco. Esto no es solo un concepto: esta tableta transmite vía
Bluetooth, y ahora mismo tengo uno de esos chalecos. Conforme hablo... (Aplausos) el sonido se traduce en patrones dinámicos de vibración. Siento el mundo sonoro a mi
alrededor.
Lo hemos estado probando con personas sordas, y resulta que solo un tiempo
después, la gente puede empezar a sentir, a entender el lenguaje del chaleco.
Este es Jonathan. Tiene 37 años. Tiene un título de maestría. Nació con sordera profunda, por eso hay una parte de su
umwelt que está fuera de su alcance. Tuvimos que entrenar a Jonathan con el chaleco durante 4 días, 2 horas al
día, y aquí está en el quinto día
Scott
Novich: tú.
David Eagleman: Scott dice una palabra, Jonathan la siente en
el chaleco, y la escribe en la pizarra.
SN:
Dónde. Dónde.
DE: Jonathan puede traducir este complicado patrón de
vibraciones en una comprensión de lo que se dice.
SN:
Tacto. Tacto.
DE: Pero no lo está... (Aplausos) Jonathan no lo hace conscientemente, porque los patrones son muy
complicados, pero su cerebro está empezando a desbloquear el patrón que le permite
averiguar qué significan los datos, y esperamos que en unos 3 meses de usar el chaleco, tenga una experiencia de percepción de escuchar como la que tiene de la lectura un ciego que pasa un dedo sobre texto en
braille, el significado viene de inmediato sin intervención consciente en absoluto. Esta tecnología tiene el
potencial de un cambio importante, porque la única solución alternativa a la sordera es un implante coclear, que requiere una cirugía
invasiva. Construir esto es 40 veces más barato que un implante coclear, permite ofrecer esta
tecnología al mundo, incluso a los países más pobres.
Nos animan los resultados obtenidos con la "sustitución
sensorial", pero hemos estado pensando mucho en la "adición sensorial". ¿Cómo podríamos usar una
tecnología como esta para añadir un nuevo sentido, para ampliar el umvelt humano? Por ejemplo, ¿podríamos ingresar datos en tiempo real de Internet en el cerebro de alguien? Ese alguien ¿puede desarrollar
una experiencia perceptiva directa?
Este es un experimento que hacemos en el laboratorio. Un sujeto siente en tiempo
real datos de la Red durante 5 segundos. Luego, aparecen dos botones, y tiene que hacer una elección. No sabe qué está pasando. Hace una elección, y tiene
respuesta después de un segundo. Es así: El sujeto no tiene idea del significado de los patrones, pero vemos si mejora en la
elección de qué botón presionar. No sabe que los datos que le ingresamos son datos bursátiles en tiempo real, y está decidiendo comprar y vender. (Risas) La respuesta le dice si tomó una buena decisión o no. Estamos viendo si podemos
expandir el umwelt humano una experiencia perceptiva directa de los movimientos económicos del
planeta. Informaremos de eso más adelante para ver cómo resulta. (Risas)
Otra cosa que estamos haciendo: Durante las charlas de la mañana, filtramos automáticamente en Twitter con el hashtag TED2015, e hicimos un análisis
automatizado de sentimientos es decir, ¿las personas usaron palabras positivas, negativas o neutras? Y mientras esto sucedía lo he estado sintiendo, estoy enchufado a la emoción
consolidada de miles de personas en tiempo real, es un nuevo tipo de experiencia humana, porque ahora puedo saber cómo le va a los oradores y
cuánto les gusta esto a Uds. (Risas) (Aplausos) Es una experiencia más grande de la que un ser humano normal puede tener.
También estamos ampliando el umwelt de los pilotos. En este caso, el chaleco
transmite 9 métricas diferentes desde este cuadricóptero, cabeceo, guiñada, giro, orientación y rumbo, y eso mejora la destreza del piloto. Es como si extendiera su piel, a lo lejos.
Y eso es solo el principio. Estamos previendo tomar una cabina moderna llena de manómetros y en vez de tratar de leer
todo eso, sentirlo. Ahora vivimos en un mundo de información, y hay una diferencia entre acceder a grandes volúmenes de datos y experimentarlos.
Así que creo que en realidad las posibilidades no tienen fin en el horizonte de la
expansión humana. Imaginen un astronauta que pueda sentir la salud general de la Estación Espacial Internacional, o, para el caso, que Uds.
sientan los estados invisibles de su propia salud, como el nivel de azúcar en sangre y el estado del microbioma, o tener visión de 360º o ver
en el infrarrojo o ultravioleta.
La clave es esta: conforme avanzamos hacia el futuro, cada vez podremos elegir
nuestros propios dispositivos periféricos. Ya no tenemos que esperar regalos sensoriales de la Madre Naturaleza en sus escalas de tiempo, pero en su lugar, como buena
madre, nos ha dado las herramientas necesarias para hacer nuestro propio camino. Así que la pregunta ahora es: ¿cómo quieren salir a experimentar su universo?
Gracias.
Chris
Anderson: ¿Puedes sentirlo? DE: Sí.
En realidad, es la primera vez que siento aplausos en el
chaleco. Es agradable. Es como un masaje. (Risas)
CA: Twitter se vuelve loco. El experimento del mercado de valores, ¿podría ser el primer experimento que asegure su financiación para siempre, de tener éxito?
DE:
Bueno, es cierto, ya no tendría que escribirle al NIH.
CA: Bueno mira, para ser escéptico por un minuto, digo, es asombroso, pero ¿hay
evidencia hasta el momento de que funcione la sustitución sensorial, o la adición sensorial? ¿No es posible que el ciego pueda ver por la lengua porque la corteza visual está todavía allí, lista para procesar, y que eso sea una parte necesaria?
DE: Gran pregunta. En realidad no tenemos ni idea de cuáles son los límites
teóricos de los datos que puede asimilar el cerebro. La historia general, sin embargo, es que es extraordinariamente flexible. Cuando una persona queda
ciega, lo que llamamos corteza visual es ocupada por el tacto, el oído, el vocabulario. Eso nos dice que la corteza es acotada. Solo hace ciertos tipos de cálculos sobre las cosas. Y si miramos a nuestro
alrededor las cosas como el braille, por ejemplo, las personas reciben información mediante golpes en los dedos. No creo que haya razón para
pensar que existe un límte teórico, que conozcamos ese límite.
CA: Si esto se comprueba, estarás abrumado. Hay muchas aplicaciones
posibles para esto. ¿Estás listo para esto? ¿Qué es lo que más te entusiasma? ¿Qué se podría
lograr? DE: Creo que hay gran cantidad de aplicaciones aquí. En términos de sustitución
sensorial del mañana, algo empecé a mencionar de astronautas en la estación espacial, que pasan mucho tiempo controlando cosas y podrían en
cambio ver que está pasando, porque esto es bueno para datos multidimensionales. La clave es: nuestros sistemas visuales son buenos detectando manchas y
bordes, pero son muy malos para el mundo actual, con pantallas que tienen infinidad de datos. Tenemos que rastrear eso con nuestros sistemas de atención. Esta es una manera de solo
sentir el estado de algo, como conocer el estado del cuerpo sobre la marcha. La maquinaria pesada, la seguridad, sentir el estado de una fábrica, de un equipo, hacia allí va en
lo inmediato.
CA:
David Eagleman, fue una charla alucinante. Muchas gracias.
DE:
Gracias, Chris. (Aplausos)
No hay comentarios:
Publicar un comentario