NacionalesUltimas Noticias

Rodrigo Quian Quiroga: “Con un bombardeo constante de información, es difícil llegar a pensamientos elaborados”

Neurociencia se convirtió en una etiqueta que acompaña temas de divulgación muy diversos. Pocos en ese campo, sin embargo, tienen el mérito de haber descubierto una neurona que lleva el nombre de Jennifer Aniston, por la imagen de la actriz norteamericana que se usó en el experimento que le permitió a Rodrigo Quian Quiroga identificar procesos de reconocimiento neuronal vinculados con la memoria.

La neurociencia dice que memorizar no es aprender. Tenemos que hacer un esfuerzo para que los chicos aprendan, más que memoricen

Este argentino formado en matemática y física es profesor de la Institución Catalana de Investigación y Estudios Avanzados (Icrea), en España, e investigador del grupo de Percepción y Memoria del Hospital del Mar Research Institute. Divulga la ciencia combinándola con el arte de una manera exquisita. En 2012 publicó Borges y la memoria (Sudamericana), donde analiza aspectos del cuento “Funes, el memorioso” que han sido confirmados por la ciencia. En su último libro, Cosas que nunca creerías. De la ciencia ficción a la neurociencia (Debate), repasa nueve películas para mostrar cómo hoy la ciencia avala muchas cosas que hasta hace poco eran fantasías. Allí recuerda que en 2001. Odisea del espacio, obra maestra de Stanley Kubrick de 1968 escrita en base a la novela de Arthur C. Clarke, el sexto tripulante es el ordenador HAL 9000, una suerte de inteligencia artificial. “El gran logro de Kubrick es convencer al espectador de que esa luz roja es un ser sintiente, con sus emociones, miedos e intereses”, dice. Y señala que la misma fantasía ocupa hoy la discusión sobre ChatGPT.

a mirada muchas veces catastrofista del cine se impuso en el pensamiento que muchos analistas tienen sobre la inteligencia artificial, dice Quian Quiroga. “Pero la IA todavía está lejísimos de asemejarse a la inteligencia humana. Lo cual no quiere decir que quizás en cinco años haya una nueva gran revolución y se acerque a ella o logre parecerse más. Pero hoy no. Hoy la inteligencia humana es muy superior”.

El neurocientífico atendió esta entrevista desde Alemania, donde vive su familia. Allí, en la Universidad de Lübeck , hizo un doctorado en matemática aplicada. Hoy desarrolla todo su trabajo en Barcelona.

Hoy las máquinas aprenden y pueden desarrollar soluciones que no estaban implementadas por los seres humanos

En su tarea de divulgar ciencia dura, su discurso contradice el de aquellos analistas que ensayan predicciones ominosas alrededor de la inteligencia artificial. Quian Quiroga dice que la pregunta que debemos hacernos es otra. La cuestión pasa, señala, por interrogarnos qué nos hace humanos.

–¿Qué otra película podría agregarse hoy a la lista que recorre en su libro Cosas que nunca creeríais?

–Recordaba la película Her [de 2013, con Joaquín Phoenix], donde hay una inteligencia artificial que reemplaza a una persona. Hoy es muy factible entrenar una inteligencia artificial para que interactúe con uno como lo haría un ser querido. Y entonces, cuando esa persona no esté, podrías mantener conversaciones como si estuviera presente. Esto, que era ciencia ficción hace unos años, hoy está al alcance de cualquiera.

En su libro la inteligencia artificial aparece ya en viejas películas. ¿Desde cuándo la está usando la ciencia?

–El machine learning, que permite a las computadoras aprender de los datos por sí solas, se viene usando desde hace décadas. Pero hace diez años hubo una gran revolución con el deep learning, basado en redes neuronales profundas que implementan principios del funcionamiento del cerebro del mono. Eso cambió todo porque una red neuronal puede reconocer caras. Antes de 2013 casi ni hablábamos de inteligencia artificial, pero ese año se produce el gran boom.

¿Qué impacto ha tenido el uso de la IA en la investigación de las neurociencias?

–Hay un aspecto más pragmático y otro, más profundo. El pragmático es usar inteligencia artificial para cosas como analizar datos muy complejos y encontrar características o patrones que son difíciles de encontrar de otra manera. O realizar experimentos, como lo que estoy haciendo ahora, para simular interacciones con personas. En el entorno de realidad virtual puedo hacer cosas que hace cinco años ni me imaginaba hacer. Y en el aspecto más profundo, trato de entender qué nos hace humanos, qué hay en el cerebro humano de distinto respecto al de otros animales y que todavía no puede replicar una computadora. Los avances de la inteligencia artificial dan hoy una respuesta mucho más refinada que hace diez años, cuando decíamos que una computadora ejecuta algoritmos que escribe un ser humano. Hoy eso ya no es cierto, porque las máquinas aprenden y pueden desarrollar soluciones que no estaban implementadas por el ser humano.

No puedo hablar de la muerte como un monje tibetano. A mí me pone triste. Por eso creo que hay que hacer que la vida valga la pena

Es por eso que muchos analistas y pensadores han encendido la alarma. Yuval Harari ha dicho que la IA nos es una herramienta, sino un agente.

–Sí, son más populares las opiniones de varios pensadores contemporáneos, como Harari, que plantean la IA como una amenaza a controlar. Yo tengo una visión opuesta. La visión apocalíptica para mí no tiene asidero. El gran miedo que da la inteligencia artificial viene de películas de Hollywood. Para que Terminator fuera el éxito que fue necesitás que haya una inteligencia artificial que despierte y quiera exterminar al humano. Sin ese conflicto narrativo, no hay película. Lo mismo pasó con 2001. Odisea del espacio, en la que quieren desconectar a la computadora HAL 9000. ¿Por qué una computadora se volvería contra el ser humano? Desde la teoría de la evolución, no habría competencia entre especies por alimentos o por territorio. En principio, no hay conflicto alguno. No veo el escenario tan apocalíptico. Lo que sí me parece es que hay que ser conscientes de que hay un cambio. Así como hubo una Revolución Industrial y una revolución de Internet, hay que ser conscientes de que ahora hay un cambio que es muy grande. Los trabajos de hace veinte años ya casi no existen más, pero se abren otros nuevos. Hay una transformación a la que hay que adaptarse, pero no necesariamente tiene que ser para mal.

Hay consenso científico de que ya no puede sostenerse lo que planteó Descartes, de una mente separada del cuerpo. Sin embargo, persiste ese dualismo en las discusiones intelectuales y en el sentido común.

–Eso se resolvió a principios del siglo XX. El golpe de gracia lo dio un filósofo llamado Gilbert Ryle en el libro The Concept of Mind, 1949), que hablaba del “fantasma en la máquina”. No se trata solo de que una teoría de la neurociencia lo demuestra; también gran parte de la filosofía ha dejado de lado esa postura. Yo no tengo ninguna duda de que mente y cerebro son la misma cosa. La mente no es, ni más ni menos, que la actividad de las neuronas. No hay una separación. Sin embargo, lo contrario está muy metido en nuestro pensamiento, como cuando se habla de enfermedades mentales o de libre albedrío.

En la discusión política, se apela a las emociones para desestimar ciertas decisiones que no parecen lo que se dice racionales. Si mente y emoción representan la misma actividad neuronal, ¿cómo podría explicarse?

–La mayoría de las decisiones las tomamos emocionalmente, no racionalmente. Lo que hacemos es racionalizarlas después. Cuando alguien me ofrece un trabajo, quizá es la manera en que me saluda lo que determina si quiero trabajar con esa persona o no. En ese momento, no soy consciente de que hay algo en esa persona que me está provocando un rechazo, pero después yo buscaré una excusa para justificar una decisión que en el fondo no fue racional.

Los trabajos de Antonio Damasio señalan que la emoción tiene que ver con instintos primigenios de supervivencia, con lo cual esas decisiones emocionales serían quizá la mayoría.

–Bueno, como argentino, a veces quisiera no ser una persona tan emocional (risas). Cuántas veces no habría metido la pata si me hubiera tomado un tiempito más para pensar antes de tomar una decisión o de actuar. Pero sí, la emoción es algo muy primigenio, que determina muchas de nuestras decisiones, mucho más de lo que creemos.

Su libro sobre Borges y la memoria señala el fracaso de la educación cuando insiste en enseñar por repetición. ¿Qué le aporta hoy la neurociencia al aprendizaje?

–La neurociencia dice que memorizar no es aprender. Puedo recitar una poesía de memoria, pero no tener idea de qué trata. En el libro de Borges analizo el síndrome de Savant, gente con una memoria increíble, que puede repetir textos pero que no puede explicar el argumento que subyace en ellos. Memoria no es símbolo de inteligencia. Tenemos que tratar de hacer un esfuerzo para que los chicos aprendan, más que memoricen.

Lo memorizado después se olvida.

–Olvidamos muchísimo. Es muy poco lo que recordamos. Si a un chico le tiras una barbaridad de datos todos los días, cambiando de una materia a otra, lo que hacés es entrenar la capacidad de recordar por un tiempo limitado. Y al final son todos conocimientos estancos que se pierden. Entonces una sugerencia, muy modestamente, es revisar los programas de estudio, porque el cerebro no da para tanto. Si quiero que los alumnos elaboren un determinado conocimiento, hay que asociar los temas, lo que se llama construir el telar de la memoria. Esto ya lo decía Aristóteles. Las asociaciones son las que afianzan los recuerdos. Aprender es entender.

En el libro también menciona los falsos recuerdos.

–Hay una psicóloga, Elizabeth Lotus, que disparó un cambio en el sistema jurídico norteamericano porque demostró cuán maleables son los alegatos de testigos, según el modo en que se les haga la pregunta. Hoy es obligación hacer las preguntas de una manera objetiva, eliminando todo sesgo, para que la pregunta no induzca a una respuesta determinada.

¿Cuál sería el efecto del aluvión de información y desinformación con que nos enfrentamos cada día?

–Eso para mí es muy borgiano, porque terminás como “Funes, el memorioso”. Con un bombardeo constante tan grande de información es muy difícil llegar a pensamientos profundos y elaborados. Hay distracciones todo el tiempo. Es necesario tener un tiempo en que no hacés nada y dejar que las ideas empiecen a fluir.

¿Cómo se hace ciencia en ese contexto?

–Para ser buen científico tenés que estar abierto, escuchar cuando alguien señala algo que no habías advertido o que veías de otra manera. Si yo desestimo esa visión distinta me estoy perdiendo la posibilidad de aprender algo. Hay un sesgo, pero lo hay desde siempre. Ahora está muy claro, por cómo los algoritmos seleccionan información, pero hace treinta años estaba claro que los diarios o las radios o los medios tienen distintas líneas editoriales. Sin embargo, a partir del momento en que sabés eso, ya se puede tomar cartas en el asunto

¿Qué cambió de su concepción del ser humano todo lo que aprendió de las neurociencias?

–Es una pregunta buenísima, con muchas respuestas. Por ejemplo, el último capítulo de Cosas que nunca creerías habla de la inmortalidad, un tema durísimo, del que me costó mucho escribir. No soy de ponerme a hablar de la muerte como un monje tibetano. A mí me duele. Me pone triste. Una cosa que aprendí es que, en lo que tenés de vida, hay que hacer que valga la pena. Ya no pierdo tiempo tratando de satisfacer expectativas ajenas. Cuando hago ciencia, no hago las cosas que me van a posicionar en el mundo científico. De hecho, decir que tenemos que revisar todo me trae un montón de conflictos, pero no me importa, porque vale la pena. Me parece fascinante que el problema resulte muchísimo más interesante de lo que pensábamos.

Ha sido investigador en el Reino Unido y ahora en España, ¿cómo ve la ciencia en las distintas partes del mundo?

–Hay países donde no se discute lo que dice el jefe. Hay otros lugares donde te replanteas todo, y eso me gusta más. No quiero que mis estudiantes tomen como un dogma las cosas que yo digo, sino que me puedan desafiar. Y si me equivoco, me lo demostrarán y aprendo de ellos, de sus preguntas, de sus dudas.

Esto rebate la idea de que la ciencia es uniforme y que debe aceptarse como dogma.

–Soy un admirador de Ernesto Sabato porque estudió física y se pasó a la literatura. A mí me encanta escribir, y escribir ficción, por más que nunca publique nada. A Sabato lo veo como un maestro. Tuve la oportunidad de conocerlo en persona por casualidad y hablamos de las razones por las que dejó la ciencia. Para él, era el dominio de la razón, y decía que lo importante eran las emociones. Cuando considerás la ciencia como algo objetivo estás lejos de la realidad. Las ciencias son personas. Una de las batallas que estoy dando, lo hice en México y en Chile y espero algún día poder hacerlo en la Argentina, es salirme de mi casilla de científico y dejar de contar información objetiva. Quiero pasar del nosotros al yo. Suena algo arrogante, pero quiero contar que atrás de todo esto hay una persona. Contar no solo el descubrimiento, sino el thriller de cómo fue descubrir algo. Los científicos estamos dejando de lado esas cosas, que son las más fascinantes.

DEL LABORATORIO A LA DIVULGACIÓN

PERFIL: Rodrigo Quian Quiroga

Rodrigo Quian Quiroga estudió Física en la Universidad de Buenos Aires y se doctoró en matemática aplicada en la Universidad de Lübeck, Alemania.

Fue profesor y director del Centro de Neurociencia de Sistemas en la Universidad de Leicester, Inglaterra, donde obtuvo el premio al mérito en la investigación científica por la Royal Society. Y fue seleccionado por el Consejo de Investigación de Ingeniería y Física y la Real Academia de Ingeniería como uno de los diez científicos líderes en ciencia e ingeniería del Reino Unido.

Su descubrimiento de neuronas en el cerebro humano que representan conceptos (las llamadas “neuronas de Jennifer Aniston”) fue calificado por la revista Discover como una de las “Top 100 Scientific Stories of 2005”.

Coordina el grupo de investigación “Mecanismos neuronales de la percepción y la memoria” en el Hospital del Mar Research Institute, en Barcelona.

Ha publicado los siguientes libros de divulgación: Borges y la memoria. Un viaje por el cerebro humano, de “Funes el memorioso” a la neurona de Jennifer Aniston (2012, reeditado en 2021); Qué es la memoria (2017), y Cosas que nunca creeríais. De la ciencia ficción a la neurociencia (2024).

Neurociencia se convirtió en una etiqueta que acompaña temas de divulgación muy diversos. Pocos en ese campo, sin embargo, tienen el mérito de haber descubierto una neurona que lleva el nombre de Jennifer Aniston, por la imagen de la actriz norteamericana que se usó en el experimento que le permitió a Rodrigo Quian Quiroga identificar procesos de reconocimiento neuronal vinculados con la memoria.

La neurociencia dice que memorizar no es aprender. Tenemos que hacer un esfuerzo para que los chicos aprendan, más que memoricen

Este argentino formado en matemática y física es profesor de la Institución Catalana de Investigación y Estudios Avanzados (Icrea), en España, e investigador del grupo de Percepción y Memoria del Hospital del Mar Research Institute. Divulga la ciencia combinándola con el arte de una manera exquisita. En 2012 publicó Borges y la memoria (Sudamericana), donde analiza aspectos del cuento “Funes, el memorioso” que han sido confirmados por la ciencia. En su último libro, Cosas que nunca creerías. De la ciencia ficción a la neurociencia (Debate), repasa nueve películas para mostrar cómo hoy la ciencia avala muchas cosas que hasta hace poco eran fantasías. Allí recuerda que en 2001. Odisea del espacio, obra maestra de Stanley Kubrick de 1968 escrita en base a la novela de Arthur C. Clarke, el sexto tripulante es el ordenador HAL 9000, una suerte de inteligencia artificial. “El gran logro de Kubrick es convencer al espectador de que esa luz roja es un ser sintiente, con sus emociones, miedos e intereses”, dice. Y señala que la misma fantasía ocupa hoy la discusión sobre ChatGPT.

a mirada muchas veces catastrofista del cine se impuso en el pensamiento que muchos analistas tienen sobre la inteligencia artificial, dice Quian Quiroga. “Pero la IA todavía está lejísimos de asemejarse a la inteligencia humana. Lo cual no quiere decir que quizás en cinco años haya una nueva gran revolución y se acerque a ella o logre parecerse más. Pero hoy no. Hoy la inteligencia humana es muy superior”.

El neurocientífico atendió esta entrevista desde Alemania, donde vive su familia. Allí, en la Universidad de Lübeck , hizo un doctorado en matemática aplicada. Hoy desarrolla todo su trabajo en Barcelona.

Hoy las máquinas aprenden y pueden desarrollar soluciones que no estaban implementadas por los seres humanos

En su tarea de divulgar ciencia dura, su discurso contradice el de aquellos analistas que ensayan predicciones ominosas alrededor de la inteligencia artificial. Quian Quiroga dice que la pregunta que debemos hacernos es otra. La cuestión pasa, señala, por interrogarnos qué nos hace humanos.

–¿Qué otra película podría agregarse hoy a la lista que recorre en su libro Cosas que nunca creeríais?

–Recordaba la película Her [de 2013, con Joaquín Phoenix], donde hay una inteligencia artificial que reemplaza a una persona. Hoy es muy factible entrenar una inteligencia artificial para que interactúe con uno como lo haría un ser querido. Y entonces, cuando esa persona no esté, podrías mantener conversaciones como si estuviera presente. Esto, que era ciencia ficción hace unos años, hoy está al alcance de cualquiera.

En su libro la inteligencia artificial aparece ya en viejas películas. ¿Desde cuándo la está usando la ciencia?

–El machine learning, que permite a las computadoras aprender de los datos por sí solas, se viene usando desde hace décadas. Pero hace diez años hubo una gran revolución con el deep learning, basado en redes neuronales profundas que implementan principios del funcionamiento del cerebro del mono. Eso cambió todo porque una red neuronal puede reconocer caras. Antes de 2013 casi ni hablábamos de inteligencia artificial, pero ese año se produce el gran boom.

¿Qué impacto ha tenido el uso de la IA en la investigación de las neurociencias?

–Hay un aspecto más pragmático y otro, más profundo. El pragmático es usar inteligencia artificial para cosas como analizar datos muy complejos y encontrar características o patrones que son difíciles de encontrar de otra manera. O realizar experimentos, como lo que estoy haciendo ahora, para simular interacciones con personas. En el entorno de realidad virtual puedo hacer cosas que hace cinco años ni me imaginaba hacer. Y en el aspecto más profundo, trato de entender qué nos hace humanos, qué hay en el cerebro humano de distinto respecto al de otros animales y que todavía no puede replicar una computadora. Los avances de la inteligencia artificial dan hoy una respuesta mucho más refinada que hace diez años, cuando decíamos que una computadora ejecuta algoritmos que escribe un ser humano. Hoy eso ya no es cierto, porque las máquinas aprenden y pueden desarrollar soluciones que no estaban implementadas por el ser humano.

No puedo hablar de la muerte como un monje tibetano. A mí me pone triste. Por eso creo que hay que hacer que la vida valga la pena

Es por eso que muchos analistas y pensadores han encendido la alarma. Yuval Harari ha dicho que la IA nos es una herramienta, sino un agente.

–Sí, son más populares las opiniones de varios pensadores contemporáneos, como Harari, que plantean la IA como una amenaza a controlar. Yo tengo una visión opuesta. La visión apocalíptica para mí no tiene asidero. El gran miedo que da la inteligencia artificial viene de películas de Hollywood. Para que Terminator fuera el éxito que fue necesitás que haya una inteligencia artificial que despierte y quiera exterminar al humano. Sin ese conflicto narrativo, no hay película. Lo mismo pasó con 2001. Odisea del espacio, en la que quieren desconectar a la computadora HAL 9000. ¿Por qué una computadora se volvería contra el ser humano? Desde la teoría de la evolución, no habría competencia entre especies por alimentos o por territorio. En principio, no hay conflicto alguno. No veo el escenario tan apocalíptico. Lo que sí me parece es que hay que ser conscientes de que hay un cambio. Así como hubo una Revolución Industrial y una revolución de Internet, hay que ser conscientes de que ahora hay un cambio que es muy grande. Los trabajos de hace veinte años ya casi no existen más, pero se abren otros nuevos. Hay una transformación a la que hay que adaptarse, pero no necesariamente tiene que ser para mal.

Hay consenso científico de que ya no puede sostenerse lo que planteó Descartes, de una mente separada del cuerpo. Sin embargo, persiste ese dualismo en las discusiones intelectuales y en el sentido común.

–Eso se resolvió a principios del siglo XX. El golpe de gracia lo dio un filósofo llamado Gilbert Ryle en el libro The Concept of Mind, 1949), que hablaba del “fantasma en la máquina”. No se trata solo de que una teoría de la neurociencia lo demuestra; también gran parte de la filosofía ha dejado de lado esa postura. Yo no tengo ninguna duda de que mente y cerebro son la misma cosa. La mente no es, ni más ni menos, que la actividad de las neuronas. No hay una separación. Sin embargo, lo contrario está muy metido en nuestro pensamiento, como cuando se habla de enfermedades mentales o de libre albedrío.

En la discusión política, se apela a las emociones para desestimar ciertas decisiones que no parecen lo que se dice racionales. Si mente y emoción representan la misma actividad neuronal, ¿cómo podría explicarse?

–La mayoría de las decisiones las tomamos emocionalmente, no racionalmente. Lo que hacemos es racionalizarlas después. Cuando alguien me ofrece un trabajo, quizá es la manera en que me saluda lo que determina si quiero trabajar con esa persona o no. En ese momento, no soy consciente de que hay algo en esa persona que me está provocando un rechazo, pero después yo buscaré una excusa para justificar una decisión que en el fondo no fue racional.

Los trabajos de Antonio Damasio señalan que la emoción tiene que ver con instintos primigenios de supervivencia, con lo cual esas decisiones emocionales serían quizá la mayoría.

–Bueno, como argentino, a veces quisiera no ser una persona tan emocional (risas). Cuántas veces no habría metido la pata si me hubiera tomado un tiempito más para pensar antes de tomar una decisión o de actuar. Pero sí, la emoción es algo muy primigenio, que determina muchas de nuestras decisiones, mucho más de lo que creemos.

Su libro sobre Borges y la memoria señala el fracaso de la educación cuando insiste en enseñar por repetición. ¿Qué le aporta hoy la neurociencia al aprendizaje?

–La neurociencia dice que memorizar no es aprender. Puedo recitar una poesía de memoria, pero no tener idea de qué trata. En el libro de Borges analizo el síndrome de Savant, gente con una memoria increíble, que puede repetir textos pero que no puede explicar el argumento que subyace en ellos. Memoria no es símbolo de inteligencia. Tenemos que tratar de hacer un esfuerzo para que los chicos aprendan, más que memoricen.

Lo memorizado después se olvida.

–Olvidamos muchísimo. Es muy poco lo que recordamos. Si a un chico le tiras una barbaridad de datos todos los días, cambiando de una materia a otra, lo que hacés es entrenar la capacidad de recordar por un tiempo limitado. Y al final son todos conocimientos estancos que se pierden. Entonces una sugerencia, muy modestamente, es revisar los programas de estudio, porque el cerebro no da para tanto. Si quiero que los alumnos elaboren un determinado conocimiento, hay que asociar los temas, lo que se llama construir el telar de la memoria. Esto ya lo decía Aristóteles. Las asociaciones son las que afianzan los recuerdos. Aprender es entender.

En el libro también menciona los falsos recuerdos.

–Hay una psicóloga, Elizabeth Lotus, que disparó un cambio en el sistema jurídico norteamericano porque demostró cuán maleables son los alegatos de testigos, según el modo en que se les haga la pregunta. Hoy es obligación hacer las preguntas de una manera objetiva, eliminando todo sesgo, para que la pregunta no induzca a una respuesta determinada.

¿Cuál sería el efecto del aluvión de información y desinformación con que nos enfrentamos cada día?

–Eso para mí es muy borgiano, porque terminás como “Funes, el memorioso”. Con un bombardeo constante tan grande de información es muy difícil llegar a pensamientos profundos y elaborados. Hay distracciones todo el tiempo. Es necesario tener un tiempo en que no hacés nada y dejar que las ideas empiecen a fluir.

¿Cómo se hace ciencia en ese contexto?

–Para ser buen científico tenés que estar abierto, escuchar cuando alguien señala algo que no habías advertido o que veías de otra manera. Si yo desestimo esa visión distinta me estoy perdiendo la posibilidad de aprender algo. Hay un sesgo, pero lo hay desde siempre. Ahora está muy claro, por cómo los algoritmos seleccionan información, pero hace treinta años estaba claro que los diarios o las radios o los medios tienen distintas líneas editoriales. Sin embargo, a partir del momento en que sabés eso, ya se puede tomar cartas en el asunto

¿Qué cambió de su concepción del ser humano todo lo que aprendió de las neurociencias?

–Es una pregunta buenísima, con muchas respuestas. Por ejemplo, el último capítulo de Cosas que nunca creerías habla de la inmortalidad, un tema durísimo, del que me costó mucho escribir. No soy de ponerme a hablar de la muerte como un monje tibetano. A mí me duele. Me pone triste. Una cosa que aprendí es que, en lo que tenés de vida, hay que hacer que valga la pena. Ya no pierdo tiempo tratando de satisfacer expectativas ajenas. Cuando hago ciencia, no hago las cosas que me van a posicionar en el mundo científico. De hecho, decir que tenemos que revisar todo me trae un montón de conflictos, pero no me importa, porque vale la pena. Me parece fascinante que el problema resulte muchísimo más interesante de lo que pensábamos.

Ha sido investigador en el Reino Unido y ahora en España, ¿cómo ve la ciencia en las distintas partes del mundo?

–Hay países donde no se discute lo que dice el jefe. Hay otros lugares donde te replanteas todo, y eso me gusta más. No quiero que mis estudiantes tomen como un dogma las cosas que yo digo, sino que me puedan desafiar. Y si me equivoco, me lo demostrarán y aprendo de ellos, de sus preguntas, de sus dudas.

Esto rebate la idea de que la ciencia es uniforme y que debe aceptarse como dogma.

–Soy un admirador de Ernesto Sabato porque estudió física y se pasó a la literatura. A mí me encanta escribir, y escribir ficción, por más que nunca publique nada. A Sabato lo veo como un maestro. Tuve la oportunidad de conocerlo en persona por casualidad y hablamos de las razones por las que dejó la ciencia. Para él, era el dominio de la razón, y decía que lo importante eran las emociones. Cuando considerás la ciencia como algo objetivo estás lejos de la realidad. Las ciencias son personas. Una de las batallas que estoy dando, lo hice en México y en Chile y espero algún día poder hacerlo en la Argentina, es salirme de mi casilla de científico y dejar de contar información objetiva. Quiero pasar del nosotros al yo. Suena algo arrogante, pero quiero contar que atrás de todo esto hay una persona. Contar no solo el descubrimiento, sino el thriller de cómo fue descubrir algo. Los científicos estamos dejando de lado esas cosas, que son las más fascinantes.

DEL LABORATORIO A LA DIVULGACIÓN

PERFIL: Rodrigo Quian Quiroga

Rodrigo Quian Quiroga estudió Física en la Universidad de Buenos Aires y se doctoró en matemática aplicada en la Universidad de Lübeck, Alemania.

Fue profesor y director del Centro de Neurociencia de Sistemas en la Universidad de Leicester, Inglaterra, donde obtuvo el premio al mérito en la investigación científica por la Royal Society. Y fue seleccionado por el Consejo de Investigación de Ingeniería y Física y la Real Academia de Ingeniería como uno de los diez científicos líderes en ciencia e ingeniería del Reino Unido.

Su descubrimiento de neuronas en el cerebro humano que representan conceptos (las llamadas “neuronas de Jennifer Aniston”) fue calificado por la revista Discover como una de las “Top 100 Scientific Stories of 2005”.

Coordina el grupo de investigación “Mecanismos neuronales de la percepción y la memoria” en el Hospital del Mar Research Institute, en Barcelona.

Ha publicado los siguientes libros de divulgación: Borges y la memoria. Un viaje por el cerebro humano, de “Funes el memorioso” a la neurona de Jennifer Aniston (2012, reeditado en 2021); Qué es la memoria (2017), y Cosas que nunca creeríais. De la ciencia ficción a la neurociencia (2024).

 La reflexión profunda no prospera en un ecosistema mediático que nos llena de datos, señala el neurocientífico argentino; es necesario detenerse y no hacer nada para que las ideas empiecen a fluir  LA NACION

Mostrar más

Publicaciones relacionadas

Botón volver arriba
Cerrar