Los científicos e investigadores valoran cada vez más la ciencia ficción por sus contribuciones a la anticipación de escenarios futuros. Como parte de su misión de explorar las direcciones hacia las que nos están llevando los cambios en la ciencia y los sistemas científicos, la Centro para el Futuro de la Ciencia Se sentó con seis autores destacados de ciencia ficción para conocer sus perspectivas sobre cómo la ciencia puede enfrentar los numerosos desafíos sociales que enfrentaremos en las próximas décadas. El podcast está en asociación con Naturaleza.
En nuestro quinto episodio, Qiufan Chen se une a nosotros para discutir la agencia y la responsabilidad social en la ciencia como un esfuerzo humano. Para Chen, esto es especialmente aplicable a la inteligencia artificial. Durante el podcast, nos explica los impactos de la IA en el futuro de la investigación científica y cómo los desarrollos de la IA pueden regularse más y, por tanto, volverse más éticos.
Qiufan Chen
Qiufan Chen es un galardonado escritor chino de ficción especulativa, autor de La marea residual y co-autor de AI 2041: Diez visiones para nuestro futuro. También es investigador en la Universidad de Yale y miembro del Instituto Berggruen, EE.UU. Nuestra principal discusión se centra en la inteligencia artificial, cómo podemos aprovechar el poder de esta tecnología y al mismo tiempo evitar los peligros que plantea.
Pablo Shrivastava (00:04):
Hola, soy Paul Shrivastava de la Universidad Estatal de Pensilvania. Y en esta serie de podcasts hablo con algunos de los principales escritores de ciencia ficción de la actualidad. Quiero escuchar sus opiniones sobre el futuro de la ciencia y cómo debe transformarse para enfrentar los desafíos que enfrentaremos en los años venideros.
Qiufan Chen (00:24):
La IA en el futuro, tal vez podría usarse para ayudarnos a reflejarnos como un espejo, para convertirnos en mejores seres humanos.
Pablo Shrivastava (00:33):
Hoy hablo con Qiufan Stanley Chen, un escritor chino galardonado. Leí su novela, La marea residual hace muchos años, y quedó impresionado por su descripción de los problemas de los desechos electrónicos. Su libro más reciente en coautoría AI 2041: 10 visiones de nuestro futuro, combina vívidamente historias imaginativas con pronósticos científicos. Hablamos mucho sobre inteligencia artificial y cómo podemos aprovechar el poder de esta increíble tecnología, evitando al mismo tiempo algunos de los peligros que plantea.
Muchas gracias por acompañarnos, Stan. Bienvenido. Es sorprendente que la variedad de temas científicos que domina sea realmente notable. ¿Cómo llegó a interesarse por estos temas científicos?
Qiufan Chen (01:28):
Entonces, como fanático de la ciencia ficción, debo admitir que comencé con todos esos Star Wars, Star Trek, Jurassic Park, películas y libros clásicos de ciencia ficción, animaciones de antaño. Cada vez me dio mucha inspiración e ideas nuevas. Siempre estuve totalmente fascinado por todos estos signos, la imaginación del futuro y el espacio exterior e incluso las especies de hace millones de años. Entonces, cómo les devolvimos la vida.
Pablo Shrivastava (02:02):
Entonces, la ciencia ha estado en marcha durante mucho tiempo. ¿Cuál es su visión general sobre la ciencia como actividad humana?
Qiufan Chen (02:13):
Para mí, definitivamente es un gran logro. Y, por supuesto, nos hace vivir una mejor condición como seres humanos. Y, cuando miramos hacia atrás en la historia, tengo que admitir que hay muchos desafíos, porque me parece que la agencia no está absolutamente en manos de los seres humanos. A veces siento que tal vez la ciencia y la tecnología, al igual que algún tipo de especie, como algún tipo de ser biológico, tiene su propio propósito. Tiene su propio ciclo de vida de nacimiento. Quiere ser y evolucionar junto con los seres humanos. Entonces, nosotros somos como el anfitrión, ellos son como el virus. Podemos verlo de esa manera o al revés. Por eso siempre siento que existe un profundo enredo entre la ciencia y los seres humanos. Entonces, a veces siento que todo este desarrollo de la ciencia y la tecnología nos ha cambiado mucho, pero nunca sabemos cuál es la dirección que tenemos por delante.
Pablo Shrivastava (03:24):
Bueno, hagámoslo más concreto y centrémonos en lo que está más presente en este momento, que es la inteligencia artificial. ¿Cómo podemos garantizar que en el desarrollo de la IA tengamos en cuenta la justicia social y las consideraciones éticas y morales?
Qiufan Chen (03:40):
El problema es que no invertimos completamente para desarrollar este tipo de regulación y marco para evitar éticamente que suceda algo negativo. Creo que necesitamos más diversidad en la IA, y especialmente en el modelo de lenguaje grande, porque estamos hablando de alineación específica. Entonces, incluso entre seres humanos de diferentes países, culturas e idiomas, no teníamos esta alineación compartida como un estándar único. Entonces, ¿cómo podemos enseñar a la máquina, la IA, a alinearse con el sistema de valores humanos o los estándares como uno integral? Entonces creo que esto es algo muy preliminar. Pero creo que el aporte clave no debería provenir solo de las empresas de tecnología, de los ingenieros, de todas estas personas que hacen cosas en la industria, sino también del mundo interdisciplinario, como la antropología, la psicología y la sociología, por ejemplo. Necesitamos una perspectiva más diversa desde las humanidades, porque se supone que la IA debe construirse para la gente, para servir a la gente. Pero, en este momento, siento que el factor humano está bastante ausente.
Pablo Shrivastava (05:11):
Entonces, en su opinión, ¿cómo cambiarán estos avances tecnológicos la forma en que se hará ciencia en el futuro?
Qiufan Chen (05:19):
Me parece que este es un cambio de paradigma totalmente nuevo en el que los científicos pueden utilizar la IA para buscar nuevos patrones, predecir la estructura de las proteínas y encontrar la correlación dentro de una gran cantidad de datos. Creo que esto va a ser algo revolucionario. Pero también hay muchas preocupaciones dentro de este proceso. Por ejemplo, ahora podemos predecir millones de estructuras de proteínas, pero el problema es: ¿qué porcentaje de todas estas predicciones de estructuras de proteínas son válidas y efectivas para la enfermedad real y el cuerpo humano real? Y otra cosa es que toda esta área revolucionada se centra mucho en acumular una gran cantidad de conjuntos de datos. ¿De qué tipo de grupo se recopilan estos datos? ¿Qué tipo de población? ¿Y están compartiendo estos datos con aviso, para qué se han utilizado? ¿Y estamos compartiendo los datos entre diferentes grupos de científicos o investigadores? Así que creo que siempre se trata de cómo podemos construir este tipo de sistema de contrapeso para minimizar el riesgo y los desafíos, y al mismo tiempo satisfacer realmente las demandas del mercado y generar los mejores beneficios para la gente.
Pablo Shrivastava (06:56):
Sí, creo que construir un sistema de controles y contrapesos es una parte importante del desarrollo de la IA. Pero los impactos ambientales de la propia inteligencia artificial rara vez se mencionan en las narrativas científicas públicas.
Qiufan Chen (07:13):
Esto es algo muy paradójico, porque la IA requiere mucha potencia. Y necesita computación en tiempo real. Necesita mucha extracción del medio ambiente. Pero mientras tanto, podemos usarlo para detectar el incendio forestal desde el satélite. Podemos usarlo para proteger la biodiversidad. Podemos usarlo para encontrar una nueva solución como el almacenamiento de energía en baterías, redes inteligentes y tal vez incluso la tecnología de fusión nuclear en el futuro. Entonces, si se usa de la manera correcta, definitivamente puede protegernos y luchar contra el cambio climático.
Pablo Shrivastava (08:03):
¿Crees que en algún momento del futuro la IA entenderá más de lo que los humanos pueden entender?
Qiufan Chen (08:13):
Entonces, he estado pensando en algún modelo, como un modelo grande más allá del ser humano. Por ejemplo, los datos provienen de animales, plantas, hongos, incluso de micro y del medio ambiente completo. Entonces, estamos hablando del modelo de la Tierra completo. Necesitamos desplegar este tipo de capas de sensores en todo el mundo. Entonces, tal vez podamos usar el polvo inteligente, que se menciona en la novela de Lem The Invincible. Entonces, estás hablando de todo este enjambre de polvo pequeño, básicamente es una inteligencia colectiva. Y los humanos pueden aprender mucho de este tipo de modelo grande, porque nos ayuda a percibir algo más allá de nuestro sistema sensorial y más allá de lo humano. Entonces podremos estar menos centrados en los humanos y podremos ser más compasivos con otras especies. Y quizás esa sería la solución para luchar contra el cambio climático, porque podemos sentir cómo se sienten las otras especies y todo este dolor, todo este sufrimiento, todo este sacrificio podría ser algo tangible y real.
Pablo Shrivastava (09:36):
Maravilloso. Imaginar la inteligencia artificial en el modelo de los humanos es en realidad una forma inferior de pensar en la inteligencia artificial... La forma más superior, lo que ustedes llaman el modelo del mundo entero, es la forma de desarrollarse.
Qiufan Chen (09:54):
Sí. Entonces, esto me recuerda al budismo, porque en el budismo, todas las especies sensibles son lo más iguales posible, y no existe tal cosa como que se suponga que los seres humanos sean superiores a los demás. Por eso, siempre estoy pensando en que debemos encontrar una manera de incorporar toda esta filosofía y valores del budismo y el taoísmo en la máquina.
Pablo Shrivastava (10:27):
Entonces me pregunto si comprende los elementos técnicos de la IA. ¿Se puede entrenar la IA en el budismo, en el taoísmo? Porque todos los libros y valores ya están codificados. ¿Es posible encontrar IA que los entrene y cree una religión mundial sintética, por así decirlo?
Qiufan Chen (10:50):
Definitivamente podría, y podría hacer un mejor trabajo que cualquiera de los sacerdotes, cualquier monje, cualquiera de los gurús del mundo, porque tiene mucho conocimiento. Pero, como practicante del taoísmo, hay algo más allá de la comprensión sintética de todo esto, llámese experiencia religiosa o espiritual, es algo en el cuerpo. Entonces, tienes que hacer toda esta tarea física. Entonces, creo que esto es algo de lo que todavía carece la IA. No tenía cuerpo, no tenía un sistema sensorial complejo, no tenía conciencia de sí mismo, por ejemplo. Y creo que todas esas partes son las que hacen que un ser humano sea humano. La IA en el futuro, tal vez podría usarse para ayudarnos a reflejarnos como un espejo, para convertirnos en mejores seres humanos.
Pablo Shrivastava (11:49):
En tu imaginación, ¿puede la IA tener alma?
Qiufan Chen (11:54):
El surgimiento de la conciencia es básicamente un misterio en la ciencia en este momento. Entonces me parece que definitivamente hay alguna conexión entre la capacidad emergente de los modelos de lenguaje grande con todos esos fenómenos emergentes en los sistemas de complejidad de la física clásica o cuántica. Entonces creo que matemáticamente, tal vez algún día podamos demostrar la existencia de la conciencia. Pero no se trata de un estatus cero o uno, sino que es como el espectro continuo de estatus. Eso significa que tal vez incluso una roca, incluso un árbol, incluso el río o la montaña tengan cierto nivel de conciencia, pero simplemente no lo reconocimos porque estamos muy centrados en el ser humano. Pero se trata de computación. Se trata de compresión espacio-temporal. Se trata de preservar la información. Entonces se trata de reducir la entropía. Así que no es una cuestión epistemológica, pero creo que es una cuestión ontológica. Entonces se trata de existencia.
Pablo Shrivastava (13:14):
Gracias por escuchar este podcast del Centro para el Futuro de la Ciencia del Consejo Internacional de Ciencias realizado en asociación con el Centro para la Imaginación Humana Arthur C. Clarke de UC San Diego. Visite Futures.council.science para descubrir más trabajos del Centro para el Futuro de la Ciencia. Se centra en las tendencias emergentes en los sistemas científicos y de investigación y proporciona opciones y herramientas para tomar decisiones mejor informadas.
Paul Shrivastava, profesor de Gestión y Organizaciones de la Universidad Estatal de Pensilvania, presentó la serie de podcasts. Se especializa en la implementación de los Objetivos de Desarrollo Sostenible. El podcast también se realiza en colaboración con el Centro Arthur C. Clarke para la Imaginación Humana de la Universidad de California, San Diego.
El proyecto fue supervisado por Mathieu Denis y llevado por dong liu, A partir de la Centro para el Futuro de la Ciencia, el grupo de expertos del ISC.
foto de la KOMMERS on Unsplash.
Disclaimer
La información, opiniones y recomendaciones presentadas en nuestros blogs invitados son las de los contribuyentes individuales y no reflejan necesariamente los valores y creencias del Consejo Científico Internacional.