Sobre el autor: Amy Brand es directora y editora de MIT Press, cargo que ocupa desde 2015. Científica cognitiva de formación, obtuvo su doctorado en el MIT y ha ocupado puestos de liderazgo en CrossRef, Harvard y Digital Science. Es cocreadora de la taxonomía CRediT, miembro fundador de la Junta de ORCID y productora del documental Picture a Scientist. Brand es ampliamente reconocida por sus contribuciones a la infraestructura de investigación, la comunicación académica y la equidad en la ciencia. Entre sus distinciones se incluyen el Premio del Consejo de Editores Científicos y el Premio de Oro Kavli de Periodismo Científico de la AAAS.
La ciencia es esencial para el progreso humano. También es vital, aunque menos evidente, la forma en que la difundimos. Como sistema mediante el cual el conocimiento se vuelve accesible y creíble, la publicación es un componente fundamental de la infraestructura de investigación.
¿Cómo debería adaptarse el sector editorial para atender las necesidades de una comunidad investigadora que se enfrenta a la censura, la disminución de la financiación y el rápido auge de los sistemas de IA generativa que desvían el conocimiento y erosionan su integridad? Como alguien que ha trabajado durante décadas en investigación, administración universitaria y publicación, nunca he visto tanto en juego como hoy para el futuro de la ciencia. y comunicación científica.
Con el colapso de los sistemas sociopolíticos a nuestro alrededor, resulta tentador considerar la IA generativa como la solución alquímica a los problemas mundiales. Los grandes modelos de lenguaje (LLM) han surgido como atractivos portales de descubrimiento, que ofrecen respuestas instantáneas, síntesis fluida y la aparente democratización del conocimiento. Sin embargo, su atractivo oculta su potencial como sistemas que también aceleran la desinformación, el fraude y la propaganda. Por diseño, producen contenido que parece muy plausible, pero a menudo es engañoso o simplemente erróneo. Resulta peligroso para la ciencia que la validación sea difícil y costosa, mientras que la "veracidad" sea barata y rentable, sobre todo considerando lo fácil que es engañar a la mente humana.
Sí, queremos acelerar el descubrimiento y la resolución de problemas ante los angustiosos desafíos globales. Queremos creer en máquinas que puedan resolver problemas con mayor rapidez que la arquitectura cognitiva humana o nuestras instituciones disfuncionales. Pero cuando quienes defienden el entrenamiento sin restricciones de la IA argumentan que es un imperativo moral poner a disposición todo el contenido y los datos científicos para acelerar la innovación, la historia aconseja cautela.
Ya lo hemos visto antes. El internet inicial fue aclamado como una fuerza democratizadora para la expresión y el conocimiento universal. Al final, la falta de regulación permitió que las plataformas comerciales masivas dominaran el espacio, erosionando la confianza y derrumbando los modelos económicos, tanto para el contenido informativo como para el de investigación. Ahora también sabemos que las políticas de acceso abierto deficientes aceleraron la consolidación del sector editorial y crearon incentivos económicos para publicar más con un menor control de calidad.
Detengámonos a considerar qué es lo mejor para la comprensión, el aprendizaje y el progreso del conocimiento humanos. Cuando la búsqueda solo conduce a resúmenes de IA y los usuarios no acceden a las fuentes originales, y cuando el simple acto de leer por placer está en declive vertiginoso, ¿cómo evitaremos un futuro en el que creemos y publiquemos contenido solo para el consumo de máquinas?
Creo que vale la pena preservar y proteger el papel vital que desempeñan los editores al apoyar el impacto y la integridad de la investigación. Especialmente ahora. Entiendo la frustración por las elevadas tarifas de publicación y los muros de pago en las suscripciones, especialmente por parte de las grandes editoriales que han aprovechado un mercado de prestigio académico que históricamente no ha sido sensible al precio. Pero nuestra industria no es una entidad monolítica con ánimo de lucro. Las editoriales sin ánimo de lucro, como MIT Press y muchas sociedades científicas, operan con valores diferentes y márgenes de beneficio más reducidos.
De hecho, nos vemos más amenazados por el acaparamiento de tierras de la IA y, a veces, incluso por los mismos movimientos de ciencia abierta que hemos apoyado durante tanto tiempo. Por lo tanto, debemos resistirnos a las posturas morales que ignoran las dinámicas de poder en juego. Existe un halo en torno a la idea de "abierto" que puede oscurecer complejidades del mundo real como la economía y los incentivos. En definitiva, no toda apertura es virtuosa; no toda resistencia a la apertura es obstruccionista.
Otro error común es que los intereses de las editoriales no coinciden con los de los investigadores. Recientemente realizamos un... gran encuesta de autores En los campos STEM, se ha generado controversia en relación con el uso no autorizado de su trabajo para la formación de maestría en derecho (LLM). La gran mayoría se opone a esta práctica, aun creyendo que la IA promete vías transformadoras para el descubrimiento y el aprendizaje. Esperan poder consentir, o no, dicho uso y esperan que se les atribuya la responsabilidad cuando su trabajo influya en los resultados de la LLM. No equiparan la lectura abierta con la formación continua.
De igual manera, muchos se muestran escépticos respecto a la integridad de las grandes empresas de IA y les preocupa cómo los LLM impactarán la publicación, la lectura, la escritura, el pensamiento crítico y la creatividad; silenciarán la diversidad de puntos de vista; y reforzarán los sesgos y las hegemonías culturales. Les preocupa profundamente lo que se pierde cuando descomponemos las obras de autores humanos en datos de entrenamiento tokenizados y los introducimos en modelos que no pueden preservar su contexto ni su argumento.
La cuestión de cómo y bajo qué condiciones se utiliza la ciencia publicada para la formación de LLM no se limita a los derechos de autor. Se trata de quién controla el futuro del conocimiento. ¿Cedemos autoridad a industrias extractivas opacas, con escasa rendición de cuentas a la comunidad investigadora? ¿O construimos sistemas que preserven la atribución, la integridad y la sostenibilidad? Si nos tomamos en serio el desarrollo humano, la ciencia basada en la evidencia y la protección de las condiciones en las que se desarrolla el conocimiento, la comunidad investigadora y sus instituciones deben actuar con discernimiento.
¿A quién le interesa ceder la ciencia y los estudios publicados a un sector tecnológico altamente extractivo y opaco? Sigamos la lógica: todo el valor de las tarifas de publicación abierta que pagan autores, instituciones y financiadores se transfiere finalmente a empresas como OpenAI y Anthropic. En lo que respecta a las industrias extractivas, seamos honestos al comparar el valor del sector de la IA con el de las editoriales académicas.
Personalmente, mantengo el optimismo de que, con una planificación cuidadosa y políticas basadas en la evidencia, utilizaremos la IA para mejorar la revisión por pares, optimizar la reproducibilidad y optimizar los flujos de trabajo y los costos de publicación. Incluso podríamos desarrollar soluciones que contribuyan a mantener los aspectos positivos de la publicación científica.
Pero el paradigma actual, donde el registro publicado es extraído sin consentimiento y monetizado por gigantes tecnológicos privados, es inmoral y destructivo para la ciencia y la investigación. Además, refleja un pensamiento mágico sobre cómo funciona nuestro complejo mundo y cómo lograremos avances reales en la solución de los problemas existenciales que enfrentamos.
Renuncia de responsabilidad:
La información, las opiniones y las recomendaciones presentadas en nuestros blogs de invitados son responsabilidad de los colaboradores individuales y no reflejan necesariamente los valores y las creencias del Consejo Internacional de Ciencias.
Reciba futuros resúmenes de ciencia abierta directamente en su bandeja de entrada. Suscríbase ahora.
Foto por Martín Adams on Unsplash