Científicos españoles reunidos en la Jornada de Sociedades COSCE han apelado a la transparencia, al rigor científico y a la responsabilidad colectiva para abordar los desafíos éticos que entraña la inteligencia artificial. Además, han hecho un llamamiento al consenso y a la ética científica en la investigación, especialmente en cuestiones sensibles como el uso de modelos animales y embrionarios.
La Confederación de Sociedades Científicas de España (COSCE), con la colaboración de la Fundación Ramón Areces, ha celebrado su jornada anual en la sede de esta Fundación en Madrid.
El evento, punto de encuentro de las 87 sociedades que conforman la COSCE, fue inaugurado por Eloísa del Pino, presidenta del CSIC, y clausurado por Eva Ortega Paíno, Secretaria General de Investigación del Ministerio de Ciencia, Innovación y Universidades.
Perla Wahnón, presidenta de la COSCE, desgranó en su intervención los principales riesgos de la inteligencia artificial en la ciencia, incidiendo en la generación de resultados falsos o engañosos en los estudios y en su uso fraudulento para redactar artículos científicos sin respaldo empírico sólido. “Por desgracia, ya hemos sido testigos de que la presión por publicar puede superar en algunos casos el compromiso con la ética, un problema que la comunidad científica se está tomando muy en serio”, aseguró. “La inteligencia artificial ha transformado la manera que se produce y analiza el conocimiento científico, y, al mismo tiempo, plantea grandes desafíos éticos que la comunidad científica debe manejar con rigor”, añadió.
La salud cerebral en la era de la neurotecnología y la inteligencia artificial fue el tema central de la conferencia impartida en la Jornada por Álvaro Pascual-Leone, catedrático de Neurología en la Escuela Médica de Harvard. El experto señaló que “la mayor causa de discapacidad a lo largo de la vida son las alteraciones cerebrales, cuyo gasto anual supone más del 10% de la riqueza del mundo entero”, y explicó que “hoy contamos con tecnologías capaces de caracterizar el funcionamiento del cerebro y métodos de IA para predecir el riesgo de enfermedad”.
“Tratar las enfermedades neurológicas y psiquiátricas es necesario, pero no suficiente. La sociedad tiene que promover la adopción ética y regulada de tecnologías que permitan planear y optimizar el cuidado del cerebro a lo largo de la vida”, advierte.
La IA no debe sustituir al juicio clínico
Además de en Neurología, la IA está cada vez más presente en otros múltiples campos de la Medicina. Javier García Alegría, director del Área de Medicina Interna del Hospital Costa del Sol de Marbella y expresidente de la FACME (Federación de Asociaciones Científico Médicas Españolas), analizó los dilemas éticos que plantea la incorporación de la inteligencia artificial en la práctica médica.
“La IA no debería sustituir al juicio clínico”, afirmó, “sino que debe integrarse como una tecnología novedosa, de forma crítica y responsable, para mejorar la toma de decisiones. Para ello, se necesitan nuevas competencias profesionales en el uso y supervisión de la IA, una regulación clara y una formación médica apropiada”.
Por su parte, Bárbara Pernaute, investigadora principal del Centro Andaluz de Biología del Desarrollo (CABD), apuntó un importante dilema ético en biomedicina: la generación y uso de modelos de embrión humano in vitro a partir de células madre. La investigadora apuntó que los modelos embrionarios creados a partir de células madre “ofrecen una oportunidad sin precedentes, aunque plantean dilemas éticos y legales” y subrayó la urgencia de “establecer límites de manera transparente y con una base científica sólida que justifique de forma inequívoca el beneficio del uso de este tipo de modelos y cuáles son las barreras éticas que no pueden traspasarse”.
La ética y la integridad científica fueron el tema principal de la segunda parte de la Jornada, en la que tuvo lugar una mesa redonda moderada por Lluís Montoliú, Investigador científico del CSIC y vicedirector del Centro Nacional de Biotecnología (CNB). “La ética y la integridad científica son esenciales en toda la labor profesional de los investigadores”, apuntó Montoliú, “de ellas depende la credibilidad y fiabilidad del registro científico y la confianza que la sociedad en general mantiene con los investigadores”, añadió.
En el debate, en el que participaron Ramón López de Mántaras (Instituto de Investigación en Inteligencia Artificial – CSIC), Isidro Aguillo (Instituto de Políticas y Bienes Públicos - CSIC), Isolina Riaño (Hospital Universitario Central de Asturias), Carmen Ayuso (Fundación Jiménez Díaz) y Cristina Candal (USC), se trató, entre otros temas, la importancia de una formación transversal en ética e integridad científica para todas las etapas de la carrera investigadora.
¿Usaría Trump una inteligencia artificial confiable?
La transparencia en el uso de la IA y los conflictos de intereses fue el tema escogido por Senén Barrio Armentero, director científico del CiTIUS (Centro Singular de Investigación en Tecnologías Inteligentes de la Universidad de Santiago de Compostela). En su ponencia titulada “¿Usaría Trump una inteligencia artificial confiable?”, el experto planteó que la confiabilidad de la IA no es necesariamente “un objetivo común”, puesto que administraciones políticas o empresas privadas pueden tener otros intereses. Por ello, abogó por que la ciudadanía sea quien exija “una IA confiable, respetuosa con la privacidad y con supervisión, ya que, si no lo hacemos, las empresas no invertirán en ello o lo harán residualmente”.
Otros temas que se abordaron durante las Jornadas fueron la experimentación social y el uso de datos administrativos para la mejora de las políticas públicas (Pedro Rey Biel – ESADE), el uso de datos, derechos individuales y necesidades colectivas (Íñigo de Miguel - Universidad del País Vasco), los códigos éticos en investigación científica (Jorge Alegre-Cebollada – CNIC) y la cooperación para el desarrollo en la explotación sostenible de minerales (Pura Alfonso Albella – UPC).