ia-knrF--1200x630@abc

Un nuevo artículo publicado por el destacado especialista australiano en ética de la IA Stefan Harrer PhD propone por primera vez un marco ético completo para el uso, diseño y gobernanza responsables de las aplicaciones de la IA Generativa en la asistencia sanitaria y la medicina.

El estudio, revisado por expertos y publicado en la revista eBioMedicine de The Lancet, detalla cómo los Modelos Lingüísticos Amplios (LLM por sus siglas en inglés) tienen el potencial de transformar fundamentalmente la gestión de la información, la educación y los flujos de trabajo de comunicación en la asistencia sanitaria y la medicina, pero siguen siendo uno de los tipos de IA más peligrosos e incomprendidos.

«Los LLM solían ser aburridos y seguros. Ahora son emocionantes y peligrosas», afirma Harrer, que también es Director de Innovación del Centro de Investigación Cooperativa en Salud Digital (DHCRC), uno de los principales financiadores australianos de la investigación y el desarrollo en salud digital, y miembro de la Coalición por la Inteligencia Artificial en Salud (CHAI).

Los LLM son un componente clave de las aplicaciones de IA generativa para crear nuevos contenidos, como texto, imágenes, audio, código y vídeos, en respuesta a instrucciones textuales. Entre los ejemplos más destacados analizados en el estudio en relación con los principios éticos de diseño, publicación y uso, así como con su rendimiento, figuran el chatbot ChatGPT de OpenAI, el chatbot Med-PALM de Google, el generador de imágenes Stable Diffusion de Stability AI y el bot BioGPT de Microsoft.

El estudio destaca y explica muchas aplicaciones clave para la atención sanitaria:

  • ayudar a los clínicos a generar informes médicos o cartas de autorización previa;
  • ayudar a los estudiantes de medicina a estudiar de forma más eficiente
  • simplificar la jerga médica en la comunicación médico-paciente;
  • aumentar la eficiencia del diseño de ensayos clínicos
  • ayudar a superar los obstáculos de interoperabilidad y normalización en la extracción de HCE;
  • aumentar la eficacia de los procesos de descubrimiento y diseño de fármacos.

Sin embargo, el artículo también destaca que el peligro inherente de la IA generativa impulsada por LLM, derivado de la capacidad de los LLM para producir y difundir de forma autoritaria y convincente contenidos falsos, inapropiados y peligrosos a una escala sin precedentes, se está marginando cada vez más en un bombo publicitario en torno a la última generación de potentes chatbots LLM.

El Dr. Harrer sostiene que las limitaciones de los LLM son sistémicas y tienen su origen en su falta de comprensión del lenguaje.

«La esencia de una recuperación eficaz del conocimiento es formular las preguntas adecuadas, y el arte del pensamiento crítico se basa en la capacidad de sondear las respuestas evaluando su validez con respecto a los modelos del mundo. Los LLM no pueden realizar ninguna de estas tareas. Son intermedios que pueden reducir la inmensidad de todas las respuestas posibles a una pregunta a las más probables, pero son incapaces de evaluar si la pregunta o la respuesta tienen sentido o son contextualmente apropiadas», afirma Harrer.

Por tanto, sugiere que aumentar el tamaño de los datos de entrenamiento y construir LLM cada vez más complejos no mitigará los riesgos, sino que los amplificará. El estudio propone enfoques alternativos para (re)diseñar éticamente las aplicaciones generativas de IA, configurar los marcos normativos y dirigir los esfuerzos de investigación técnica a explorar métodos de aplicación y cumplimiento de los principios éticos de diseño y uso.

El Dr. Añade que, sin supervisión humana, orientación, diseño y funcionamiento responsables, las aplicaciones de IA generativa impulsadas por LLM seguirán siendo una fuente con gran potencial para crear y difundir desinformación o contenidos nocivos e inexactos a una escala sin precedentes.

«El DHCRC desempeña un papel fundamental a la hora de llevar la IA ética a la práctica», ha declarado Annette Schmiede, directora general del DHCRC. «Existe un entusiasmo renovado por el papel de la IA generativa en la transformación de la asistencia sanitaria y nos encontramos en un punto de inflexión en el que la IA empezará a integrarse cada vez más en el ecosistema de la sanidad digital. Estamos en primera línea y marcos como el esbozado en este documento se convertirán en fundamentales para garantizar un uso ético y seguro de la IA.»

«La IA ética requiere un enfoque de ciclo de vida, desde la curación de datos hasta la prueba de modelos y la supervisión continua. Sólo con las directrices y barandillas correctas podemos asegurar que nuestros pacientes se beneficien de las tecnologías emergentes al tiempo que minimizamos los sesgos y las consecuencias no deseadas», dijo John Halamka, M.D., M.S, Presidente de Mayo Clinic Platform y cofundador de CHAI.

«Este estudio proporciona una importante orientación ética y técnica a los usuarios, desarrolladores, proveedores y reguladores de la IA generativa y los incentiva a prepararse de manera responsable y colectiva para el papel transformador que esta tecnología podría desempeñar en la salud y la medicina», dijo Brian Anderson, M.D., Médico Jefe de Salud Digital en MITRE.

Mayo 15/2023 (EurekaAlerts!) – Tomado de News Releases  Copyright 2023 by the American Association for the Advancement of Science (AAAS).

 

mayo 15, 2023 | Lic. Jessica Arias Ramos | Filed under: Avances en la Ciencia, Ciencia y Tecnología | Etiquetas: , , , |

  • Noticias por fecha

    noviembre 2024
    L M X J V S D
    « oct    
     123
    45678910
    11121314151617
    18192021222324
    252627282930  
  • Noticias anteriores a 2010

    Noticias anteriores a enero de 2010

  • Suscripción AL Día

  • Categorias

    open all | close all
  • Palabras Clave

  • Administración