La inteligencia artificial (IA) tiene un enorme potencial para acelerar los avances en la salud y la medicina, pero también conlleva riesgos si no se aplica con cuidado, como lo demuestran los resultados contradictorios de estudios recientes sobre el tratamiento del cáncer. Por un lado, la startup de biotecnología Etcembly, con sede en el Reino Unido, acaba de anunció que pudo utilizar IA generativa para diseñar una nueva inmunoterapia dirigida a cánceres difíciles de tratar. Esta representa la primera vez que se desarrolla un candidato a inmunoterapia utilizando IA, y Etcembly, que es miembro del programa Inception de Nvidia, pudo crearlo en solo 11 meses, o el doble de rápido que los métodos convencionales. La nueva terapia de Etcembly, llamada ETC- 101, es un activador biespecífico de células T, lo que significa que se dirige a una proteína que se encuentra en muchos cánceres y no en tejidos sanos. También demuestra afinidad picomolar y, por lo tanto, es hasta un millón de veces más potente que los receptores naturales de células T. La compañía dice que también tiene una sólida cartera de otras inmunoterapias para el cáncer y enfermedades autoinmunes diseñadas por su motor de inteligencia artificial, llamado EMLy.Imagen: Etcembly «Etcembly nació de nuestro deseo de reunir dos conceptos que están por delante de la corriente científica principal (TCR e IA generativa) para diseñar la próxima generación de inmunoterapias», dijo la directora ejecutiva, Michelle Teng. «Estoy entusiasmado de aprovechar estos activos para que podamos hacer realidad el futuro de las terapias TCR y brindar tratamientos transformadores a los pacientes. Anteriormente, los investigadores demostraron que la IA podría ayudar a predecir los resultados de los tratamientos experimentales contra el cáncer, mejorar las técnicas de detección del cáncer y descubrir nuevos fármacos senolíticos, detectar signos de la enfermedad de Parkinson y comprender las interacciones de proteínas para diseñar nuevos compuestos.
Peligros de implementar una IA no validada
Por otra parte, persisten riesgos importantes. Algunas personas están empezando a utilizar chatbots de IA en lugar de médicos y terapeutas, y una persona incluso se suicidó después de seguir los consejos dañinos de un chatbot. Los científicos también se están alineando con la idea de que las personas no deberían seguir ciegamente los consejos de la IA. Un nuevo estudio publicado por JAMA Oncology sugiere que ChatGPT tiene limitaciones críticas a la hora de generar planes de tratamiento del cáncer, lo que subraya los riesgos si las recomendaciones de IA se implementan clínicamente sin una validación exhaustiva. Investigadores del Brigham and Women’s Hospital en Boston descubrieron que las recomendaciones de tratamiento de ChatGPT para varios casos de cáncer contenían muchos errores fácticos e información contradictoria. De 104 consultas, alrededor de un tercio de las respuestas de ChatGPT tenían detalles incorrectos, según el estudio publicado en JAMA Oncology. Los resultados con una recomendación incluyeron al menos 1 tratamiento concordante con la NCCN, pero 35 de 102 (34,3%) de estos resultados también recomendaron 1 o más tratamientos no concordantes”, encontró el estudio.Fuente: JAMA OncologyAunque el 98 % de los planes incluían algunas pautas precisas, casi todos mezclaban contenido correcto e incorrecto. «Nos sorprendió el grado en que la información incorrecta se combinaba con hechos precisos, lo que hacía que los errores fueran difíciles de identificar, incluso para los especialistas», dijo coautora Dra. Danielle Bitterman. Específicamente, el estudio encontró que el 12,5% de las recomendaciones de tratamiento de ChatGPT fueron completamente alucinadas o inventadas por el robot sin precisión objetiva. La IA enfrentó problemas especiales para generar terapias localizadas confiables para cánceres avanzados y el uso apropiado de medicamentos de inmunoterapia. La propia OpenAI advierte que ChatGPT no está destinado a brindar asesoramiento médico ni servicios de diagnóstico para afecciones de salud graves. Aun así, la tendencia del modelo a responder con confianza con información contradictoria o falsa aumenta los riesgos si se implementa clínicamente sin una validación rigurosa. Comer veneno para hormigas es un obvio no-no incluso si la IA de su supermercado se lo aconseja, obviamente, pero cuando se trata de cuestiones académicas complejas. términos y consejos delicados, también debes hablar con un humano. Con una validación cuidadosa, las herramientas impulsadas por IA podrían desbloquear rápidamente nuevos tratamientos que salven vidas y al mismo tiempo evitar pasos en falso peligrosos. Pero por ahora, los pacientes hacen bien en ver los consejos médicos generados por IA con una buena dosis de escepticismo.