El aumento del uso de la inteligencia artificial en la atención de salud requiere de fortalecer las garantías jurídicas para proteger a los pacientes y los trabajadores sanitarios, afirmó este miércoles la división para Europa de la Organización Mundial de la Salud (OMS).
La antena de la OMS para Europa llegó a esta conclusión tras un estudio sobre la adopción y la regulación de la IA en el ámbito de la salud, realizado en base a las respuestas de 50 de los 53 países de su jurisdicción, que incluye también Estados de Asia Central.
Solamente cuatro países, un 8%, adoptaron una estrategia nacional sobre la IA en el ámbito de la salud y siete están en proceso, indica el informe.
«Estamos ante una encrucijada», afirmó en un comunicado Natasha Azzopardi-Muscat, directora de Sistemas de Salud de la OMS para Europa.
Para Azzopardi-Muscat, la IA puede ser utilizada para «mejorar la salud y el bienestar de las personas, reducir la carga de trabajo de los profesionales de la salud agotados y que bajen los costos», pero advirtió que también puede «socavar la seguridad de los pacientes, comprometer su privacidad y reforzar las desigualdades».
Lea también:
Cerca de dos tercios de los países ya utilizan la asistencia de la IA para los diagnósticos, especialmente para el análisis de imágenes, y la mitad recurren a robots conversacionales para la asistencia de los pacientes.
La OMS instó a los países «a tomar en cuenta los potenciales riesgos, especialmente en relación a resultados sesgados o de mala calidad, los sesgos de la automatización, la erosión de las competencias de los trabajadores, la reducción de la interacción» con los pacientes y una desigualdad de resultados para poblaciones marginadas.
La regulación no logra mantener el ritmo frente a la adopción de nuevas tecnologías, señala la OMS, que afirma que nueve países de diez mencionan la incertidumbre jurídica como principal freno a la utilización de la IA.
La división de la OMS pidió a los países que clarifiquen las responsabilidades, que pongan en marcha mecanismos de indemnización y se aseguren de que las herramientas de la IA «sean probadas en términos de seguridad, equidad y eficacia» antes de ser implementadas.
Con información de AFP