La codificación clínica automatizada promete eficiencia, pero expone riesgos que requieren vigilancia humana
SAN JUAN, Puerto Rico – Durante una presentación en la convención anual de la Asociación de Hospitales de Puerto Rico, Matthew Turner, director de desarrollo comercial en Dolbey Systems Inc., ofreció una mirada amplia a la evolución, beneficios y desafíos del uso de inteligencia artificial (IA) en la codificación clínica y la documentación médica.
Turner, con más de 20 años de experiencia en el sector, expuso cómo el salto tecnológico desde la transcripción tradicional hasta la codificación autónoma refleja una transformación profunda en los procesos del ciclo medio de ingresos de las instituciones de salud.
Según explicó, la inteligencia artificial aplicada a la codificación médica ha pasado de herramientas de reconocimiento de voz y procesamiento de lenguaje natural (NLP), hasta modelos de aprendizaje automático (ML) y modelos de lenguaje de gran escala (LLM), cada uno con funcionalidades específicas y retos únicos.
¿Por qué fue necesaria la codificación asistida?
La necesidad de implementar sistemas de codificación asistida por computadora (CAC) surgió con la compleja transición del sistema ICD-9 al ICD-10, que aumentó exponencialmente la cantidad de códigos diagnósticos y de procedimientos: de 14,000 a más de 68,000 en diagnósticos y de 4,000 a más de 87,000 en procedimientos. Esta carga adicional se sumó a departamentos de codificación ya sobrecargados y en muchos casos con personal experimentado cercano al retiro.
La CAC permitió automatizar parte del proceso de codificación, extrayendo y traduciendo texto libre o datos generados por computadora en códigos utilizados para facturación, de acuerdo con la definición de AHIMA (2014). Turner destacó que, más allá de automatizar, la meta siempre ha sido mejorar la productividad y precisión, reduciendo los días de cuentas por cobrar (A/R) y mejorando los indicadores de calidad.
Beneficios y riesgos de la automatización
Entre los beneficios documentados por Turner se encuentran la mejora en la precisión de la codificación, auditorías integradas, análisis en tiempo real y una reducción en la necesidad de servicios de codificación subcontratados. También resaltó la utilidad de estas herramientas en la identificación temprana de indicadores como PSI, HAC y PDI, lo que permite intervenir clínicamente mientras el paciente aún está hospitalizado.
Sin embargo, Turner no dejó de señalar las limitaciones actuales. Modelos de IA mal entrenados pueden generar resultados inexactos o sesgados, sobre todo si se alimentan con datos erróneos. Además, los modelos LLM son propensos a lo que denominó “alucinaciones”, produciendo contenido que puede parecer válido pero no lo es. La falta de comprensión clínica profunda por parte de estos sistemas representa un riesgo si no hay una supervisión humana activa.
Un uso responsable y ético
En uno de los ejemplos más llamativos, Turner narró cómo un médico usó una herramienta como ChatGPT para redactar sus notas de progreso con gran eficiencia. No obstante, advirtió sobre los riesgos relacionados con la privacidad de la información del paciente (PHI) y planteó una pregunta crucial: “¿Qué se puede hacer con esta tecnología y qué se debe hacer?”.
El mensaje final del panel fue claro: si bien la inteligencia artificial representa una herramienta poderosa para optimizar los procesos clínicos y administrativos, su uso debe estar guiado por principios éticos, normativos y una supervisión humana constante. La transformación digital en salud no es opcional, pero sí debe ser responsable.




