BECAS
LOPEZ Sabrina Laura
congresos y reuniones científicas
Título:
Desafíos éticos en el uso de datos sensibles y modelos para su desidentificación
Autor/es:
MARIELA RAJNGEWERC; LOPEZ SABRINA LAURA; LUCIANO SILVI; LAURA ACIÓN; LAURA ALONSO ALEMANY
Lugar:
Buenos Aires
Reunión:
Congreso; II Congreso de ética en investigación - Ética de las nuevas inteligencias; 2023
Institución organizadora:
Comité Central de Ética en Investigación, Ministerio de Salud - GCBA
Resumen:
Los registros de salud provenientes de historias clínicas electrónicas pueden ser una fuente valiosa de información para investigación (detección de brotes epidémicos, efectividad de vacunas, etc.). Sin embargo, al tratarse de un uso secundario de datos recolectados en el contexto de la atención sanitaria, deben tenerse en cuenta algunas consideraciones. En este trabajo nos vamos a enfocar en la adecuada protección de los datos personales que suelen encontrarse en las anotaciones del equipo de salud sobre la consulta (texto libre). Estos datos se encuentran legalmente protegidos por su potencial impacto en derechos fundamentales, como el derecho a la intimidad o a la no discriminación (por ejemplo, en el acceso al mercado laboral). Por ello, para adecuar los registros de salud a la investigación, resulta imprescindible eliminar aquella información que permita identificar a la persona titular de los datos (desidentificación). Existen modelos basados en Inteligencia Artificial para la desidentificación de datos sensibles no garantizan la anonimización completa de los datos y su disponibilidad en español es limitada. Además, es necesario garantizar que los errores que cometen estos modelos, exponiendo datos identificatorios, no tengan efectos discriminatorios, afectando más a algunos grupos de población (por ejemplo, personas migrantes, con discapacidad, etc). Si eso sucede, la implementación masiva de estos modelos puede funcionar como amplificador de la discriminacion por lo que se deben analizar los sesgos de los modelos de desidentificación con perspectiva de discriminación antes de disponibilizarlos. Estos análisis deben considerar y explicitar tanto los sesgos analizados como las limitaciones de dicha evaluación.Expondremos una serie de recomendaciones basadas en nuestra experiencia en el desarrollo y evaluación de sesgos de una herramienta de desidentificación de texto libre de la salud en español. Mostraremos ejemplos concretos sobre desafíos del uso de datos sensibles y las potencialidades y limitaciones de los modelos de desidentificación.