jueves, 19 de marzo de 2026

ECO.89 IA ¿INTRUSISMO? (I)

IA ¿Intrusismo? (I), por Juan M. Ortiz, Doctor en Medicina

 

Esta mañana, a mediodía, he conectado con la red de internet y le pregunté a la IA (Inteligencia Artificial) de Google:

 me salen leucocitos y nitritos positivo en una tira de orina ¿qué puedo tener?

Esta es la contestación:

“La presencia conjunta de leucocitos (glóbulos blancos) y nitritos positivos en una tira de orina indica con alta probabilidad una infección del tracto urinario (ITU). Los nitritos son producidos por bacterias (como E. coli) que convierten nitratos, mientras que los leucocitos indican la inflamación causada por esta infección.

………………...y acaba con:

Recomendaciones:

Consulta a un médico: Es necesario un diagnóstico profesional para confirmar la infección y determinar el antibiótico correcto.

Urocultivo: Es probable que pidan un urocultivo para identificar la bacteria exacta.

Hidratación: Bebe abundante agua para ayudar a limpiar el tracto urinario.

Aviso: Este mensaje no sustituye la consulta médica. No te automediques.”

 

He subrayado tres frases de la contestación que merecen un comentario. La primera porque muy probablemente cualquier médico de asistencia primaria estaría de acuerdo con ella, con esos dos datos lo más probable es una infección urinaria, Luego se añaden algunos síntomas que lo podrían confirmar los análisis pertinentes.

Las dos siguientes son consejos: acuda a un médico y no se automedique y, por supuesto, son dos consejos a seguir sin ninguna duda, porque si el diagnóstico es correcto, solamente el médico deberá indicar qué antibiótico utilizar en espera de un posible cultivo de orina.

Pero siendo viernes y a la hora en que estamos ¿qué ventaja tiene consultar una IA en lugar de a un médico? En cualquier caso pedir una cita significa que como pronto mi médico me recibirá en el consultorio el próximo lunes (si no existe lista de espera, claro). Pero la IA me sugiere una infección urinaria lo que supone una enfermedad importante, aunque normalmente no sea muy grave, así es que en lugar de esperar al lunes he ido directamente al servicio de urgencia, ganando casi tres días (o más) de tratamiento.

Todo esto viene a cuento de que esta mañana he recibido por tres vías distintas artículos serios comentando los problemas que está causando la Inteligencia Artificial.

Empezaré por lo más alejado a mi actividad. Hace unos días una abogada me comentaba la discusión que tuvo con un colega, conocido común, que se empeñaba en afirmar que su actividad profesional se limitaba a copiar los informes de la IA que utilizaba y mandarlos al juzgado. No hubo forma de convencerle de que, en algunos casos, la IA se inventaba cosas y podía fallar. A los pocos días comentaba, con la misma abogada, la multa que le habían puesto a un colega suyo por citar sentencias falsas (proporcionadas por una IA) en un escrito ante el tribunal (no era nuestro conocido, pero ambos concluimos que mejor sería que fuese poniendo sus barbas a remojar).

Precisamente hoy leo en una revista jurídica -Confilegal-, la noticia de que “El Ilustre Colegio de la Abogacía de Madrid (ICAM) ha registrado en el Congreso una propuesta de modificación del artículo 403 del Código Penal, sobre intrusismo profesional, para adaptarlo a la nueva realidad en el «ejercicio» de la abogacía”.

Se refieren a la existencia y auge de sistemas de Inteligencia Artificial que ofrecen «consultoría» jurídica sin intervención de un profesional. Proponen una modificación del Código Penal del artículo 403, puesto que con la actual redacción sólo se pueden perseguir las acciones de una persona física sin título y no a la Inteligencia Artificial cuya “autoría organizativa” es difusa.

La revista cita como argumentos del ICAM: «La ciudadanía puede adoptar decisiones de trascendencia jurídica (presentación de escritos, aceptación de acuerdos, renuncias, estrategias procesales, contratación, reclamaciones o recursos) basadas en “respuestas” generadas por sistemas automatizados que: carecen de deberes deontológicos; no están sometidos a responsabilidad profesional en los términos propios del ejercicio; o pueden inducir a error por falta de control humano cualificado», explican en su Proposición de Ley.

Lo que el Colegio propone es añadir al articulado la inclusión de la conducta de quien:

“«con ánimo de lucro o en el marco de una actividad empresarial o profesional», diseñe u ofrezca al público sistemas automatizados que, sin intervención directa y efectiva de un profesional habilitado, generen recomendaciones, dictámenes o documentos propios de una profesión titulada.

Es interesante resaltar que la conducta sería punible cuando deje de producirse la intervención de un profesional titulado, no porque la recomendación, el dictamen o el documento sean erróneos. Por supuesto se aplicaría a cualquier tipo de ejercicio profesional titulado.

Nótese que no incluyen solamente los casos en que se actúa con ánimo de lucro sino también los que se dan en el marco de una actividad empresarial o profesional lo que incluye casi cualquier cosa.

De manera que si la propuesta prosperase ¿sería intrusismo la recomendación que Google me sugirió esta mañana? Me quedo con la duda, pero me da la impresión de que se están poniendo puertas al campo, lo que deduzco de otros dos artículos de esta mañana. Ambos proceden de una publicación destinada a los médicos: Medscape.

 

El primero, en un contexto europeo, trata de resultados sobre comportamiento y opiniones de ciudadanos alemanes. Casi la mitad de ellos indicó que había consultado a una IA antes de pedir consejo médico ante un problema de salud (!vaya¡  lo que yo he hecho esta mañana). En general opinan que es positiva la aplicación de la IA en medicina. La conclusión sería que desde un punto de vista sociológico estos ciudadanos consideran muy valiosas las recomendaciones de la IA hasta el punto de que podríamos pensar, por generar polémica, si en un futuro no será intrusismo la recomendación del profesional titulado si no ha intervenido en ella una IA y no al contrario (en ocasiones la IA tiene más aciertos que los profesionales en sus diagnósticos). No está claro porque en el mismo artículo se refieren publicaciones que indican que “aunque los pacientes confían cada vez más en los consejos generados por IA, pueden percibir a los médicos que utilizan IA como menos competentes, empáticos y confiables”.

 

El segundo nos lleva más lejos, a Canadá. Los datos proceden de una encuesta de la Asociación Médica Canadiense y empieza con un dato “la mayoría de los canadienses (89%) buscan información de salud en línea”; normalmente indican que por razones de velocidad en la respuesta ya que el acceso a las redes sociales es muy fácil y el acceso a los equipos de atención no lo es tanto.

 

El cuerpo del artículo se centra en la fiabilidad de la información que se obtiene y en los riesgos de emplearla. Es interesante que los autores destacan que los canadienses desconfían cada vez más de la información sobre salud procedente de Estados Unidos, lo que pienso que puede tener que ver con los cambios sobre al asunto que está llevando a cabo el gobierno actual.

Más interesantes son los peligros que se pueden producir cuando se utiliza información sobre salud obtenida en redes. Estos serían:

 

1.- confusión sobre la mejor manera de cuidar proactivamente su salud.

2.- estrés mental o aumento de la ansiedad.

3.- demora en buscar atención o tratamiento médico adecuado.

4.- menor confianza en los profesionales de la salud.

5.- dificultad para discutir problemas de salud con los proveedores de atención médica.

6.- relaciones tensas con familiares o amigos.

7.- evitación de tratamientos efectivos debido a la desinformación.

 

El 3, el 4 y el 7 muy relacionados entre sí, pueden llegar a ser problemas verdaderamente graves y son comunes a los que causan algunas “medicinas alternativas” o “tratamientos milagrosos” sin evidencia científica.

No parece que sea posible otra solución que la de confiar en que, con el tiempo, los ciudadanos sean capaces de distinguir la información correcta de la que no lo es y que clientes y profesionales conversen sobre los datos que la IA les proporciona. Proporcionar información falsa es el riesgo que tiene la libertad de expresión.

 

Con el tercer articulo volvemos al comienzo ¿Quién es el responsable cuando los algoritmos fallan?

 

(continuará)





No hay comentarios:

Publicar un comentario

Se ruega NO COMENTAR COMO "ANÓNIMO"