lunes, 22 de enero de 2024

ECO.76 El que vale, vale y el que no "IA" (III)

El que vale, vale y el que no "IA" (III), por Juan Miguel Ortiz

 

(continuación)

 

Decíamos que para los medios de comunicación la IA ha aparecido gracias a su capacidad de comunicación en lenguaje natural con las personas.

Sin embargo, lo que supone un avance espectacular reside en las posibilidades de la base de conocimientos. Es aquí donde se encuentran también los mayores problemas. La base de conocimientos es lo que la IA “sabe” bien porque se le ha “enseñado” o porque lo ha “aprendido” mediante sus sensores o mediante la retroalimentación proporcionada por los usuarios cuando comentan si el resultado ofrecido ha sido correcto o no.

Como ocurre con las personas, si lo que se sabe es correcto las respuestas lo serán, pero si lo que se sabe es erróneo está claro que también lo serán las respuestas. La diferencia con los humanos es que lo que sabe un ordenador lo sabe para siempre y lo recuerda de manera casi instantánea (salvo catástrofe tecnológica) y sin embargo al igual que las personas ese conocimiento puede estar sesgado lo que hará que las respuestas lo estén. Al parecer, una de las IA que hay a disposición del público actualmente, “piensa” como un “humano, blanco, conservador, de mediana edad”. Me estoy imaginando más que a su programador a su base de conocimientos.

¿Se imaginan una base de conocimientos con todas las mamografías realizadas en un periodo extenso de tiempo en una población? ¿Detectará un tumor comparando sus datos con una obtenida actualmente? Acertaron, la respuesta es sí y con una precisión casi como la de un radiólogo experto. (Detección del 91% de las radiografías normales y omisión entre el 0 y el 7% de los cánceres en un metaanálisis de 14 artículos publicados con unas 180.000 mamografías).

Naturalmente y como ha sucedido en otras ocasiones los estados han empezado a “preocuparse” por sus ciudadanos y a plantearse controlar la IA (Agencia Española de Supervisión de Inteligencia Artificial y Ley de Inteligencia Artificial del Parlamento Europeo).  No nos debería sorprender que se proponga una tasa o un impuesto especial en base a los posibles beneficios económicos que los usuarios obtendrán o de los gastos que se ahorrarán.

Más interesante es la reclamación de los autores que han creado los conocimientos que alberga la IA para funcionar. Los periodistas que han escrito sobre asuntos que se incluyen en la base de conocimientos, los profesores que han publicados libros o los investigadores que han aportado sus resultados consideran, lógicamente, que si los creadores de la IA tienen beneficios una parte les corresponde en tanto que “coautores” de la base de conocimientos. El problema es cómo se demuestra en cada caso que el dato procede directamente de lo publicado por el interesado y no de otra fuente.

Más fácil es reclamar cuando se utiliza la imagen de alguien o se imita su manera de hablar o escribir (por ejemplo, Leo Messi hablando en inglés o la estafa de tu hijo pidiendo dinero). En estos casos se plantea además el asunto del derecho a la intimidad y a la propia imagen. Evidentemente son asuntos que se tendrán que regular, aunque con la misma evidencia, es muy probable que se vaya siempre con retraso. ¡Todavía se discute si los menores deben tener móvil y a qué edad, cuando ya están empleando la IA para “desnudar” a sus amigas!

Cuando se plantean los riesgos de la IA se tiende a planteamientos apocalípticos pero el peligro del mal uso de la IA puede ser más sutil. En Estados Unidos ya se han presentado demandas contra el uso de IA por alguna aseguradora médica. En uno de los casos el sistema indica, mediante una base de datos con más de 6 millones de pacientes, cuánto debe durar la rehabilitación de un determinado paciente en función de sus circunstancias particulares. Finalizado el plazo señalado la empresa aseguradora deja de abonar los gastos médicos al paciente. La reclamación se hace sobre la base de supuestos errores de la IA que han obligado a los litigantes a pagar de su bolsillo el tratamiento adicional. Sus abogados plantean si es ético permitir que tome ese tipo de decisiones una IA y que la empresa obligue a sus empleados a seguir fielmente las recomendaciones de la IA siendo disciplinados cuando no lo hacen. Nótese que la queja es sobre el uso de la IA más que sobre ésta en sí misma, aunque se argumenten errores cometidos en la indicación realizada.

La Organización Médica Colegial Española se refiere a estos asuntos en su Guía De Ética Médica:

Artículo 82.3. En la Inteligencia Artificial es fundamental que el médico se comprometa en la protección de la confidencialidad, control y propiedad de los datos del paciente y en desarrollar modelos que incluyan el consentimiento y la gestión de los datos.

Lo que de todas formas nos deja con algunas dudas.

Este caso sobre denegación de asistencia me ha recordado que no se necesita la IA para llegar a situaciones similares. En el banco dónde tenía una cuenta corriente “sin comisiones” me cobraban siempre por cualquier motivo, cuando me quejé, la directora de la sucursal me contestó: “No se queje, siempre que nos lo ha dicho le quitamos la comisión, pero hay orden de cobrarla siempre y si no se protesta...”.   Pues eso...

 

(continuará)

 

 


No hay comentarios:

Publicar un comentario

Se ruega NO COMENTAR COMO "ANÓNIMO"