viernes, 15 de marzo de 2024

ECO.77 El que vale, vale y el que no "IA" (y IV)

EL QUE VALE, VALE Y EL QUE NO "IA" (y IV), por Juan M. Ortiz, Doctor en Medicina

(continuación)

 

La IA puede cometer errores y de hecho se han publicado, sobre todo, los cometidos por las dedicadas al proceso de textos. El principal es proporcionar información obsoleta, lo que ocurre cuando la base de conocimientos se alimenta de datos que ya están desacreditados o desactualizados. Esto ocurrirá siempre, ya que habría que predecir el futuro para saber si algo que se conoce de una determinada manera en la actualidad, lo será de otra en el futuro. Es un asunto que, naturalmente preocupa a los medios de comunicación para los cuales un día es una eternidad, pero probablemente sea considerado como de menor importancia para el común de los mortales.

Más graves son, como se ha sugerido, los casos en que se proporciona información sesgada o falsa o cuando se presenta como conocimiento lo que en realidad es un prejuicio o estereotipo. Por supuesto la solución es la misma que cuando se recibe cualquier información falsa, mantener un espíritu crítico y no creer en lo que no sea posible verificar. En último término eliminar, en el uso de la inteligencia artificial, como en todo, el criterio de autoridad que recogía el aforismo “Roma locuta, causa finita”.

Para terminar, la Unión Europea ha determinado en relación con la IA que no es admisible una tecnología que vulnere un derecho fundamental, o pueda causar riesgos sistémicos para el estado de derecho o la democracia. En consecuencia, en la “Ley” aprobada se establecen tres niveles de riesgo en el uso de la IA.

Por ejemplo, considera nivel de riesgo inadmisible sistemas de reconocimiento de emociones, faciales o biométricos en lugares de trabajo, en centros educativos y en el espacio de uso público. El Parlamento pedía una prohibición total, pero los Estados exigieron excepciones como la prevención de una amenaza terrorista o para la búsqueda de una persona sospechosa o condenada por delitos de trata, explotación sexual, asesinato, secuestro, violación, robo a mano armada, participación en una organización criminal o delitos medio ambientales. Los malpensados concluimos aquello de “hecha la ley, hecha la trampa”. Solamente hace falta pensar en qué sería terrorismo en nuestro país, en algunas comunidades, para según qué gobierno.

Por debajo del nivel inaceptable se considera de riesgo alto a la IA actuando sobre redes de electricidad, agua o gas o a los sistemas empleados en asuntos médicos, administración de justicia, procesos electorales, acceso a la educación o el control de fronteras. En estos casos se exigirá supervisión humana y un elevado nivel de seguridad. El problema es que cuando se pretende incrementar la productividad utilizando IA no suele ser muy eficaz tener que supervisar los resultados del sistema. Suponga que utilizamos una IA para valorar los “curricula” y los méritos de varios miles de candidatos a una beca, si el supervisor humano tiene que valorar los mismos datos parece que la utilización de IA va a ser poco eficiente, al menos en cuanto al tiempo requerido.

Finalmente se considera de bajo riesgo y por lo tanto sin necesidad de supervisión o control los usos de la IA como sistema de recomendación del tipo de reservas de viajes, musicales, etc.

En conclusión, el asunto, no es tan moderno como parece, ni tan peligroso como nos hacen creer, pero está claro que nos acabaremos acostumbrando a utilizar la IA como una herramienta más, que acabará invadiendo casi cualquier aspecto de nuestra vida y muchas veces sin que nos demos cuenta de ello. El tiempo dirá, si como parece, supondrá un cambio del mismo o mayor nivel que la imprenta o la revolución industrial.




No hay comentarios:

Publicar un comentario

Se ruega NO COMENTAR COMO "ANÓNIMO"