Inteligencia Artificial para la Eutanasia, por Juan M. Ortiz, Doctor en Medicina
No
pretendo iniciar una discusión sobre la eutanasia en sí. Acepto la situación de
que en España se ha promulgado una Ley Orgánica que la regula y que incluye la
eutanasia y la objeción de conciencia a practicarla. Puesto que obtuvo la
mayoría necesaria para su aprobación hay que admitir que es lo que desean los
españoles ya que pudieron escoger a quienes los representaban en el Congreso y
el Senado.
Como
es posible que no todos seamos lectores del BOE he aquí los puntos que me
parecen esenciales para comprender la participación de la IA en el asunto.
La
exposición de motivos de la ley explica el porqué de su redacción, tema en el
que pretende resolver la contradicción entre admitir el derecho fundamental a
la vida y la posibilidad de acabar con ésta teniendo en cuenta otros derechos
como los de intimidad, libertad y dignidad.
Hay
un párrafo muy significativo que dice: “Cuando
una persona plenamente capaz y libre se enfrenta a una situación vital que a su
juicio vulnera su dignidad, intimidad e integridad, como es la que define el
contexto eutanásico antes descrito, el bien de la vida puede decaer en favor de
los demás bienes y derechos con los que debe ser ponderado, toda vez que no
existe un deber constitucional de imponer o tutelar la vida a toda costa y en
contra de la voluntad del titular del derecho a la vida”.
Curiosamente
en el Código Penal (de la democracia) existe un artículo, el 143, en el que se
castiga:
143.
1. Inducir al suicidio (4 a 8 años de prisión).
143.
2. y 3. Cooperar al suicidio (2 a 5 años y 6 a 10 si se produce la
muerte).
143.
4. “El que causare o cooperare activamente con actos necesarios y
directos a la muerte de una persona que sufriera un padecimiento grave, crónico
e imposibilitante o una enfermedad grave e incurable, con sufrimientos físicos
o psíquicos constantes e insoportables, por la petición expresa, seria e
inequívoca de esta, será castigado con la pena inferior en uno o dos grados a
las señaladas en los apartados 2 y 3”.
Lo
que parece bastante contradictorio con la argumentación del preámbulo ya que,
si no existe un deber de tutelar la vida a toda costa contra la voluntad del
titular, ¿por qué castigar estos casos en los que se da por supuesta la
voluntad de morir de la posible víctima…? Arcanos de la ley.
Entonces,
¿cómo es posible que España goce del dudoso privilegio de ser uno de los pocos
países en donde se permite la eutanasia? Fácil, porque el artículo 143 tiene
desde 2021 un párrafo 5 que dice:
143.
5. “No obstante lo dispuesto en el apartado anterior, no incurrirá
en responsabilidad penal quien causare o cooperare activamente a la muerte de
otra persona cumpliendo lo establecido en la ley orgánica reguladora de la
eutanasia”.
De
manera que lo que es delito no depende exactamente de la situación de la
persona afectada y de su deseo, sino de si la muerte se ha causado siguiendo o
no las normas que los legisladores han establecido. Sirva de aviso para quienes
piensen que un acto piadoso estará libre de pena si no se siguen estas normas.
El
legislador ha dispuesto un procedimiento algo complicado que requiere dos
solicitudes del interesado con 15 días de intervalo (para hacernos una idea en
la Comunidad de Madrid 160 solicitudes desde 2021 a 2023) y la participación de
varios médicos, uno de ellos para diagnosticar la situación y otro como
consultor que dispone de 10 días para aprobar el procedimiento y una Comisión
de Garantía y Evaluación que dispone de unos 11 días para resolver (y aprobó 76
casos, es decir casi la mitad). El trámite supone, normalmente, más de un mes
para iniciar el proceso que conducirá a la muerte del solicitante.
Naturalmente
la ley presta especial atención a las garantías que se han de dar para que se
trate de algo que el solicitante quiere hacer sin estar sometido a presiones y
con conocimiento de causa. Sin embargo, poca gente se plantea anticipadamente
que se puede encontrar en una situación de sufrimiento insoportable y a punto
de morir sin remedio, por lo que no es muy frecuente que expresen su deseo de
eutanasia, cuando se encuentran en las mejores condiciones de entender y
querer. Por supuesto que, si se da el caso, la ley reconoce la validez de la
documentación en que se haya expresado anticipadamente el deseo de eutanasia.
Pero,
¿qué hacer? cuando el sujeto ya no rige y sin embargo sufre sin esperanza de
recuperación y no fue previsor. La ley dice que cabe actuar cuando “haya
suscrito con anterioridad un documento de instrucciones previas, testamento
vital, voluntades anticipadas o documentos equivalentes legalmente reconocidos,
en cuyo caso se podrá facilitar la prestación de ayuda para morir conforme a lo
dispuesto en dicho documento”.
Una
situación análoga es aquella en la que el sujeto, aunque conserve sus sentidos,
padece un trastorno psiquiátrico que permite dudar si se encuentra en
condiciones de comprender el alcance y consecuencias de su decisión.
La
única salida para el que no fue previsor, o ya no entiende, está en los “documentos
equivalentes legalmente reconocidos” y en este momento es cuando
aparece la Inteligencia Artificial pretendiendo resolver el problema.
Insisto,
si la persona tiene un padecimiento físico o psíquico incurable o un
sufrimiento insoportable y cooperamos a su muerte cometemos un delito si no se
hace según marca la ley y si la persona no dijo que quería la eutanasia por
anticipado y ahora no puede pedirla no hay nada que hacer. De la misma manera
si lo pidió y ahora no puede retractarse se aplicará lo que dijo que quería.
Salvo
que la jurisprudencia (o la ley) admita como “documento equivalente” el
producido por un sistema de Inteligencia Artificial creado al efecto. Pero ¿eso
es posible?
Es lo
que plantean en la University of California, San Francisco (Estados Unidos).
Aunque, curiosamente, Estados Unidos es un país en el que no todos los Estados
admiten la eutanasia.
El
argumento es que “La inteligencia artificial podría analizar registros de
todas las conversaciones médico-paciente, filtrando explícitamente pasajes que
aludan a objetivos, valores y preferencias, así como comentarios sobre la
familia, pasatiempos o planes de fin de semana que muestren cómo ha vivido una
persona. Tales grabaciones podrían hacer
que un paciente cobre vida en un momento en que este paciente ya no se parece a
la persona que alguna vez fue. A partir de la combinación de datos de
comportamiento individual y publicaciones en redes sociales, visitas a la
iglesia, donaciones, registros de viajes y decisiones pasadas sobre la atención
médica, una IA podría aprender lo que es importante para un paciente y predecir
lo que elegiría en una situación *) ".
Se
trataría de que la IA generase el “documento equivalente” que la ley requiere
cuando el sujeto que debía haberlo hecho no lo hizo cuando podía.
Para
continuar tenemos que admitir la hipótesis de que los datos necesarios existen
y han sido almacenados y están a disposición de la IA en cuestión. Por el
momento no parece que sea posible disponer de grabaciones médico-paciente como
las requeridas (¿alguien recuerda haber grabado charlas con su médico?). Más
fácil es disponer de charlas y conversaciones en redes sociales siempre que sea
posible obtenerlas cuando el sujeto no puede dar permiso para ello. Igualmente
podrían ser accesibles sus documentos y comentarios escritos en cualquier
soporte con sus opiniones sobre diversos asuntos. Pero en cualquier caso
consideraremos esto como un postulado y admitamos que sería posible que la IA
generase un documento equivalente a la solicitud de eutanasia y que fuese
admitido como válido.
¿Asunto
resuelto?
Por
supuesto que en primer lugar se deben cumplir el resto de los requisitos de la
ley en cuanto a diagnósticos médicos y controles establecidos; la IA solo
participaría para expresar la voluntad del sujeto deducida de los datos
disponibles.
Naturalmente
el primer paso sería validar el propio proceso de la IA; es decir, comprobar
con un número suficiente de personas capaces si la IA descubre correctamente si
querrían o no la eutanasia en el caso de cumplir las condiciones previstas.
¿Cuántas personas? ¿Qué porcentaje de aciertos? Nuevo postulado a admitir:
alguien ha sido capaz de contestar estas preguntas y el resultado ha sido
favorable.
Todavía
cabe una objeción ya que la IA concluye sus resultados con datos del pasado y
el sujeto podría haber cambiado de expectativas o de opinión desde que se grabó
el último dato. Esta situación sería semejante a la del caso en que se redactó
un documento válido y el sujeto ha cambiado de opinión, pero no lo puede
expresar debido a su estado actual. Para esto no parece haber solución
evidente.
Por
último, los mismos autores de la propuesta plantean el riesgo del exceso de
confianza en la IA y la posibilidad de que haya sido programada con algún tipo
de sesgo indeseable.
Para
los optimistas que piensan que esto nunca ocurrirá, mediten desde cuándo les
parece asumible que se lancen bombas desde aparatos no tripulados, con un
algoritmo que decide cuándo dejarlas caer, o desde cuándo confían en los pagos
sin efectivo o cuánto tiempo transcurrirá hasta que la cuarta luz, la luz
blanca de los semáforos, esté en pleno uso.
-------------------
*) ¿Puede la Inteligencia Artificial hablar por
pacientes incapacitados al final de su vida?
Dr. Teva D. Brender; Dr. Alexander K. Smith; Dr. Brian L.
Block
JAMA Internal Medicine
No hay comentarios:
Publicar un comentario
Se ruega NO COMENTAR COMO "ANÓNIMO"