La ética en los sistemas de Inteligencia Artificial

No hay día en el que no veamos alguna noticia relacionada con Inteligencia Artificial (IA) y, aunque existe una posición común respecto a los beneficios que ésta puede generar en diferentes ámbitos como sanidad, educación, medio ambiente, etc., el desarrollo de sistemas basados en IA genera ciertos desafíos éticos que pueden redundar en riesgos de amplio alcance, pues éstos serán usados a nivel mundial.

Nos podríamos preguntar, ¿cómo una tecnología que debería estar diseñada para facilitar el trabajo, la toma de decisiones y colaborar a la mejora de vida de la población, puede repercutir negativamente si no se diseña y monitoriza de forma adecuada?

Tomando como referencia las reflexiones de Coeckelbergh (AI Ethics, 2021): “La IA incrementará progresivamente su capacidad de agencia intencional, replicando y reemplazando a la agencia humana, generando el problema de la ausencia o disolución de la responsabilidad ética en los sistemas tecnológicos”.

En suma, algunos de los principales riesgos éticos a los que nos enfrentamos con los Sistemas de IA (SIA) serían:

  • Aumento de la capacidad de los SIA en detrimento de la capacidad de decisión del ser humano.
  • Existencia de sesgos discriminatorios en los algoritmos, influyendo en la toma de decisiones a todos los niveles y perdiendo el control sobre los efectos de los SIA.
  • Favorecer la opacidad y restricción de la rendición de cuentas en la medida en la que los SIA se vuelvan más complejos.
  • Posibilidad de exacerbar desigualdades sociales y/o económicas.
  • Mayores emisiones de carbono derivado de un uso desproporcionado de energía.

Por ello, los SIA deben utilizarse para mejorar la toma de decisiones pero nunca reemplazando o viciando la voluntad de la inteligencia humana, pues el peor escenario en el que nos podríamos mover sería aquel en el que el ser humano renuncie, ya sea voluntaria o forzadamente, a tomar decisiones vinculantes en su día a día.

Según Luciano Floridi, a los SIA se les pondrían aplicar los principios básicos de la bioética: beneficencia, no-maleficencia, autonomía y justicia, además de la explicabilidad que implicaría inteligibilidad y transparencia de los SIA, y la rendición de cuentas.

Las recomendaciones éticas de la UNESCO se centran en los siguientes principios (UNESCO, 2022):

  • Proporcionalidad e inocuidad
  • Equidad y no discriminación
  • Seguridad y protección
  • Sostenibilidad
  • Intimidad y protección de datos
  • Supervisión y decisión humana
  • Transparencia
  • Responsabilidad y rendición de cuentas
  • Gobernanza y colaboración adaptativa de las partes interesadas
  • Sensibilización y educación

Estos principios son homólogos a los recogidos en la Declaración de Montreal [PDF resumen] y, se hace hincapié en la necesidad de salvaguardar las decisiones y responsabilidades humanas; de igual manera, se pone de manifiesto la importancia de proteger los datos personales, la transparencia y la responsabilidad de las empresas y los Estados.

Una vez identificados a alto nivel los riesgos y principios éticos aplicables a los SIA, sería plausible la siguiente recomendación de la UNESCO: “¿las personas deberían tener buenas razones para confiar en que los sistemas de IA pueden aportar beneficios individuales y compartidos, al tiempo que se adoptan medidas adecuadas para atenuar los riesgos?” (UNESCO, 2022).

Tengamos esperanza que estos principios éticos no queden únicamente como una carta de deseos y, que el contexto económico y político en el que nos movemos ayude a garantizar que la decisión final sobre cualquier cuestión abordada por IA sea tomada por un ser humano y, que ésta se adopte de forma libre e informada, pues la IA ha venido para quedarse.

Speak Your Mind

*