Derechos Humanos en un mundo de ALGORITMOS

La sentencia entra a conocer sobre la implantación de modelos opacos.

Un tribunal de los Países Bajos ha dictado una sentencia por la que declara contrario al Convenio Europeo de Derechos Humanos, y por tanto ilegal, el uso de un algoritmo diseñado para combatir el fraude a la Seguridad Social.

El Comité Jurídico de Derechos Humanos de los Países Bajos junto con asociaciones de consumidores y dos ciudadanos particulares habían denunciado al Estado holandés por el uso de un sistema algorítmico de indicación de riesgos (System Risk Indication, SyRI) que se utiliza para predecir la probabilidad de que solicitantes de beneficios estatales defrauden tanto en sus contribuciones a la Seguridad Social como en el pago de impuestos.

La normativa definía el SyRI como una infraestructura técnica que permiten vincular y analizar de forma anónima en un entorno seguro para poder generar informes de riesgo.

La Sentencia no comparte los argumentos del Estado holandés, y establece que existe una responsabilidad especial en el uso de las nuevas tecnologías, resolviendo que el SyRI incumple el artículo 8 del Convenio de Derechos Humanos, el Derecho al respeto a la vida privada y familiar. Refiere el artículo 8.2 e interpreta que este precepto exige un equilibrio adecuado entre, las medidas implementadas por el Estado y las ventajas asociadas al uso de esas tecnologías, y las interferencias que ese uso puede causar con el derecho al respeto de la vida privada.

Falta de transparencia de los sistemas black box.

La transparencia está en el corazón del debate sobre el uso de algoritmos sobre todo en su uso por la administración pública. EEUU ha regulado su uso por las Agencias Federales, y la Comisión de la UE ha establecido la transparencia como requisito esencial para desarrollar la inteligencia artificial. Debe ser posible reconstruir, cómo y porqué el algoritmo se comporta de una determinada manera, y quienes interactúen con la inteligencia artificial deben saberlo, y además conocer qué personas son sus responsables.

SyRI es un algoritmo entrenado a través de black box – caja negra-, pues no hace referencia a los escenarios donde no es posible identificar las razones que han llevado a tomar ciertas decisiones.

El uso de tecnología black box choca frontalmente con las normas que exigen transparencia, control, trazabilidad y posibilidad de identificar los procesos de toma de decisiones de los algoritmos.

En el plano privado será aún más difícil resultará exigir transparencia a los operadores.

Perpetuación de patrones discriminatorios.

La perpetuación y amplificación de los prejuicios sociales basados en datos históricos sobre la salud, la justicia penitenciaria, investigaciones fiscales o laborales, se convierte en motivo de preocupación.

Garantías sobre la neutralidad de los algoritmos.

La Ley de Responsabilidad Algorítmica EEUU exige una auditoria con tres niveles de análisis: el diseño del algoritmo, los datos utilizados para entrenarlo y los resultados obtenidos. El motivo estriba en que su uso puede socavar el funcionamiento del libre mercado, perjudicar a los consumidores, y negar a los grupos históricamente desfavorecidos o vulnerables, la plena protección de sus derechos y libertades.

Protección de los Derechos Humanos.

La Sentencia utiliza la vulneración del Derecho a la vida privada como fundamento jurídico para establecer la ilegalidad del SyRI, y para limitar el uso de determinadas tecnologías, abriendo una nueva línea argumental para futuros casos.

Vuelve el debate sobre el encaje de las nuevas tecnologías como la inteligencia artificial, los Smart Contracts o blockhain en el marco jurídico existente, y sobre la necesidad de implementar normativa específica nueva, con la que abordar los problemas particulares surgidos en el seno de la sociedad digital.

Es un hecho indiscutido que empleamos la Inteligencia Artificial en los smartphones o en Google, que recibimos recomendaciones de música libros o noticias, que los asistentes personales nos escuchan, entienden y ayudan, también se utiliza la IA en diagnósticos médicos, procesos de selección, o para la concesión de créditos. Es una de las disciplinas estratégicas para ser más competitivos y abordar retos como la emergencia climática o el envejecimiento de la población.

También tiene sus zonas de peligro al generar situaciones de asimetría, quien tiene acceso a los datos y la capacidad de hacer algo con ellos tiene el poder. Y ahora mismo muy pocos lo tienen. Por eso es necesario equilibrar la balanza para asegurar que el desarrollo sea inclusivo.

También permite la IA generar contenido que no es veraz, pero indistinguible del veraz. Y los sistemas no son invulnerables, pueden ser hackeados y engañados.

Algunos países, China y EEUU, se han dado cuenta de que quien domine la inteligencia artificial dominará el mundo y han decidido invertir de manera ambiciosa. Europa está tratando de reducir la brecha de financiación preservando sus valores: no discriminación, inclusión, transparencia, derechos humanos, privacidad, etc.

Dado que no todo desarrollo tecnológico es progreso, la sociedad debería determinar qué desarrollo quiere para mejorar la calidad de vida de las personas y de todo el planeta. No existe suficiente debate sobre este asunto, fundamentalmente porque hay un gran desconocimiento, y ya se sabe que quien tiene el conocimiento tiene el poder.

Esta cantidad ingente de datos que llamamos big data es muy valiosa para ayudarnos a tomar decisiones más justas. Las decisiones humanas son susceptibles a la corrupción, a los conflictos de intereses, etc. Si superamos estas limitaciones tendremos una gran oportunidad en el desarrollo económico, la salud pública, el transporte, la educación …

Conceptos como la justicia, la atribución de la responsabilidad, la veracidad, la diversidad o la fiabilidad, tienen una traducción matemática, formulaciones que se incorporan a los algoritmos. El ciudadano tiene derecho a conocer los parámetros de conversión.

La responsabilidad de cada ciudadano de aprender es muy grande. La sociedad debe movilizarse y decidir qué desarrollo quiere. El conocimiento sobre pensamiento computacional es tan importante en el Siglo XXI como saber leer o las matemáticas. Debemos aprender a usar la tecnología como herramienta para resolver problemas y así exigírselo a todos los implicados en el proceso, la Cuarta Revolución Industrial está en marcha y no debemos permanecer indiferentes.

*Antonio Parejo es Abogado

CATEGORÍAS

COMENTARIOS

Wordpress (0)
Disqus ( )