Inteligencia artificial: ¿necesitamos un código ético?

Por Fabio De Pasquale.
Consultor de UX, Worldline y
Atos Telecom & Networks Expert

Código ético para la Inteligencia Artificial

Puede decirse sin temor a equívocos que 2018 fue el año de inteligencia artificial, ya que todas las grandes compañías de tecnología incrementaron sus proyectos en esta área, caracterizados muchos de ellos por su ambición y enfoque internacional. Aplicaron su potencial en diversas áreas de la ciencia y la tecnología, recopilando y analizando datos en campos tan diversos como investigación médica, misiones militares, seguridad ciudadana, misiones espaciales, además de en muchas otras áreas, más comunes y tangibles, como creación de nuevas ciudades inteligentes y vehículos semi o completamente autónomos.

Pero no debemos olvidar un gran reto, ya que la IA también puede generar también efectos negativos cuando la potencia de estos sistemas está mal administrada, hecho que constituye un peligro inmediato. Y no se trata del riesgo de robots asesinos que vagan por nuestras ciudades, sino de aplicaciones más bien «sutiles y peligrosas» de las ya existentes.

Para empezar conviene subrayar la importancia de disponer de un marco ético y sólido sobre el uso de esta tecnología, dado el impacto real que ya tiene en la vida de las personas. Así, cuando hablamos de ética, lo hacemos en términos de transparencia, seguridad, igualdad, inclusión, privacidad, valores que intentamos mostrar en nuestros trabajos y planes.

La ética debe constituir un elemento básico en los algoritmos, de modo que, si una persona solicita una hipoteca, no será discriminada por su edad, sexo u origen étnico.

Por ello hay que tener la certeza de que se utilizan herramientas seguras, y que los responsables del desarrollo de estos sistemas basados ​​en datos han aplicado criterios éticos. Esto implica un riguroso aprendizaje por parte de los usuarios, de modo que posteriormente estos puedan acondicionar y poner a punto los equipos. En este ámbito, la ética debe constituir un elemento básico en los algoritmos, de modo que, si una persona solicita una hipoteca, no será discriminada por su edad, sexo u origen étnico. Un algoritmo jamás debe estar sesgado por el estatus racial o social. Debido a que nadie aprende sin conocimiento, mucho menos un robot, el programa debe estar provisto con información y datos que se adhieran a los principios éticos.

En cuanto a la legislación europea, no olvidemos que el pasado 2018, la Comisión Europea seleccionó 52 «Inteligencias humanas» para enfrentar el desafío ético de la inteligencia artificial y el 18 de diciembre del mismo año, publicó un borrador de un código de ética que contiene numerosas indicaciones útiles para la aplicación práctica de los principios fundamentales del derecho europeo en el desarrollo de sistemas inteligentes.

Estas directrices incluyen también una lista de verificación que puede utilizarse en la etapa de diseño para medir el cumplimiento de las recomendaciones éticas de la Comisión. Sin duda, es un paso adelante en comparación con otros experimentos similares realizados en todo el mundo, sin embargo, se ha planteado demasiado lejos de la realidad tecnológica real.

Las pautas incluidas en este borrador de 36 páginas, se resumen en dos factores fundamentales que la inteligencia artificial debe cumplir:

    • Propósito ético: la IA debe respetar, como se ha dicho, los derechos humanos y las regulaciones actuales.
    • Robustez técnica: la IA debe garantizar que, incluso cuando se utiliza con buenas intenciones, la falta de experiencia tecnológica en su gestión no cause daños involuntarios.

La IA debe garantizar no causar daños involuntarios

Las pautas, además de recomendar «robustez y seguridad de los sistemas», se centran principalmente en la centralidad de los seres humanos en su relación con la inteligencia artificial, marco en que la dignidad humana y la libertad deben ser lo primero, especialmente cuando los algoritmos entran en juego.

Según la Comisión Europea, estas directrices buscan garantizar que la IA europea y la de las empresas extranjeras que ofrecen sus servicios en suelo europeo, demuestren una «competitividad responsable» sin intención de «sofocar la innovación».  El texto incluye tanto su utilidad para proteger el estado de derecho como las aplicaciones más controvertidas, como el armamento autónomo o la vigilancia masiva. Al igual que Europa se ha proclamado una referencia mundial en la protección de datos privados, obligando a las grandes empresas no pertenecientes a la UE a asumir sus estándares legales en este campo, con lo que el Ejecutivo europeo espera lograr un impacto similar en el campo de la ética para la inteligencia artificial.

Resumiendo. La autonomía de las personas siempre debe prevalecer sobre la autonomía artificial, por lo tanto, debe garantizarse un poder de supervisión de personas en los equipos, con el fin de limitar las decisiones de estas últimas.  De modo que el «administrador del super-sistema» por lo tanto, siempre debe ser humano.

Dejar respuesta

Please enter your comment!
Please enter your name here

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.