Big Data
Blog_Ethics_Al

Atención, pregunta (bastante fácil): ¿cómo se llama la película en la que uno de los protagonistas dice lo siguiente?

«Sus científicos estaban tan preocupados por si podían o no, que no se detuvieron a pensar si debían».

¿No caes? Lo dijo el Dr. Ian Malcom, interpretado por Jeff Goldblum, en Parque Jurásico.

Se trata de una observación filosófica muy manida que, con la llegada de la inteligencia artificial (IA), está teniendo casi tanta garra como la de las estrellas animatrónicas del clásico del cine. ¿El motivo? Que esta tecnología que tiene un impacto cultural, social y económico real.

Existe un gran debate en torno al futuro del trabajo y a lo que esta tecnología supondrá para la privacidad, la justicia y, entre los más profundos, incluso para la propia humanidad. Por este motivo, los organismos reguladores dan vueltas y más vueltas cual pterodáctilos* tratando de establecer algún tipo de marco ético para el uso de la IA, con la Unión Europea en cabeza.

Hasta ahora, una de sus declaraciones más contundentes sobre el tema procede del informe Directrices éticas para la inteligencia artificial elaborado por su Grupo de expertos de alto nivel sobre inteligencia artificial.

Estas directrices establecen siete requisitos esenciales que, según el grupo, deberían cumplir los sistemas de inteligencia artificial para ser fiables: 
•    Intervención y supervisión humanas 
•    Robustez y seguridad de la tecnología, incluida la resistencia frente a ataques
•    Privacidad y gestión de datos, incluido el acceso a los datos 
•    Transparencia, incluidas la trazabilidad, la «explicabilidad» y la comunicación 
•    Diversidad, no discriminación y equidad
•    Bienestar social y medioambiental, incluida la sostenibilidad, sociedad y democracia 
•    Responsabilidad, incluida la rendición de cuentas y la minimización de los efectos negativos

A simple vista, es una lista bastante lógica (aunque cada uno de los puntos bien daría para su propia entrada de blog). Lo que nos importa en esta entrada es el hecho de que exista la lista, y el informe que la contiene.

Es relevante porque es un ejemplo de una organización política que se posiciona respecto a una tecnología concreta. Igual de importante es el hecho de que analiza la observación del Dr. Malcolm bastante a fondo.

Existe muchísima información sobre la cuestión de la «intervención y supervisión humanas», porque, al fin y al cabo, no es más que una forma bastante formal y anodina de expresar el miedo visceral que despierta el pensar que las máquinas pudieran acabar haciéndose con el control. De hecho, en muchos de los principales medios de comunicación, el debate sobre la inteligencia artificial todavía radica en este aspecto.

Los expertos de alto nivel de la UE dicen que no podemos permitir que estos molestos algoritmos dirijan nuestras vidas a menos que sepamos qué hacen, no vaya a ser que terminemos siendo anónimos extras como en Matrix, esa otra gran película filosófica.

Las demás cuestiones éticas son igualmente cruciales, o incluso más, porque ponen a debate temas más tangibles y apremiantes.

¿Nos parece bien que los jueces reciban recomendaciones de sentencia calculadas por bots? ¿Estás dispuesto a correr el riesgo de que un sistema digital de recursos humanos rechace tu CV sin que nadie tenga la oportunidad de considerar los matices que tan cuidadosamente has expuesto? ¿Estás seguro de que su voto digital no va a ser manipulado?

Estas son las preguntas que el informe de la UE pretende abordar, porque la Comisión Europea dice claramente que quiere que las organizaciones y los individuos se beneficien de las ventajas de la IA. El marco que quiere establecer está diseñado para hacer que la IA sea segura para todos nosotros.

Pero, si estás adoptando la inteligencia artificial, la automatización robótica de procesos o cualquier otra tecnología relacionada —no hace falta decir que el internet de las cosas también tiene cabida aquí—, lo primero sobre lo que tienes que reflexionar no es sobre la tecnología en sí, sino sobre los datos que la alimentan.

En informática, los resultados dependen de los datos que se introducen: si la introducción de datos es errónea, los resultados también lo serán. Y, si la función de tu bot es controlar una carretilla elevadora o bombear sustancias químicas, no puede haber errores.

No es de extrañar que, de cara a estar preparados para la revolución de la IA, nuestros clientes inviertan cada vez más en la modernización del centro de datos, técnicas de análisis y nuevos enfoques más orgánicos en materia de ciberseguridad. Saben que una IA segura y eficaz pasa por dar sentido a la avalancha de datos que llegan desde dispositivos móviles, sensores de IdC y un sinnúmero de otros sistemas conectados.

Por lo general, es evidente que los riesgos que tanto preocupaban al personaje interpretado por Jeff Goldblum distan mucho de una coma decimal mal colocada o de un atasco en el lector de documentos, que, por el momento, probablemente sean los mayores inconvenientes derivados de la IA y la automatización.

Sin embargo, el permanente debate sobre los aspectos éticos de la tecnología es importantísimo, y deberíamos alegrarnos de que organismos como la UE se interesen por ello. Es una clara señal de que nuestra industria está siendo reconocida por las comunidades a las que sirve como algo más que un simple servicio nuevo. Está transformando nuestro modo de vida, dejándose ver en nuestros valores y principios y acabando con las divisiones que nos separan.

Con el tiempo, puede que nos demos cuenta de que nos ha hecho más humanos de lo que nunca hemos sido.
*Huelga decir que no deberíamos dar por sentado que los pterodáctilos volaban en círculos. El Dr. Malcolm se pondría furioso.