Debemos controlar el uso de la tecnología para conseguir una sociedad democrática, libre y respetuosa
Miguel A. Juan, fundador de S2 Grupo, en el Seminario Étnor
Publicado el viernes, 18 de febrero de 2022 a las 12:05
El uso de la Inteligencia Artificial (IA) hará aumentar los ataques de ciberseguridad y su impacto, prevé el experto en ciberseguridad Miguel Ángel Juan, fundador y socio director de la empresa S2 Grupo, referente en ciberseguridad en Europa y Latinoamérica. Los sistemas son cada vez más complejos y “la complejidad siempre implica vulnerabilidad”, asegura. “Tenemos que prepararnos para afrontar esta situación, y nuestra mejor aliada es también la IA”. Además, Miguel Á. Juan considera necesario un diálogo político y social sobre la tecnología y la IA: “No deberíamos dejarnos llevar por la tecnología, debemos controlar nosotros dónde y cómo utilizarla para conseguir una sociedad democrática, libre y respetuosa con las personas”.
“No creo que hayamos alcanzado un nivel de inteligencia en las máquinas comparable a la humana, pero lo que existe en estos momentos es más que suficiente para tener un impacto y unas consecuencias importantes en nuestra vida que ya merece nuestra atención”, asegura el ponente. Y alerta “nuestros sistemas informáticos son vulnerables, pueden ser hackeados. También pueden serlo las personas y la sociedad”.
Con su conferencia “Hackers, inteligencia artificial y sociedad”, Miguel Á. Juan ha participado en el XXXI Seminario Permanente de Ética Económica y Empresarial de la Fundación para la Ética de los Negocios y las Organizaciones (Étnor), que se titula “Inteligencia artificial: ¿Oportunidad o amenaza para la democracia?”. La conferencia ha sido presentada por Pedro Coca, presidente de Étnor, y por José Tronchoni, vocal de la ejecutiva y el patronato. En su presentación, Tronchoni ha destacado que S2Grupo, con dos décadas y más de 500 trabajadores, tiene como prioridad la captación y desarrollo de talento, la formación de equipos y las colaboraciones internaciones para desarrollar tecnologías propias.
De qué hablamos cuando hablamos de IA
La IA no es algo nuevo, tiene su origen en los años 50 del pasado siglo. Pero no es hasta mediado de los 90, cuando ya existen una cantidad de datos “ingente” y capacidad de procesamiento, que produce resultados prácticos importantes con impacto en la sociedad.
Miguel Á. Juan diferencia dos IAs: la estrecha y la general. La primera trata de conseguir que, en un determinado dominio, contexto y funcionalidad, la maquina sea capaz de superar o emular las capacidades humanas. Y cita como ejemplos la conducción autónoma, los sistemas de imagen para diagnósticos o de interpretación del lenguaje y en la música y las artes. A diferencia, la IA general tiene como objetivo que las máquinas sean capaces de emular la inteligencia humana en cualquier circunstancia. Miguel Á. Juan se muestra escéptico ante las previsiones que apuntan a 10-30 años para conseguir la IAG: “la tecnología avanza muy rápido pero también creo que hay problemas muy profundos que no son fáciles de resolver”.
¿Qué es hackear?
Hackear es utilizar un sistema de manera que no es aquella para la que fue diseñado, y no hace falta ir al mundo de ordenadores y sistemas informáticos para ver ejemplos de hackeo. Se pueden hacker muebles de Ikea, explica el ponente. Y entra en temas “más peliagudos” como la “creatividad fiscal” y “la utilización” de normativas. De alguna forma, “hackear es seguir la letra de la ley, pero no su espíritu” explica Miguel Á. Juan.
La IA puede hacer esto, “está en su naturaleza”, asegura el experto en ciberseguridad. Se hackean sistemas informáticos, cada vez más complejos y por tanto no del todo predecibles. También personas, a través de la desinformación, el terrorismo o el phishing. Se hackean organizaciones y empresas y a toda la sociedad. “Todo sistema que tenga cierta complejidad es susceptible de errores que permiten que un hacker pueda aprovecharlo, es una vulnerabilidad”.
Miguel Á. Juan plantea una adaptación rápida de todos los sistemas de la sociedad a la identificación de vulnerabilidades y emplaza al diálogo para el control del uso de la tecnología.
Problemas de la IA
Uno de los problemas más importantes de la IA es la “explicabilidad”. “No es fácil, a veces imposible, explicar qué datos hacen que la máquina tome una determinada decisión”. Su falta de “contexto” es otro problema. “Nuestro proceso de aprendizaje, socialización y convivencia a lo largo de los años construye el contexto en el que resolvemos nuestros problemas” La AI no tiene contexto, piensa siempre “fuera de caja”.
“Estamos rodeados de entornos en los que todo puede estar orientado a conseguir un objetivo que no conocemos”, ha concluido Miguel Á. Juan, que asegura “hay hackers interesados en influir en nuestros sistemas democráticos