Joaquín R., profesor de la EPSI: 'La Inteligencia Artificial, el Internet of Things y el blockchain son el nuevo oro del siglo XXI'

Entrevista a Joaquín Rodríguez, professor de l'EPSI

Con motivo de la celebración de una jornada sobre ciberseguridad e inteligencia artificial en la Escuela de Prevención y Seguridad Integral, el 31 de mayo, el profesor Joaquín Rodríguez habla sobre los riesgos del Estado y la ciudadanía ante la proliferación de datos masivos, y cuáles son las últimas aplicaciones en Inteligencia Artificial, también motivadas por la industria militar.

04/06/2019

  • ¿Qué retos hay actualmente cuando hablamos de ciberseguridad?

Hoy en día, uno de los primeros retos es la propia configuración de la sociedad. Nos hemos vuelto exhibicionistas crónicos: compartimos nuestra vida, nuestra intimidad y nuestras fotografías sin entender qué valor tienen estos datos o cómo se pueden utilizar en contra de nuestras sociedades y comunidades. Las armas de destrucción masiva o autónomas han sido desarrolladas gracias a la colaboración involuntaria de la gente. Las personas que utilizan ciertos proveedores de telefonía y usan dispositivos de ciertas marcas generan muchos de estos datos que actualmente retroalimentan los sistemas de armamento, como el proyecto de Google y el Pentágono, en el que se firmó un contrato para utilizar el software de reconocimiento de la compañía, un software que está muy avanzado gracias al número de usuarios que tiene.

Entonces, para mí, en el ámbito de la ciberseguridad uno de los grandes retos que tenemos de futuro es concienciar a la gente sobre su privacidad y sobre la importancia de no dar nunca ciertos datos. Si hay algo gratuito en Internet, lo que está en venta somos nosotros mismos.

Por supuesto, también podríamos hablar de la ciberguerra, la proliferación de actores no estatales que usan el hackeo como arma para extorsionar empresas o países... pero, desde mi punto de vista, uno de los grandes retos que tenemos es esta vertiente totalmente individualista de las personas.
 
  • Y el Estado, ¿cómo se puede defender a sí mismo y a su ciudadanía ante este tipo de amenazas?

Lo primero que un Estado tiene que tener en cuenta hoy es que la propia naturaleza de los datos con los que trabaja son parte de su vulnerabilidad. El Estado tiene que restringir estos datos y aprender a destruirlos. Sobre todo, cuando hablamos de nuevas tecnologías como el blockchain (la cadena de bloques), que podrían sobrevivir a la caída de un Estado, nos tendría que preocupar. Tenemos que vigilar qué tipo de datos autorizamos que tenga la Administración porque la tipología de Estado puede cambiar rápidamente. Lo hemos visto en numerosas ocasiones: Ruanda, Myanmar o el Tercer Reich, donde se mató a la población judía de muchos países simplemente porque cuando llegaron los nazis tenían un censo demográfico muy elaborado sobre donde vivía cada persona y la religión que practicaba. Esto solo es un ejemplo de cómo los datos demográficos de la ciudadanía se pueden volver en contra de su propia población. La vulnerabilidad puede venir desde dentro y puede que haya partidos y actores legales que pueden poner en riesgo la propia convivencia social a partir del uso de datos que hemos ido registrando.

La propia vulnerabilidad del Estado es un problema grave. Muchas administraciones públicas no son conscientes del riesgo asociado a los datos que gestionan y quizás no han establecido los mecanismos de protección necesarios. A veces no tenemos que ir a buscar el enemigo exterior, a menudo lo tenemos en casa.

A pesar de esto, tenemos que recordar que la Unión Europea tiene una Agencia de Protección de Datos, y tenemos organismos del Estado y de la Generalitat de Cataluña que vigilan nuestra seguridad informática. Cada vez nos estamos preparando mejor para resistir posibles ataques y se habla muy poco de la propia naturaleza de los datos y cómo algunas de estas, como la religión, la etnia o la orientación sexual, no tendrían que estar en posesión de nadie.
 
  • ¿Esto se podría solucionar a través de una mayor regulación en el uso de estos datos?

Sí, teniendo una normativa mucho más restrictiva sobre qué datos puede tener la Administración pública, durante cuánto tiempo los puede tener, cómo se tienen que destruir, y quiénes pueden tener acceso. Tenemos una normativa que es buena pero se tiene que trabajar más y se puede mejorar muchísimo. Tenemos que ser restrictivos porque los datos son una arma muy poderosa. La Inteligencia Artificial, el IoT (Internet of Things) y el blockchain son el nuevo oro del siglo XXI.
 
Desde la Escuela de Prevención y Seguridad Integral queremos ofrecer siempre a nuestros alumnos las tendencias del futuro: aquellas que determinarán su incorporación al mercado laboral y el contexto donde tengan que desarrollar su actividad profesional. El mundo de la seguridad, como tantos otros, está terriblemente condicionado y determinado por la evolución de los patrones tecnológicos y los alumnos necesitan una aproximación clara de cuáles serán los nuevos retos del sistema.

Por lo tanto, en esta conferencia hemos llevado personas como David Ramírez, del Instituto Español de Estudios Estratégicos, o el coronel Ángel Gómez de Ágreda, que son expertos y llevan a cabo investigaciones punteras en este ámbito. Esto aportará a nuestros alumnos conocimiento sobre cómo pueden afectar los patrones de estas tecnologías a la propia noción de la seguridad nacional.
 
  • La inteligencia artificial puede ser aplicable a proyectos que ayuden a la sociedad, pero también se puede hacer un mal uso...

Hay una frase de Kentaro Toyama que me gusta mucho, y dice: “la tecnología no es nada más que un amplificador de la voluntad humana”. Por lo tanto, ¡la podemos usar para cosas maravillosas! Al mismo tiempo, pero, existe una compleja industria militar que tiene una agenda muy clara donde hay la militarización de cualquier tecnología. Estados Unidos es el claro ejemplo de institución/agencia que se dedica a eso. Por ejemplo, hay un proyecto de Boeing que, en colaboración con el Pentágono, ha desarrollado un submarino autónomo que está diseñado para bajar a grandes profundidades de los océanos y recoger muestras para la investigación científica. Pero el acuerdo al cual se ha llegado es el de militarizar este submarino: tendremos un submarino armado con capacidad de ataque y que baja a tanta profundidad que no se puede establecer comunicación. Esto quiere decir que seleccionará objetivos y los eliminará basándose en una programación previa que se ha hecho. Pero si se llega a un acuerdo de paz en un conflicto, ¿cómo nos comunicaremos con este submarino para que cese los ataques?

Además de este proyecto, Kalashnikov, la mítica compañía de los rifles, también se encuentra en el ámbito de la inteligencia artificial militarizada y los países que tenemos noticia que lo están desarrollando y que ya tienen armas autónomas son: Reino Unido, Alemania, Corea del Sur, Israel, Estados Unidos, Rusia y China.
 
Era preventiva cuando la empezamos en 2013. Ahora ya no es tan preventiva, porque hay muchos sistemas autónomos que ya funcionan en el mundo, pero sí que ha demostrado una madurez en todo el mundo del desarme. Las campañas anteriores contra las armas nucleares, como las minas antipersona, bombas de racimo, o las balas de fragmentación, se crearon cuando estas ya habían causado grandes destrozos. Todas resultaban ser armas muy baratas. El problema que tenemos ahora es que estamos hablando de una tecnología extremadamente cara donde hay empresas y Estados que están invirtiendo miles de millones de euros/dólares, y será muy difícil retirar una cosa que ya tiene tanta inversión a pesar de que, claramente, incumple el derecho humanitario internacional.
 
  • En el libro más reciente que habéis publicado con la profesora Roser Martínez, también miembro del ICRAC, este tema se plantea como un reto para las Naciones Unidas. ¿En qué punto se encuentran las negociaciones?


Dentro del espacio de la soberanía delimitada para los Estados-nación, es muy difícil poder llegar a acuerdos porque todos los Estados se niegan a parar la investigación, puesto que el Estado vecino está investigando. Entonces, si él lo hace, yo también. Por lo tanto, se necesita un consenso internacional y tirar de multilateralismo. Y hay un espacio hecho para esto que es la Convention on Certain Weapons (CCW) de las Naciones Unidas. Esta convención, que se regula a partir de los acuerdos de Ginebra –y concretamente con el artículo 32 del Tratado de la Convención de Ginebra-, vigila la generación de nuevas armas. El objetivo que tenemos ahora es que de esta convención salga un mandato claro para elaborar un tratado internacional vinculante que prohíba no solo el uso sino también la investigación en armamento autónomo, puesto que entendemos que es conspiración a un genocidio.
 
  • ¿Hay esperanzas de que se llegue a formalizar este tratado?

Tenemos una cumbre muy importante en agosto y en noviembre veremos como evoluciona. Se plantean 3 posibilidades: la primera es que puede salir un mandato de la CCW, que es lo más optimista y lo menos probable. Otra posibilidad es que el mandato se traslade a la Asamblea General de las Naciones Unidas. Esto es algo más probable, pero complejo de gestionar y, después, tenemos un último escenario, en el cual se repitiera lo que pasó con las minas antipersona: ante la imposibilidad de llegar a un acuerdo en las Naciones Unidas, los promotores de la campaña cogieron todos los países que estaban de acuerdo al margen de la institución y como, entre otros cosas, el grupo crítico de países era tan grande, finalmente se consiguió eliminar relativamente las minas antipersona. A pesar de que todavía tenemos casos paradigmáticos, como Colombia, que se tienen que desminar.
 
  • ¿España está preocupada por las armas autónomas?

España mantiene un posicionamiento neutro y apoya una declaración política en contra, pero no está dispuesta a dar el paso para dar un apoyo explícito a un tratado de prohibición vinculante. Nosotros entendemos que la declaración política no es más que una excusa para comprar tiempo y proteger los intereses de una industria nacional que tampoco tenemos que ignorar. Tenemos empresas punteras que fabrican armas que se venden en países terceros, como Arabia Saudita. El posicionamiento tradicional de España respecto a la industria militar ha estado muy proteccionista con la producción nacional. Por lo tanto, creemos que el Estado y el gobierno tiene que cambiar su posicionamiento hacia una consecución del tratado. España también se ha enmarcado siempre en el discurso de la Unión Europea y de la OTAN.
 
  • En la introducción de tu tesis doctoral expresabas que habías perdido la esperanza en que las personas pudieran “tomar el control de las nuevas tecnologías” para el bien colectivo. ¿Sigues pensando así?

Pienso que hemos perdido el control sobre la tecnología en cuanto que determina nuestro día a día hasta un punto que la mayoría de la población no llega a imaginar cómo afecta a nuestras libertades colectivas y cómo está determinando nuestro comportamiento. A estas alturas, recuperar este control ya es muy complejo porque, por un lado, no hay voluntad; y por otro lado, la gente de la calle no lo considera un problema. Como sociedad, tenemos que hacerle frente a esto mediante la educación y con un control exhaustivo de nuestros datos y aplicar la legislación.

 

Noticias relacionadas

Todas las noticias