La segunda jornada del Curso Internacional de Defensa de Jaca ha profundizado en la convergencia de la innovación tecnológica de la Inteligencia Artificial (IA) y los desafíos más complejos que plantea nuestro tiempo. De hecho, el coronel Carlos García-Guiu ha resaltado que “nos encontramos en un momento crucial en la historia de la Humanidad donde intuimos que la IA va a cambiar no sólo la manera en que vivimos, sino nuestras profesiones, pero también puede ayudarnos a proteger mejor a las naciones y fortalecer la Seguridad y la Defensa”.
El director del área de IA del Grupo Oesía, Manuel Gallardo, ha expuesto algunos casos para visualizar la importancia que la IA tiene para la Defensa “porque la ventaja competitiva en el campo de batalla es fundamental. Ya no es cuestión de si quiero o no la IA, es que si no la utilizas estás en inferioridad de condiciones”.
El ejemplo más básico es un sistema de visión artificial integrado en las cámaras de un buque o un carro de combate, que es capaz de identificar y clasificar los blancos automáticamente y hacer un seguimiento. “Ya no hace falta una persona con una cámara intentando localizar y seguir a un avión, se hace automáticamente por IA, la cámara manda la posición a los sistemas de armas y dispara. La diferencia de tener este sistema o no son esos segundos de más que te dan una ventaja operativa”.
El caso más complejo está relacionado con los sistemas de lenguaje natural y de información en un escenario de combate. “Un sistema de IA es capaz de agregar esa información y extraer conclusiones y hacer sugerencias de cuáles son las unidades adecuadas para responder a una amenaza. Esa capacidad hace muy poco tiempo no existía y ahora es una realidad”. En este sentido, los centros de mando que disponen de ella son capaces de tomar decisiones con mucha más información, mejor documentada e inteligente.
Manuel Gallardo ha asegurado que estos sistemas de IA “ya se están aplicando en el campo de batalla. Es una tecnología de calidad, probada a diario y con tasa de error en muchos casos inferior a la del ser humano; lo que pasa es que a la IA se le pide una fiabilidad superior a la del ser humano”. Sin embargo, prosigue, “no somos conscientes de que si estadísticamente un sistema de IA es capaz de tomar decisiones más fiables que el hombre, siempre va a ser preferible; aun así, al ser humano se le aceptan fallos y a un sistema de IA menos”.
El responsable de Oesía ha incidido en que “no estamos suficientemente concienciados de la importancia que tiene la recopilación, gestión y depuración de los datos que alimentan la IA”. “Son el petróleo del futuro -ha concluido-, las empresas y organismos que tienen datos sobre los que poder hacer analítica tienen un tesoro y una ventaja respecto a aquellas agencias que no los tienen”.
En este sentido, ha comentado que “tanto la IA como los datos son una necesidad, no son una opción. El desarrollo es exponencial, es decir, cuanto más tarde se sumen las organizaciones en adoptar este tipo de sistemas, más les va a costar ponerse al día, si es que lo consiguen”. Además, mirando al futuro ha asegurado que “no hay que olvidar que lo que viene es la computación cuántica, que aplicada a este tipo de tecnologías va a hacer que el desarrollo sea explosivo, y ese sí que va a ser un salto cuántico y un desarrollo exponencial al que hay que sumarse desde ya”. Sobre todo, ha concluido, “para evitar lo que ya está pasando, que Estados Unidos y China tengan una ventaja de 30 años respecto a la tecnología que estamos desarrollando en Europa”.
USOS MILITARES
El comandante Fabián Granados, analista de la Sección de Planificación Tecnológica de la División de Planes del Estado Mayor de la Defensa, ha ofrecido la visión del Jemad sobre la implementación de la IA en las Fuerzas Armadas. En este sentido, ha hablado sobre aspectos operativos, pero también éticos y de uso responsable de la IA. De los usos militares, ha mencionado algunos casos. "Hay muchas soluciones como hacer que los mensajes que nos llegan de la Otan se decreten automáticamente en función del contenido del destinatario; son soluciones que no conllevan un riesgo para el ser humano, pero optimizan los recursos de Defensa al no tener a una persona detrás”.
El comandante ha hablado de otras aplicaciones más prácticas como la optimización del plan de combate de los buques de la flota, “donde la Armada está desarrollando una solución de IA que en función de la fase de un conflicto te dice cuál es la situación óptima del personal y de sus posiciones de combate”.
Entre sus conclusiones, el ponente ha señalado que “los conflictos actuales demandan soluciones de IA no perfectamente maduras y certificadas, sino que sean de aplicación inmediata táctica como sucede en la guerra de Ucrania”. En este sentido, ha insistido en trabajar “los temas éticos vinculados a la IA, sin olvidar que una situación de conflicto implica utilizar la tecnología que tenemos lo antes posible; supone un riesgo adicional, pero es algo que hay que asumir en un combate”.
VISIÓN ACADÉMICA
La vicerrectora de Investigación, Innovación y Doctorado de la Universidad Politécnica de Madrid, Asunción Gómez, ha transmitido en su ponencia los fundamentos de la IA y la diferencia que hay entre la simbólica, la conexionista y la generativa. También ha mostrado cómo razona y aprende, y de qué forma es capaz de generar nuevas imágenes y textos a partir de una información previa.
Asunción Gómez ha hecho hincapié en la importancia de los datos y metadatos en la toma de decisiones. “Tener datos de calidad es determinante. Su calidad y su contexto, es decir, los metadatos, son cruciales para que la IA produzca buenos resultados”.
La ponente ha explicado el reglamento de IA y los cuatro tipos de aplicaciones: las que van a estar prohibidas, de alto y bajo riesgo, y las que no plantean problemas. “Es importante mencionar que el reglamento lo que prohíbe son aplicaciones y lo que sugiere son controles sobre ellas, pero no veta ninguna tecnología”.
En relación a este reglamento de la IA, Asunción Gómez considera que “hay que adaptarlo a la aplicación en distintos países y a cómo se va a monitorizar”. En ese sentido, España ya cuenta con la Agencia Española para la Inteligencia Artificial “y desde este organismo se va a supervisar la buena evolución de los algoritmos y de las aplicaciones de IA”.
Finalmente, la vicerrectora ha concluido que “la IA tiene que ser segura para las sociedad, debe respetar los derechos fundamentales y, además, en Europa debe ser un mercado único para que en todos los países se aplique igual”.