Hace no mucho leí en las noticias sobre la reunión celebrada a mediados de Noviembre entre los presidentes de USA y China, Biden y Xi Ping. Reunión en la que entre otros, se trató el tema de la IA y su utilización en temas relacionados con la defensa, y en la que parece ser que acordaron poner a expertos de ambos países a reflexionar sobre el tema.

 Hablar en principio casi siempre es positivo, y si son capaces de llegar a algún acuerdo, pues mejor todavía. Pero el “problema” es que la IA se está desarrollando tanto y tan rápido, que se está introduciendo en todas las áreas, incluyendo las de seguridad y defensa.

Y está claro que una herramienta como la IA es demasiado útil como para no usarla en los sistemas militares y de defensa. Otra cosa es como se hace y sobre todo como se controla.

Hasta ahora la mayoría de los responsables militares basan su “seguridad” en tener a alguna persona en todo el proceso de control, para asegurar que en última instancia es una persona la que toma la última decisión de atacar, y que no sea una máquina la que decida matar a alguien.

Hemos visto muchas veces como al presidente de los EEUU le acompaña una persona con una bolsa que contiene el “maletín nuclear”. Y esto es así desde hace más de 50 años.

En la actualidad, la inteligencia artificial (IA) está revolucionando muchos aspectos de nuestras vidas, desde la forma en que trabajamos hasta la forma en que nos divertimos. Sin embargo, hay un área en la que el uso de la IA es particularmente problemático: la toma de decisiones difíciles.

En el caso de un posible ataque nuclear, la decisión de lanzar un contraataque es una de las más difíciles que un líder puede tomar. Hay muchas variables a considerar, como la probabilidad de un ataque, el daño potencial que podría causar, y las posibles consecuencias de un contraataque.

En teoría, la IA podría ayudar a tomar estas decisiones de manera más eficiente y precisa. Las máquinas pueden procesar grandes cantidades de información mucho más rápido que los humanos, y pueden identificar patrones y tendencias que los humanos podrían pasar por alto.

Sin embargo, también hay una serie de problemas potenciales asociados con el uso de la IA en este contexto. Uno de los principales problemas es el sesgo. Las máquinas están entrenadas en datos que reflejan los sesgos de las personas que los crearon. Si los datos de entrenamiento están sesgados, la IA también estará sesgada, y su sugerencia podría ser errónea.

Otro problema potencial es la falta de transparencia. Es difícil entender cómo las máquinas toman las decisiones, lo que dificulta la evaluación de sus resultados. Esto podría conducir a errores o a decisiones que no son en el mejor interés de la humanidad.

No hace mucho, escuché a un experto en tecnología decir que la IA es un niño que está aprendiendo, y como tal puede cometer errores y ser engañado. Esa persona recomendaba ( yo estoy de acuerdo ) que estamos sobrevalorando a la IA y sus capacidades. Y creo que algún experto inversor también ha dicho algo parecido.

Es cierto que la IA tiene enormes capacidades, y como todas las tecnologías es más positiva que otra cosa, pero no puede haber nada sin limitaciones y sin control.

Esperemos que los expertos de USA y China ( y de otros países ) hablen entre ellos, y lleguen a puntos de acuerdo para que la IA sea una tecnología que ayude al desarrollo de la humanidad. Tiene un enorme potencial para ello.

Y ahora que se acaba este año 2023, aprovecho para enviar a todos mis Mejores Deseos para el Próximo Año 2024  !!!

Por Amador Palacios

Reflexiones de Amador Palacios sobre temas de Actualidad Social y Tecnológica; otras opiniones diferentes a la mía son bienvenidas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESES