Como la Inteligencia Artificial se introduce en todos los campos también está ya introducida en el de las armas, y continuamente se presentan nuevos sistemas de armas que funcionan autónomamente. Lo cual lleva implícito un riesgo para todos.
Un sistema autónomo de armas puede matar personas sin la intervención humana. Se le asignan unos objetivos con unas ciertas características, y el sistema los busca, los localiza y cuando los encuentra los destruye. Sin ningún tipo de “sentimiento” humano.
Según ha declarado el Secretario general de las Naciones Unidas ( António Guterres ): la perspectiva de que las máquinas tengan la discreción y el poder de acabar con la vida humana es moralmente repugnante. Pero a pesar de ello existen y no van a dejar de seguir evolucionando, o sea mejorando sus capacidades de matar.
Este tipo de armas tienen la particularidad especial de que no se necesita ser una gran potencia para construirla, sino tener buenas capacidades tecnológicas, como es el caso de Israel y otros países no muy grandes.
Cuando un arma de este tipo mata a una persona es muy difícil definir responsabilidades, pues todos ( el que lo fabrica y el que lo usa ) tienen buenas excusas para no sentirse responsables. Pero alguien acaba muerto.
Hay una campaña llamada Campaign to Stop Killer Robots promovida por muchas personas de renombre mundial que intenta mentalizar para prohibir este tipo de armas, pero creo que tienen pocas posibilidades de éxito, pues tres países importantes como USA, Rusia y UK se oponen a ella, y otros países no dicen nada pero trabajan en ese campo e intentan avanzar tanto como pueden.
Entiendo que en cualquier situación en la que se pueda producir una consecuencia letal para un humano, debería de haber una persona dentro del sistema de control para tomar la última decisión. Las máquinas son más rápidas, pero no razonan.
Si no lo hacemos así seguiremos dando pasos firmes hacia el desastre de nuestra sociedad.