Cada vez se utilizan más robots ( drones, etc … ) en el campo de batalla, y hasta ahora el control último y definitivo para matar a otra persona lo ejerce una persona. Pero con la rápida evolución de la IA y las necesidades de respuesta rápida en combate, es posible que en un futuro no lejano a los robots les permitan tomar la decisión de matar a otras personas.
Ese sería un punto de no retorno que creo que no se debería de producir, pero si no se llega a un acuerdo entre los países ( y no parece que se vaya a producir ), acabará sucediendo más pronto que tarde.
Los militares llevan varios años trabajando en el tema y realizando pruebas de las que sabe muy poco, pero de vez en cuando aparecen algunas noticias en los medios especializados. Y es lógico que se preparen para cualquier eventualidad, y con la intención adicional de mantener el predominio tecnológico y militar.
Hoy casi toda la información militar se obtiene con sensores, fijos o móviles, y luego esa información la analizan sistemas complejos de ordenadores que sugieren las pautas de actuación. Y al final es el operador el que decide que hacer. Pero dar el paso siguiente de eliminar al hombre de la toma de decisiones es peligrosísimo.
Delegar la responsabilidad de matar en máquinas introduce una serie de problemas morales y prácticos:
- Responsabilidad moral: ¿Quién es responsable de las acciones del robot? ¿Los programadores, los desarrolladores, los comandantes o los soldados que lo operan? La cuestión de la rendición de cuentas se vuelve difusa y compleja en un escenario donde las máquinas toman decisiones de vida o muerte.
- Sesgos algorítmicos: Los algoritmos que controlan a los robots pueden estar sesgados, lo que podría conducir a decisiones discriminatorias o injustas. Es fundamental garantizar que estos algoritmos sean transparentes, imparciales y auditables para evitar sesgos que podrían tener consecuencias fatales.
- Supervisión humana: La supervisión humana sigue siendo esencial para garantizar que los robots operen dentro de parámetros éticos y legales. Los soldados deben tener la capacidad de anular las decisiones del robot si lo consideran necesario. Sin embargo, esto plantea la cuestión de la confianza en los sistemas robóticos y la rapidez con la que los humanos pueden reaccionar en situaciones de combate dinámicas.
Permitir que los robots tomen decisiones letales marcaría un punto de inflexión irreversible en la guerra. Más allá de las preocupaciones éticas, la autonomía letal podría tener graves consecuencias:
- Escalada de conflictos: La facilidad con la que los robots pueden tomar decisiones letales podría reducir el umbral para el uso de la fuerza, lo que lleva a una mayor escalada de conflictos y una disminución de la disuasión.
- Armas autónomas fuera de control: La posibilidad de que los robots autónomos sean pirateados o mal utilizados representa una grave amenaza para la seguridad global. Estos sistemas podrían caer en manos de actores no estatales o incluso de individuos, lo que aumenta el riesgo de ataques indiscriminados y atrocidades.
- Deshumanización de la guerra: La autonomía letal deshumaniza aún más la guerra, distanciando a los soldados de las consecuencias de sus acciones y erosionando las normas que rigen el uso de la fuerza.
Creo que la comunidad internacional debe unirse para prohibir el desarrollo, la producción y el uso de armas autónomas letales. Esto requeriría acuerdos vinculantes entre las naciones, superando las diferencias políticas y las presiones de la industria militar.
Y por otro lado se debe de desarrollar una IA responsable, y centrarse en aplicaciones que beneficien a la humanidad, no en su destrucción. Es necesario establecer principios éticos claros para el desarrollo de IA, priorizando la transparencia, la responsabilidad y la rendición de cuentas
¿Lo haremos ? Ojalá que así sea.