La revuelta de la máquina: si Terminator se hiciera realidad.
"Yo era el hombre correcto en el lugar correcto, en el momento correcto". Estas son las palabras de Stanislav Petrov , un hombre cuya historia y hechos fueron ignorados hasta su muerte (mayo pasado).
Stanislav Petrov fue un ex teniente coronel del Ejército Rojo durante los años de la guerra fría. Un hombre aparentemente como todos los demás, pero en la noche del 26 de septiembre de 1983 evitó una catástrofe nuclear. Esa noche estuvo por casualidad, vigilando el sistema de vigilancia que controlaba a distancia los silos estadounidenses que contenían misiles intercontinentales.
Pero de repente sucedió lo absurdo.
El sistema de interceptor de radar comenzó a reportar docenas de misiles termonucleares en su camino hacia la Unión Soviética. Según las computadoras habían salido de los Estados Unidos de América.
No confiaba, algo lo hizo dudar, entendió que era un error del sistema y por eso se negó a seguir el rígido protocolo, evitando el peligro de una guerra nuclear. Más tarde llegó la confirmación de que fue un fracaso.
Desde entonces, la tecnología militar, la robótica y la inteligencia artificial han hecho un progreso tremendo al hacernos entrar en lo que ahora se llama la tercera revolución importante en los asuntos militares y, en general, en la forma de librar la guerra. Los robots asesinos están destinados a dominar el siguiente escenario militar, reemplazando los dispositivos actuales, algunos de los cuales ya no están tripulados, en todas las operaciones militares y en los diferentes campos de batalla. Gracias a los algoritmos y programas cada vez más sofisticados, estas máquinas podrán seleccionar su objetivo de forma independiente y luego decidir si atacar o no. Y todo sin intervención humana.
Ciertamente, el uso de robots asesinos reduciría el número de víctimas humanas, al menos entre los soldados, haciendo así más aceptable la guerra ante los ojos de la opinión pública y también permitiría que incluso las operaciones más "sucias" se llevaran a cabo con indiferencia y frialdad. Acción literalmente "inhumana".
Sin embargo, me pregunto si un robot asesino siempre podrá distinguir entre un luchador y un civil, o entre un soldado herido que se resiste y uno que se rinde, sin violar así la Convención de Ginebra y sus protocolos. Me pregunto si comprenderá las normas del derecho internacional humanitario y las normas de discriminación y proporcionalidad; Si estos soldados del futuro podrán manejar todas las contingencias del caso sin ningún tipo de intervención humana, sin que "Petrov" decida si esto es un error.
Luego está la pregunta sobre la dificultad de identificar a un único y verdaderamente responsable de los delitos que podrían cometerse contra personas inocentes e indefensas.
La imposibilidad de señalar con el dedo a un solo culpable sería, por lo tanto, un incentivo excelente tanto para los regímenes represivos como para que los grupos terroristas se apropien y utilicen este tipo de armas para su propio beneficio y ventaja. Un riesgo reforzado, entre otras cosas, por la posibilidad de su proliferación incontrolada.
Finalmente, la falta de cualquier tipo de emoción, si a nivel militar estratégico es una ventaja, en realidad es extremadamente peligrosa, ya que los sentimientos, como la compasión, a menudo inhiben el deseo o la tentación del soldado de golpear y matar al enemigo. Sin ninguna razón o necesidad.
Terminaríamos presenciando pasivamente una violencia sin límites, atrocidades terribles, distorsionando completamente incluso el último atisbo de reglas de compromiso y ética militar, sin mencionar la posibilidad de perder nuestra propia humanidad.
Comentarios
Publicar un comentario