Los robots militares asesinos crean un dilema moral

Imaginemos este escenario totalmente futurista: una alianza encabezada por Estados Unidos dispuesta a erradicar a Estado Islámico (ISIS, por sus siglas en inglés) está acercándose a Raqa. La fuerza militar internacional lanza un mortífero grupo de robots voladores que sobrevuelan la ciudad en busca del enemigo.

Usando tecnología de reconocimiento facial, los robots localizan y aniquilan a los altos comandantes de ISIS, por lo que decapitan a la organización terrorista. Aturdido y desmoralizado, ISIS se desmorona con una pérdida mínima de vidas civiles y de tropas aliadas.


En ese caso, ¿quién pondría en duda el buen uso de la tecnología?

Al parecer, mucha gente que conoce la tecnología -incluyendo a numerosos expertos en inteligencia artificial- necesitaba desarrollar esas armas.

En una carta abierta publicada en julio del año pasado, un grupo de investigadores advertía que la tecnología estaba tan avanzada que el despliegue de Sistemas de Armas Autónomas Letales (Laws, por sus siglas en inglés) sería una realidad en cuestión de años, y no de décadas. A diferencia del armamento nuclear, estos sistemas podrían producirse en masa y en forma muy económica, convirtiéndose en los «Kalashnikov del mañana».