Categories: Innovación

Stephen Hawking, Elon Musk y un millar de investigadores advierten contra los robots asesinos

Atacar blancos humanos sin mediar intervención ni supervisión directa hace algún tiempo que dejó de formar parte de la ciencia ficción, es algo que está a punto de suceder en cuanto avancen algo más tecnologías como la de los drones en conjunción con nuevos progresos en el campo de la inteligencia artificial. Y se tarde más o se tarde menos, es algo en lo que diversos gobiernos y empresas están trabajando denodadamente en la actualidad.

El geoposicionamiento automático, el reconocimiento facial, la mejora en la toma de decisiones en función de las circunstancias del entorno, el reconocimiento de órdenes expresadas verbalmente de forma natural y la capacidad de responder a las mismas en ocasiones de manera indistinguible de si el interlocutor fuese una persona real… el potencial para que pueda convertirse en realidad una diversidad de maneras robotizadas de atacar oponentes humanos de forma autónoma es inmenso. Y el debate sobre la cuestión ética subyacente y las posibles consecuencias para la Humanidad está ya en marcha.

Según publica el Instituto para el Futuro de la Vida, “la inteligencia artificial ha alcanzado un punto en el que la puesta en práctica de este tipo de sistemas es cuestión no ya de décadas sino de apenas unos años, con las apuestas en su apogeo centradas en la consecución de armas autónomas que darían paso a una tercera revolución en la tecnología militar tras la aplicación militar de la pólvora y más recientemente de la energía nuclear“.

Literalmente se habla de “los kalashnikov del mañana” al referirse a ingenios que podrían ser ubicuos y baratos, fabricados en masa hasta que en no mucho tiempo comiencen a aparecer en el mercado negro armas robotizadas dotadas de inteligencia artificial que pasarían a estar bajo el control de dictadores, señores de la guerra, terroristas…

La carta conjunta apremia a potenciar los desarrollos pacíficos de la inteligencia artificial en detrimento de un uso militar que podría conducir a una escalada que diese origen a una pérdida del control por parte de los operarios humanos.

vINQulo

Future Life Institute

Antonio Rentero

Recent Posts

Bitdefender lanza un programa de garantía contra violaciones de seguridad

Ofrece hasta 1 millón de dólares de compensación económica en caso de incidente, con la…

4 horas ago

Cloud Expo evoluciona a Cloud & AI Infrastructure

Este cambio refleja los avances que se producen a nivel de infraestructura TI y el…

4 horas ago

DES2025 se centrará en la IA y ofrecerá una zona de experiencia tecnológica

El evento espera reunir a 17.000 directivos, que podrán escuchar a medio centenar expertos en…

5 horas ago

Snowflake llega a un acuerdo con Datavolo para su adquisición

Como resultado de esta operación, ampliará sus servicios en el "bronze layer" del ciclo de…

6 horas ago

NetApp aumenta un 6 % sus ingresos trimestrales

Durante el segundo trimestre de su año fiscal 2025 acumuló 1.660 millones de dólares, la…

6 horas ago

Denodo Platorm 9.1 estrena asistente de inteligencia artificial

También incluye un SDK open source para potencia el desarrollo de aplicaciones y agentes, especialmente…

7 horas ago