El dron tiene como objetivo ser un dispositivo lúdico. Sin
embargo, no es una idea descabellada que este sabueso automatizado resulte un
poco perturbador.
El 20 de febrero, un grupo de legisladores e investigadores
en materia de inteligencia artificial (IA) emitió un informe que describía cómo
las tecnologías de inteligencia artificial, que se desarrollan con rapidez y
cada vez son más asequibles, podrían usarse con propósitos malintencionados.
El dron de rastreo ayuda a explicar sus preocupaciones.
Fabricado por la empresa llamada Skydio, el dron cuesta 2499 dólares; se armó
con piezas de construcción tecnológicas disponibles para cualquiera: cámaras
ordinarias, programa de código abierto y procesadores de computadora de bajo
costo. Con el tiempo, reunir estos componentes será cada vez más fácil y
barato.
“Estas cosas están
cada vez más disponibles en todos los sentidos”, dijo Adam Bry, uno de los
fundadores de Skydio. Estas mismas tecnologías están aportando un nuevo nivel
de autonomía a los vehículos, los robots en los almacenes, las cámaras de
seguridad y una amplia gama de servicios de internet.
Sin embargo, a veces, los nuevos sistemas de IA también
exhiben comportamientos inesperados y extraños debido a que no se entiende por
completo la manera en que aprenden a partir de enormes cantidades de datos.
Esto los hace vulnerables a la manipulación; se puede engañar a los algoritmos de visión computacional de hoy, por ejemplo, para que vean cosas que no existen.
Esto los hace vulnerables a la manipulación; se puede engañar a los algoritmos de visión computacional de hoy, por ejemplo, para que vean cosas que no existen.
En un contexto como este, los malhechores podrían burlar
cámaras de seguridad o afectar a un vehículo autónomo.
Los investigadores también están desarrollando sistemas de
IA que pueden encontrar y aprovechar brechas de seguridad en todo tipo de sistemas,
dijo Paul Scharre, un autor del informe. Estos sistemas pueden utilizarse como
métodos de defensa y ataque.
Las técnicas automatizadas harán que sea más fácil perpetrar
ataques que ahora requieren mucha labor humana, entre ellos el spear
phishing o
ciberestafa, que involucra reunir y usar los datos personales de las víctimas.
En los próximos años, según el informe, las máquinas serán más capaces de
recolectar e implementar estos datos por sí mismas.
Los sistemas de IA también son cada vez más capaces de
generar contenido de audio y video verosímil por su cuenta. Esto facilitará que
quienes tengan malas intenciones puedan divulgar información falsa en internet,
indicó el reporte.