SAN FRANCISCO — Una empresa emergente de Silicon Valley develó hace poco un
dron que
puede marcar su camino de manera completamente independiente. Una
aplicación móvil permite que el usuario le ordene al dron seguir a alguien. Una
vez que el dron comienza a dar seguimiento al objetivo, será muy difícil que
este se deshaga de él.
El dron tiene como objetivo ser un dispositivo lúdico. Sin embargo, no
es una idea descabellada que este sabueso automatizado resulte un poco
perturbador.
El 20 de
febrero, un grupo de legisladores e investigadores en materia de inteligencia
artificial (IA) emitió un informe que describía cómo las tecnologías de
inteligencia artificial, que se desarrollan con rapidez y cada vez son más
asequibles, podrían usarse con propósitos malintencionados.
El dron de
rastreo ayuda a explicar sus preocupaciones. Fabricado por la empresa llamada
Skydio, el dron cuesta 2499 dólares; se armó con piezas de construcción
tecnológicas disponibles para cualquiera: cámaras ordinarias, programa de
código abierto y procesadores de computadora de bajo costo. Con el tiempo,
reunir estos componentes será cada vez más fácil y barato.
“Estas
cosas están cada vez más disponibles en todos los sentidos”, dijo Adam Bry, uno
de los fundadores de Skydio. Estas mismas tecnologías están aportando un nuevo
nivel de autonomía a los vehículos, los robots en los almacenes, las cámaras de
seguridad y una amplia gama de servicios de internet.
Sin
embargo, a veces, los nuevos sistemas de IA también exhiben comportamientos
inesperados y extraños debido a que no se entiende por completo la manera en
que aprenden a partir de enormes cantidades de datos.
Esto los hace vulnerables a la manipulación; se puede engañar a los algoritmos de visión computacional de hoy, por ejemplo, para que vean cosas que no existen.
Esto los hace vulnerables a la manipulación; se puede engañar a los algoritmos de visión computacional de hoy, por ejemplo, para que vean cosas que no existen.
En un
contexto como este, los malhechores podrían burlar cámaras de seguridad o
afectar a un vehículo autónomo.
Los
investigadores también están desarrollando sistemas de IA que pueden encontrar
y aprovechar brechas de seguridad en todo tipo de sistemas, dijo Paul Scharre,
un autor del informe. Estos sistemas pueden utilizarse como métodos de defensa
y ataque.
Las
técnicas automatizadas harán que sea más fácil perpetrar ataques que ahora
requieren mucha labor humana, entre ellos el spear phishing o
ciberestafa, que involucra reunir y usar los datos personales de las víctimas.
En los próximos años, según el informe, las máquinas serán más capaces de
recolectar e implementar estos datos por sí mismas.
Los sistemas de IA también son cada vez más capaces de generar contenido
de audio y video verosímil por su cuenta. Esto facilitará que quienes tengan
malas intenciones puedan divulgar información falsa en internet, indicó el
reporte.
No hay comentarios:
Publicar un comentario