Estudio advierte sobre los peligros de la IA en manos de delincuentes.

La IA puede ser empleada de diversas maneras para organizar ataques, según una investigación por catedráticos de Yale, Cambridge y Oxford.

Los rápidos avances en la inteligencia artificial (IA) han aumentando los riesgos de que los hackers puedan usar la tecnología para organizar ataques, provocar accidentes en vehículos de conducción autónoma, o convertir los drones comerciales en armas teledirigidas.

Esto de acuerdo a una investigación publicada e por 25 investigadores técnicos, y de políticas públicas de las universidades de Cambridge, Oxford y Yale, junto con expertos militares y en temas de privacidad.

Los investigadores informaron que el uso malicioso de la IA representa una amenaza inminente para la seguridad digital, física y política, al posibilitar ataques a gran escala y altamente eficaces.

La IA implica el uso de computadoras para realizar tareas, y es considerada una fuerza poderosa para desbloquear todo tipo de posibilidades técnicas.

Sin embargo, se ha convertido en el centro de debates sobre si la automatización masiva que permite podría provocar un desempleo generalizado y otras perturbaciones sociales.

La investigación advierte que el costo de los ataques puede reducirse mediante el uso de la IA para completar tareas que de otra manera requerirían trabajo humano y experiencia.

Pueden producirse nuevas formas de ataques que no podrían lanzar los humanos sin ayuda de la IA o que explotan las vulnerabilidades de los propios sistemas de inteligencia artificial.

El informe revisa un creciente material de investigación académica sobre los riesgos de seguridad que plantea la IA, y hace un llamado a los gobiernos y expertos en políticas públicas y técnicos para que colaboren y atenúen estos peligros.

Comentarios
Cargue Más Por José Carlos
Cargue Más En Ciencia y tecnología

Mira además

Declaran culpable por narcotráfico a hermano del presidente de Honduras

‘Tony’ Hernández enfrenta una sentencia mínima de 30 años en prisión. Comentar…