La Inteligencia Artificial (IA)
es una tecnología que promete solucionar problemas de la vida diaria al
conferirle más inteligencia a máquinas y al software, pero también enfrentará amenazas
de ciberseguridad.
“A pesar de que la Inteligencia
Artificial tiene muchos beneficios para usuarios y empresas e incluso puede ser
utilizada como una herramienta para la prevención de amenazas, su mayor
disponibilidad generará técnicas de ciberataques más avanzadas”, explica Ángel Salazar,
country Manager de Soluciones Seguras Guatemala.
De acuerdo a los expertos de
Soluciones Seguras, entre los riesgos que plantea la IA en las manos
equivocadas, se encuentran aquellos que atañen la seguridad física y digital.
En términos de seguridad digital permitirá aumentar la escala de los amenazas,
por ejemplo, se podrían realizar ciberataques intensivos de phishing o utilizar
técnicas como síntesis del habla para hacerse pasar por las víctimas y realizar
fraudes electrónicos.
En lo que respecta a la
seguridad física, la IA podría generar vulnerabilidades a medida que los
sistemas automatizados permiten hogares y empresas conectados y autónomos. “Los
criminales cibernéticos pueden infiltrar estos sistemas y causar daños
significativos”, explica Salazar.
Esto, sin contar lo que se
conoce como “amenazas de inteligencia artificial hechas a propósito” que varían
desde la manipulación de videos hasta la creación de armas autónomas. En el
primer caso, se conoce como deepfakes, un método de machine learning
que intercambia rostros de personas, desde celebridades hasta líderes
mundiales.
Recientemente
circuló un vídeo de Nancy Pelosi, presidenta de la Cámara de Representantes de
EE.UU., en el que ésta parecía mostrar evidencias de intoxicación alcohólica,
por su dificultad en la dicción. El video es un ejemplo de deepfake y de
lo que se puede lograr con la manipulación de este tipo de formatos.
Ante
este panorama, el experto de Soluciones Seguras aboga por la creación de nuevas
políticas para controlar las amenazas de esta nueva tecnología. “Lo primero que
debemos preguntarnos es quién tiene acceso a IA, deben existir modelos de
licencia de acceso y regulación de estas herramientas para evitar que su enorme
potencial sea utilizado para generar ataques más eficientes”, finaliza el
vocero.
No hay comentarios.:
Publicar un comentario