¿Quién está del otro lado de la pantalla? En plena era digital y en el marco del Día Mundial del Internet, esa simple pregunta se ha vuelto más difícil de responder. Con la evolución de la inteligencia artificial, los bots y los deepfakes, cada vez es más común encontrarse con contenido, perfiles o interacciones que parecen humanos… pero no lo son.
Basta
con recordar el reciente caso de las imágenes hiperrealistas de Katy Perry en
la gala del MET, generadas por IA y replicadas por millones antes de que se
confirmara que nunca asistió. O pensar en bots que simulan conversaciones en
redes o se infiltran en plataformas para dejarnos sin boletos para nuestros
shows favoritos. Cada vez necesitamos tener más certeza y confianza en lo que vemos, leemos y con quien interactuamos en línea.
Pero, ¿qué
son los bots y los deepfakes?
Los bots son programas automatizados que
pueden ejecutar tareas repetitivas imitando el comportamiento humano, como
responder mensajes, comentar en redes sociales o recopilar información. Aunque
muchos son útiles, por ejemplo, los que ofrecen soporte técnico, otros son
usados para otros fines, como difundir noticias falsas o acaparar boletos y
reservaciones en línea. Según datos de un reporte de Imperva en 2024, se estima que cerca del
50% del tráfico en internet proviene de bots: algunos útiles, otros maliciosos.
En
paralelo, los avances en IA generativa han desdibujado los límites entre lo
real y lo creado. Los deepfakes son
contenidos generados con inteligencia artificial que imitan rostros, voces y
gestos humanos con una precisión tan alta que pueden engañar a simple vista. Se
utilizan para crear imágenes o videos falsos de personas que parecen
completamente reales.
Se ha intentado
combatir el uso malicioso de bots mediante mecanismos como CAPTCHAs o
verificaciones con documentos de identidad. Sin embargo, estas medidas a menudo
entorpecen la experiencia del usuario y pueden ser vulneradas por sistemas
avanzados de inteligencia artificial. Además, implican una gran responsabilidad
en cuanto al manejo seguro de datos sensibles. En medio de este panorama, ¿cómo podemos recuperar la confianza de que estamos interactuando con
una persona real o viendo contenido hecho por humano en internet?
Una respuesta es la prueba de humanidad, y ahí es donde
entra World con World ID, una credencial que verifica en entornos digitales que
eres una persona real, de forma anónima. A través de una tecnología privada y
descentralizada, World ID permite a las personas confirmar que son reales y
únicas, sin revelar su identidad.
Su
cámara avanzada, el Orb, utiliza
tecnología criptográfica para generar un código anónimo cifrado único a partir
de una imagen del rostro y ojos de una persona, sin guardar las imágenes ni
datos biométricos. De esta manera, las plataformas pueden integrar una capa de
verificación de humanidad que empodera a las personas en la era de la IA.
“World busca empoderar a la humanidad. En tiempos donde una imagen falsa
puede volverse viral en segundos y un bot puede simular una conversación
convincente, contar con una herramienta que confirme que detrás de un perfil
hay una persona real se vuelve una necesidad. El proyecto responde a esto con
una propuesta que demuestra, con tecnología y transparencia que es posible construir
un internet donde la autenticidad humana vuelva a tener valor”, señala
Miguel Rocha, Gerente General para México y Centroamérica en Tools for
Humanity.
La conversación sobre bots, IA
generativa y contenido falso ya no es cosa del futuro: está ocurriendo hoy. Y
si queremos construir un internet más confiable y seguro donde las voces
humanas sigan teniendo valor, necesitamos asegurarnos de que, detrás de cada
interacción o contenido, haya una persona real.
No hay comentarios.:
Publicar un comentario