Cómo protegerte de los deepfakes y ciberdelitos en línea
Especialistas en seguridad digital alertan sobre el aumento de videos falsos y dan consejos para evitar ser estafado.
La Inteligencia Artificial (IA) es una herramienta cada vez más cotidiana, que poco a poco va formando parte de nuestras vidas, pero así como hemos encontrado formas de facilitarnos algunas tareas con ella, algunas personas han logrado sacar ventaja de ella para engañar y extorsionar.
Ante los casos de estafas en los que se usó IA, la Secretaría de Seguridad y Protección Ciudadana (SSPC) emitió una serie de recomendaciones para prevenir a la población y que no sea víctima de ciberdelitos y ciberestafas con videos creados con estas herramientas.
De acuerdo con la SSPC, se ha incrementado el uso de aplicaciones para generar contenido engañoso que utiliza la identidad de figuras públicas y personas conocidas; a esto se le conoce como "deepfake", que surge de la combinación de la tecnología usada, "deep learning" o aprendizaje profundo y "fake", falso.
De igual forma, se han detectado videos donde supuestamente un artista o influencer invita a otros a invertir dinero en plataformas fraudulentas.
Estos videos falsos se crean introduciendo en una aplicación de IA una imagen o video de la persona que se quiere imitar, y la tecnología analiza de manera profunda la imagen, a tal grado que posteriormente será capaz de reproducirla, con la posibilidad de colocarle en cualquier contexto y hacer que emita con su voz lo que el creador quiera.
Por ello, los especialistas en seguridad digital piden a los ciudadanos tener en cuenta lo siguiente al navegar por la red: las instituciones, escuelas y dependencias nunca solicitarán un pago a una cuenta bancaria personal, ni en criptomonedas, tarjetas de regalo, y su comunicación tampoco será a través de redes sociales o correos personales.
Hay que verificar la autenticidad de los videos y mensajes de audio buscando información en fuentes oficiales. En caso de tratarse de un artista, se puede ir a sus redes sociales oficiales en busca de más datos.
También se pide a los internautas ver minuciosamente los videos, ya que aunque algunos tienen mucha calidad, sí hay detalles que permiten darse cuenta de que la imagen está generada de forma artificial como expresiones faciales que están sincronizadas con el discurso y rasgos robóticos, cambios bruscos en la iluminación del rostro y la voz puede escucharse plana e inexpresiva.
Es importante no difundir información que no estamos seguros de que sea verídica y, sobre todo, cuidar la información que compartimos en redes sociales, para no ser víctima de una estafa en medios electrónicos.