La era de la duda digital llegó para quedarse
Más allá del deepfake: la realidad está desapareciendo de las pantallas
Cómo puedes evitar caer en el engaño de imágenes, audios y videos falsos que parecen reales
Ver ya no es suficiente para creer: No creas todo a tus ojos y oídos
En el mundo digital de hoy, donde la información nos inunda, hay una verdad que debemos grabar a fuego: Ya no puedes creer ni en tus propios ojos y oídos.
Es una realidad incómoda, pero necesaria para navegar el laberinto de lo que vemos y escuchamos.
Si te gusta el contenido que compartimos, recibe por WhatsApp notificaciones y enlaces a nuestros artículos. Haz clic aquí.
¿Recuerdas cuando alguien decía «lo vi con mis propios ojos» o «lo escuché yo mismo» y eso era suficiente para dar por sentada la verdad?
Pues siento mucho decirte que esas frases, que antes eran un sello de garantía, hoy son casi tan viejas como los discos de vinilo.
La razón es simple, pero a la vez, compleja: la inteligencia artificial, esa maravilla tecnológica que tanto nos fascina, se ha vuelto increíblemente astuta para imitar la realidad.
Imagina una artista tan talentosa que su copia supera al original en verosimilitud. Así de buena se ha puesto la IA.
Aquí tienes algunos ejemplos de videos hechos con inteligencia artificial
La abuela imparable
Abuela doble de riesgo
Esta capacidad camaleónica de la inteligencia artificial nos afecta, por ahora, en dos de nuestros sentidos más cruciales para la comunicación y la recepción de información: la vista y el oído.
Las imágenes y los sonidos, antes guardianes de la verdad factual, ahora son terreno fértil para el engaño.
Lo bueno es que, por ahora, el olfato, el gusto y el tacto están a salvo de esta revolución de la falsificación, pero los otros dos, los que más usamos para enterarnos del mundo, están en la mira.
Crear imágenes, audios o videos que parecen completamente reales, pero son pura fantasía, es cada vez más sencillo. Las herramientas para fabricar estas «obras de arte» del engaño son accesibles.
Algunas hasta son gratuitas y muchas son sorprendentemente baratas. Ya no necesitas ser un gurú de la edición para hacer que un político baile reguetón o que un famoso diga algo que jamás pronunció.
La barrera de entrada para la fechoría digital ha desaparecido casi por completo.
El Loco Blanco es un ejemplo de contenido hecho totalmente con inteligencia artificial
Nada de lo que ves en los videos de El Loco Blanco es real. Todo es guión e inteligencia artificial.
Otro ejemplo claro de esto lo vivimos día a día en las redes sociales.
A3 Noticias, en un video de TikTok que capturó la atención de muchos, precisamente mostró cómo los videos generados con inteligencia artificial son tan realistas que confunden a cualquiera.
Los usuarios en los comentarios expresaron su preocupación, muchos pidiendo que todo el contenido creado por IA lleve una etiqueta distintiva.
Temen no solo creer algo falso, sino también empezar a dudar de lo que es real, incluso de las noticias verdaderas. Esto subraya la necesidad urgente de verificar todo lo que nos llega a través de una pantalla o unos audífonos.
Ver ya no es suficiente para creer, y escuchar tampoco.
Aquí entra en juego un término que seguro has escuchado: deepfake. Esto es la falsificación profunda, una técnica de inteligencia artificial que permite manipular o crear contenido audiovisual superponiendo imágenes, voces o videos existentes para producir un resultado nuevo y realista.
Piensa en la capacidad de falsificar voces con una precisión asombrosa, clonar rostros sobre cuerpos ajenos, recrear gestos específicos e incluso manipular la forma de hablar de una persona para que diga lo que nunca dijo.
Es como si tuviéramos un ventrílocuo digital que no solo controla la voz, sino también la imagen y los movimientos.
«Vi a una persona comiendo una sopa de lava»
OK, yo he visto y escuchado cosas más increíbles. Pero escuchar o ver ya no es suficiente para creer.
Lamentablemente, esta tecnología, que tiene usos creativos y divertidos, también ha abierto la puerta a estafas y situaciones muy desagradables.
Por ejemplo, te pueden llamar por teléfono y escuchar una voz que jurarías es la de un familiar o un amigo pidiéndote dinero con una urgencia inesperada.
Pero no es tu familiar; es una voz falsificada por IA, replicando su tono y modismos. Otro caso más grave son los videos subidos de tono donde, usando la inteligencia artificial, falsifican las caras y otras características de personas, haciéndolas parecer protagonistas de situaciones que nunca vivieron.
Estos son solo dos ejemplos de cómo la desinformación se monetiza o se usa para dañar reputaciones.
Cortando frutas de cristal
Ante este panorama, la importancia de servicios de curación de contenidos, como Curadas, es más vital que nunca.
Nosotros, en Curadas, nos preocupamos por filtrar, verificar y depurar lo que compartimos contigo. No se trata solo de informar, sino de ofrecerte un espacio donde puedas confiar en la veracidad de la información que consumes.
No podemos depender solo de nuestros sentidos en la era digital; necesitamos aliados que nos ayuden a discernir la verdad de la ficción.
Tiburones amistodos, anacondas gigantes…
Ver ya no es suficiente para creer, tampoco escuchar, y mucho menos leer.
Entonces, ¿qué puedes hacer para no caer en las redes de estos engaños de voz, imágenes y videos?
Primero, duda siempre.
Repito, DUDA SIEMPRE.
Si algo parece demasiado bueno para ser verdad, o demasiado escandaloso para ser real, probablemente lo sea.
Segundo, verifica las fuentes. ¿De dónde viene esa información? ¿Es un medio reconocido? ¿Tiene un historial de rigor? Tercero, busca pruebas adicionales.
Si ves un video impactante, busca si otros medios confiables lo han reportado o si hay más ángulos que confirmen la historia.
Cuarto, sé consciente de tus emociones. Los estafadores usan la IA para generar contenido que apela a tus sentimientos, buscando que actúes impulsivamente sin pensar.
Quinto, educa a los tuyos. Comparte esta información con familiares y amigos, especialmente con los más vulnerables a estas tácticas.
Ver ya no es suficiente para creer, ni escuchar, mucho menos simplemente leer.
Recuerda que para engañar no hace falta tanta tecnología. Un artículo aceptablemente escrito diciendo que «falleció José luis Rodríguez El Puma» podría ser suficiente para esparcir esa noticia falsa. Lo cual ha sucedido muchas veces con muchos famosos. A algunos los han «matado» más de una vez.
En un mundo donde lo que ves y escuchas puede ser una ilusión, Curadas es tu aliado para encontrar la verdad. Nos esforzamos para que tengas la tranquilidad de que lo que lees aquí ha pasado por un proceso de revisión y verificación. Porque en esta nueva realidad, la confianza es el activo más valioso.
¡Comparte este contenido con tus contactos para que más personas estén informadas!
¿Qué opinas tú? Déjanos tus comentarios más abajo.
También te puede interesar…
Redes sociales y manipulación: Santiago Bilinkis lo descubre