Cómo engañan a la gente con vídeos de médicos falsos
¡Que dolor!
Cada vez más, algunos de los médicos de televisión más famosos del Reino Unido ven sus nombres e imágenes utilizados para vender productos fraudulentos a usuarios desprevenidos de las redes sociales. Una nueva investigación advierte.
El fenómeno se denomina deepfaking y consiste en utilizar inteligencia artificial para crear invenciones digitales sofisticadas de personas reales. En estos videos falsos, la cabeza de una persona puede superponerse al cuerpo de otra o su voz puede reproducirse de manera convincente.
La investigación – publicado como artículo destacado el miércoles en el BMJ — descubre que los médicos generales Hilary Jones y Rangan Chatterjee y el difunto gurú de la salud Michael Mosley, quien falleció el mes pasado, están siendo utilizados para promocionar productos sin su consentimiento.
En el caso de Jones, eso significa promover sin saberlo remedios para la presión arterial y la diabetes y gomitas de cáñamo.
Jones, de 71 años, conocido por su trabajo en “Good Morning Britain”, entre otros programas de televisión, dijo que emplea a un especialista en redes sociales para buscar en la web videos deepfake que tergiversan sus puntos de vista y trata de que los eliminen.
“Ha habido un gran aumento en este tipo de actividad”, compartió Jones. “Incluso si los eliminan, simplemente aparecen al día siguiente con un nombre diferente”.
Puede resultar complicado discernir qué vídeos son falsos. Investigaciones recientes descubren que que entre el 27% y el 50% de las personas no pueden distinguir los vídeos auténticos sobre temas científicos de los deepfakes.
Puede ser aún más difícil si el vídeo presenta a un profesional médico de confianza que ha aparecido durante mucho tiempo en los medios.
John Cormack, un médico británico jubilado, trabajó con el BMJ para intentar obtener una idea de cuán extendido está el fenómeno de los médicos deepfake en las redes sociales.
“En definitiva, es mucho más barato gastar dinero en hacer vídeos que en investigar y crear nuevos productos y lanzarlos al mercado de la forma convencional”, afirma Cormack en el artículo. “Parece que han encontrado una forma de imprimir dinero”.
Cormack dijo que las plataformas que alojan el contenido, como Facebook, Instagram, X, YouTube y TikTok, deberían rendir cuentas por los videos generados por computadora.
Un portavoz de Meta, propietaria y operadora de Facebook e Instagram, dijo al BMJ que investigará los ejemplos destacados en la investigación.
“No permitimos contenido que engañe intencionalmente o busque defraudar a otros, y trabajamos constantemente para mejorar la detección y la aplicación de las normas”, afirmó el portavoz. “Alentamos a cualquier persona que vea contenido que pueda violar nuestras políticas a que lo denuncie para que podamos investigar y tomar medidas”.
Qué hacer si detectas un vídeo deepfake
- Observa atentamente el contenido o escucha el audio para asegurarte de que tus sospechas estén justificadas.
- Comuníquese con la persona que aparece promocionando el producto para ver si el video, la imagen o el audio son legítimos.
- Cuestiona su veracidad con un comentario en la publicación.
- Utilice las herramientas de informes integradas de la plataforma para compartir sus inquietudes.
- Reportar al usuario o cuenta que compartió la publicación