FakeCatcher es el nombre de una nueva herramienta desarrollada por Intel. Su premisa se basa en el clásico «combatir fuego con fuego», y es que, si los creadores de contenido pretendían seguir generando deepfakes gracias a la inteligencia artificial, la compañía usará esta misma herramienta para detectarlos, desmentirlos y exponerlos al mundo como lo que son.
Los esfuerzos de Intel no son en vano. En los últimos tiempos, la cantidad de deepfakes que pululan por internet ha visto un aumento significativo. El problema es que ya no se trata de actos inconsecuentes como poner el rostro de un actor en una película protagonizada por otro. Ahora, existen vídeos que falsifican entrevistas de trabajo, emiten información falsa usando políticos conocidos, y hasta generan pornografía con el rostro de otras personas que claramente no han dado consentimiento.
Intel ha revelado su nueva herramienta a través de una publicación en su web. Aquí, la presenta como un «detector deepfake en tiempo real», y la tecnología que se esconde detrás es sorprendente. La compañía ha usado sus conocimientos en biología humana para desarrollar su inteligencia artificial, y ha conseguido obtener un 96% de precisión en sus resultados.
-FakeCatcher, la herramienta para desmentir deepfakes basada en la inteligencia artificial
¿Cómo funciona exactamente FakeCatcher? Según comenta la compañía, su premisa se basa en algo muy básico: la sangre.
No te asustes. La inteligencia artificial no necesita sangre física. Lo que sí requiere es escanear detenidamente el rostro propuesto por el deepfake. Usando la misma tecnología de fotopletismografía (PPG), una técnica típicamente usada para monitorear el flujo sanguíneo de una persona, la IA puede detectar si el rostro frente a ella es real, o si ha sido implantado por un tercero.
FakeCatcher captura el flujo sanguíneo percibido en los píxeles de un vídeo deepfake, centrándose específicamente en su rostro. De esta forma, traduce las señales en mapas espacio-temporales, que posteriormente los algoritmos pueden comparar a la actividad PPG en los seres humanos. Según el resultado, el algoritmo determina si la imagen en pantalla es real, o si ha sido modificada.
Intel ha consolidado su cruzada contra los deepfakes, y esta herramienta es una muestra de dónde están dispuestos a llegar. A pesar de ser una tecnología impresionante, los deepfakes se han comenzado a salir de control, e incluso Google ha vetado esta práctica de sus entrenamientos en el servicio Colab.
La propia Unión Europea ha tenido que involucrarse en todo el asunto. Mediante un comunicado, advirtió a las grandes compañías como Meta, Twitter y otros que, en caso de no tomar medidas contra los deepfakes en sus plataformas, serían ellos quienes tomarán las medidas necesarias para controlarlos.