Neurofilosofía

neurofilosofia

Neurofilosofía

Tambien puede usar
las teclas del teclado
y
para navegar

Ver era creer: Inteligencia Artificial y Deep Fake.

03/2018

¿Tenemos la certeza de que todos los personajes que vemos y oímos en los medios de comunicación son genuinos después de conocer la existencia de los videos Deep Fake producidos por Inteligencia Artificial?

Hasta no hace mucho, podíamos asegurar sin error a equivocarnos, que lo que decía una persona en un videoclip era lo que realmente decía. Confiábamos porque veíamos y oíamos que era la persona que parecía ser, con sus gestos, expresiones y palabras genuinas. Ver era creer.

Sin embargo, desde al menos mediados del 2017, sabemos que puede no ser así. Un estudio de la Universidad de Washington, fechado de julio de ese año, desvela la metodología para suplantar mediante Inteligencia Artificial a Barack Obama. Parece ser, que por esas fechas la precisión en crear personajes clonados virtualmente era verdaderamente muy alta, aunque no lo suficiente como para que un avispado especialista informático pudiera detectar el fraude mediante un minucioso análisis “forense”. El experto podía verificar si se trataba de un video genuino, o si por el contrario, se trataba de un video generado por una Inteligencia Artificial: un Deep Fake, una falsificación.

La tecnología digital avanza a pasos agigantados, y a estas alturas del 2018, quizás, las falsificaciones sean indetectables. Pero ahora, ese ya no es el principal problema. La cuestión que deviene es: ¿desde cuándo existe esta tecnología de suplantación? El problema ofrece entonces varias vertientes de preocupación: el pasado, y la actualidad junto al futuro muy cercano.

En cuanto al pasado: ¿Tenemos la certeza de que realmente todos los personajes que hemos visto y escuchado son genuinos?, por lo que, ¿tenemos la certeza de que algunos de los videos de intervenciones de personas influyentes en conferencias, entrevistas, discursos o noticiarios, no son falsificaciones?

Hasta el momento, el espíritu crítico aconseja a no refiarse de lo que presentadores y comentaristas de radio y televisión dicen de lo que ha dicho alguien, por lo que la mejor alternativa para estar informado es ver y oír de viva voz lo que realmente decían los que algo habían dicho. Pero esta opción está a punto de invalidarse también porque la realidad con los Deep Fake, puede haber pasado a ser un fenómeno disruptivo de post-realidad, término que recientemente acuñó Santiago Camacho (DEX).

En cuanto al futuro, si no podemos fiarnos ni de lo que vemos y oímos en los medios de comunicación ni en la Red, porque la tecnología así lo permite, entonces: «Houston tenemos un problema». Un gran problema de confianza global, que nos obligará a repensar seriamente el futuro de las relaciones humanas, porque esa tecnología ya está al alcance de cualquiera que disponga de un ordenador conectado a Internet.

¿Serán los videos pruebas legales para determinar delitos? Porque si un video puede ser manipulado mediante Inteligencia Artificial, entonces, independiente de que esté o no esté manipulado, solamente por la posibilidad de poder estarlo, estaría desacreditado, para bien o para mal. En definitiva, un nuevo desafío para el pensamiento filosófico.

Adquirir libro

Arturo Gradolí. Informàtic, Filòsof i Màster en Història i Comunicació de la Ciència (UPV-UV)

04-03-2018

Print Friendly, PDF & Email