“El software imita las redes neuronales para generar un contenido lo más parecido a la realidad aunque siempre serán falsas”, asegura el académico de Ingeniería Informática Usach, Felipe Sánchez.
Convengamos que la Inteligencia Artificial (IA) llegó para quedarse, por consecuencia debemos adaptarnos y comprender que debemos realizar una serie de cambios para validar la información, tal y como lo hicimos con el acceso a internet años atrás, comenta el experto en ciberseguridad de la Usach, Felipe Sanchez.
El académico se refiere así al concepto de Deepfakes asociado a videos, imágenes o audios que imitan la apariencia y el sonido de una persona.
“Es importante comprender que esta nueva técnica de engaño proviene de una palabra compuesta como lo es “deep learning”; por una parte “learning” deriva de aprendizaje profundo, lo que significa un tipo de aprendizaje con inteligencia artificial que trata de asemejarse lo más posible a cómo funcionan las redes neuronales de nuestro cerebro, y la palabra “fakes” que traducida es falso”, apuntó.
“La técnica audiovisual Deepfakes usa el aprendizaje automático de la Inteligencia Artificial. El problema es que este algoritmo computacional puede perfeccionarse cada día para lograr ser más real, aunque siempre serán falsas, por ello es importante validar la información”, enfatiza Sánchez.
Esta capacidad modelada que tienen algunos programas informáticos no es buena ni mala en sí, sino la finalidad para la que se emplea es la que puede ser catalogada como un avance o retroceso en la nueva era del uso de la IA.
Según el académico de la Usach, uno de los graves problemas es la mala utilización que le dan los ciberdelincuentes para un beneficio económico, puesto que esta herramienta puede generar un contenido engañoso para perjudicar a las personas o superar barreras de accesos. En otros contextos, también se usa con personas conocidas públicamente para la suplantación de identidad.
El perito recomienda que las empresas validen mejor la información y actualicen sus protocolos de seguridad con controles más rigurosos como por ejemplo la utilización de biometría de voz.
En el caso de personas naturales, las familias también deben estar más atentas y desconfiar de los canales de comunicaciones no habituales, validar la información con sus cercanos y quizás tener algunas “claves familiares” ante estos intentos de engaños.
Así, el experto recuerda que el concepto de IA no es nuevo, ya que el científico Alan Turing en 1950 se preguntó: “¿Pueden pensar las máquinas?” en su artículo Computing Machinery and Intelligence, quizás visualizando lo que podría ser la actual revolución informática.
Fuente: Usach.