Warren Buffett alerta de las estafas por IA como una industria en crecimiento

El popular inversor estadounidense Warren Buffett ha declarado recientemente en una entrevista su preocupación por el auge de la IA, una tecnología que “no comprende” pero cuyo potencial para las estafas le resulta muy claro. A ojos de Buffett, la industria de las estafas impulsadas por la IA está a punto de dispararse, y eso, dicho por alguien que ha dedicado su vida a anticipar el éxito de otras empresas, tiene un peso extraordinario.

Lo cierto es que el potencial de la IA para imitar contenidos de todo tipo es aterrador. El lanzamiento de ChatGPT puso en evidencia por primera vez la capacidad de la IA para imitar el comportamiento humano con un grado de precisión prácticamente indistinguible, en este caso a la hora de redactar textos. Cada vez hay más textos en circulación redactados de forma íntegra por ChatGPT, mientras que la creatividad humana queda en segundo plano.

La capacidad de ChatGPT para crear textos coherentes en cuestión de segundos permite a los ciberatacantes y estafadores redactar estafas en casi cualquier idioma sin necesidad siquiera de saber cómo hablarlo. Esto se traduce en toda una serie de correos electrónicos fraudulentos o mensajes de smishing que presentan un grado de credibilidad muy superior a los intentos de estafa anteriores, con lo que su porcentaje de éxito se multiplica.

El peligro de los ‘deepfakes’

Pero la inteligencia artificial no se queda solamente en los textos de ChatGPT. En los últimos meses, están apareciendo cada vez más fotografías falsas realizadas con aplicaciones de IA como Midjourney o DALL-E. Estas fotografías se utilizan con fines de propaganda, desinformación, o estafas digitales, y lo peor es que se pueden generar muy fácilmente a partir de una simple descripción de texto.

Aplicaciones maliciosas permiten incluso tomar una fotografía de una persona real y crear imágenes o vídeos falsos donde esa persona aparece en actitudes sexuales, algo que en España ha causado numerosos problemas en diferentes institutos. Las mujeres, y, sobre todo, las adolescentes, son las principales víctimas de este tipo de ‘deepfakes’, que en ocasiones tienen consecuencias devastadoras o, incluso, pueden conducir al suicidio.

Peor aún, la inteligencia artificial permite crear videos que también duplican la voz de las personas que aparecen en él, con lo que podrían generarse videos falsos de figuras públicas como Joe Biden o Pedro Sánchez diciendo algo que nunca han dicho. Esto preocupa a los especialistas porque se espera una auténtica avalancha de vídeos ‘deepfake’ en los meses previos a cualquier periodo electoral, lo que puede afectar al resultado de la votación.

Las estafas pueden afectar a las familias

Warren Buffett menciona incluso la posibilidad de que los ‘deepfakes’ se empleen para estafar a cualquier persona mediante la falsificación de vídeos de sus familiares. Se podría duplicar el aspecto de los hijos de una persona para enviarle videos donde se le pide dinero. Esta estafa se conoce como ‘el familiar en apuros’, y hasta ahora venía haciéndose mediante el envío de mensajes de texto con una foto de perfil falsificada.

Mantener nuestros datos privados lejos del alcance de los ciberatacantes pasa a ser entonces una medida de ciberseguridad esencial si queremos prevenir el riesgo de sufrir estafas de este tipo. Los ciberatacantes necesitan muestras de la voz o la cara de una persona para poder crear este tipo de videos falsos, así que se hace necesario reducir al mínimo la cantidad de fotos y videos personales que compartimos en las redes.

De la misma manera, el uso de una VPN nos ayudará a reducir el riesgo de sufrir filtraciones de datos mediante ataques de intermediario gracias a su sistema de cifrado robusto. Y, por supuesto, mantener un antivirus actualizado protegiendo nuestros dispositivos resulta esencial a la hora de protegernos frente al malware. El peligro de los ‘deepfakes’ es muy real, así que no debemos desdeñar la importancia de una ciberseguridad robusta.

La ausencia de regulación es un problema

Aunque la inteligencia artificial tiene un gran potencial para ayudar a la humanidad, no deja de ser una herramienta extraordinariamente potente que puede emplearse con fines nocivos. Y el problema es que no está siendo regulada de forma adecuada por ningún gobierno. Además, incluso en el caso de que instituciones como el Parlamento Europeo establecieran regulaciones estrictas en torno a la IA, estas no servirían de mucho si las IAs operan desde fuera de Europa.

A falta de medidas regulatorias apropiadas y, sobre todo, de un gran pacto global para mantener a raya la inteligencia artificial, cabe esperar un considerable aumento de los hackeos y estafas donde la IA desempeña un papel central. Si no queremos caer víctimas de este tipo de ciberataques, lo mejor que podemos hacer es controlar de forma estricta lo que publicamos en la red y permanecer atentos ante posibles contenidos falsos.

×