Ciberdelincuentes interceptan llamadas y se hacen pasar por las víctimas para engañar familiares o amigos y pedirles dinero.
La inteligencia artificial ha estado avanzando en los últimos años y se ha presentado como una herramienta que puede facilitarles a las personas la realización de varias tareas en su día a día.
Sin embargo, también se han conocido casos en los que estafadores han usado la IA para suplantar identidades y engañar. Ya se han conocido varios casos al rededor del mundo y algunos expertos de han referido al tema.
En un artículo del 2023, el periódico estadounidense The Washington Post dio a conocer los casos de varias personas que habían sido víctimas de esta modalidad de estafa. Por ejemplo, Ruth Card –una anciana de 73 años- estaba segura de que su nieto Brandom la había llamado para informarle que estaba en la cárcel y necesitaba dinero para pagar la fianza.
La mujer se apresuró para sacar del banco una gran suma de dinero, convencida de que su nieto necesitaba ayuda. Al ver esto, el gerente del banco le recordó que otra familia había recibido una llamada similar, con una voz “inquietantemente precisa” a la de su familiar, por lo que concluyó que la persona con la que Card habló muy probablemente no era su nieto y que, incluso, podía ser una voz simulada con inteligencia artificial.
El ‘deepfake’ como modalidad para estafar usando IA
Este tipo de estafa parece estar haciéndose cada vez más común, no solo en Estados Unidos sino en otras partes del mundo. El ‘deepfake’ también ha generado preocupación en China, donde se han registrado casos en los que se suplanta no solo la voz de la persona sino su rostro en una videollamada, convenciendo a las víctimas de que están comunicándose con su familiar o amigo.
Mediante distintas aplicaciones de IA, se han podido clonar voces e imágenes de personas. Incluso, pueden interceptar varias llamadas de las víctimas para identificar acentos, expresiones y palabras clave para convencer que se trata de determinada persona.
Recientemente, sobre el tema se refirió Juan Manuel Mesa, gerente general de IBM, en Caracol Radio. Mesa señalo que los ciberdelincuentes pueden tomar imágenes y contenido de voz de las redes sociales para duplicarlas y así cometer estafas.
Por esta razón, recomendó tener cuidado con el tipo de contenido que se comparte sobre uno mismo en internet, para evitar ser víctima, por ejemplo, del ‘deepfake’.
De igual modo, se refirió al secuestro de llamadas telefónicas, en las cuales los ciberdelincuentes interceptan una llamada de la víctima y se hacen pasar por esta para engañar al familiar o amigo, usando la voz falsa generada por IA. Así, le piden a la persona que realice consignaciones o transferencias de dinero.
“Una de las recomendaciones que tenemos es solo exponerse en las redes cuando sea necesario. Así como exponer niños, fotos y más porque puede ser un riesgo muy alto debido a que hoy la inteligencia artificial se está utilizando de mala manera”, agregó Mesa en la entrevista.
(De su interés: Apple estrena ‘borrador mágico’ en iOS 18.1: elimina personas y objetos de sus fotos con IA).
Nuevo caso registrado en Texas: llamaron a una mujer y se hicieron pasar por su hija
En el estado de Texas, Estados Unidos, se registró un nuevo caso de estafa mediante inteligencia artificial. Según relataron medios de comunicación, Amanda Murphy, recibió una llamada de un número desconocido y al contestar le habló supuestamente su hija pidiéndole ayuda mientras gritaba y lloraba.
Pensé que tal vez había tenido un pequeño accidente. Estaba en estado de shock”, indicó la mujer. Luego, apareció la voz de un tercero en la llamada, quien amenazó a la madre con “vender a su hija, ya que él era traficante, y que jamás la volvería a ver”, relató La Nación. El sujeto le pidió transferir una suma de 3.000 dólares mediante la aplicación Walmart Money Services.
Por fortuna, los empleados de Walmart identificaron la posible estafa y ayudaron a la preocupada madre a comunicarse con su hija desde otro número, quien se encontraba sana y salva en su trabajo.
Ahora se puede utilizar la IA para encontrar vulnerabilidades que se puedan explotar, para escribir códigos que exploten esas vulnerabilidades y para llevar a cabo campañas de phishing más sofisticadas (…) También nos preocupa que la IA mejore cosas como los secuestros virtuales, en los que los padres reciben una llamada y creen que han secuestrado a su hijo, pero ahora la IA puede imitar la voz de su hijo para que suene aún más creíble”, dijo sobre el caso Christopher Wray, director del FBI, quienes adelantan la investigación.
Sin embargo, también aceptan que identificar a estos ciberdelincuentes es complicado, dado que por lo general se encuentran fuera del país donde delinquen. La falta de legislación sobre el tema -dado que es una tecnología que ha avanzado mucho en poco tiempo- también preocupa a las autoridades.