31.4 C
Venezuela
miércoles, abril 24, 2024

Aumentan los casos de voces clonadas con IA para cometer extorsiones


La suplantación de identidad es un fenómeno en la ciberdelincuencia que se ha beneficiado de la IA. En la actualidad, esta tecnología es usada para clonar voces de personas comunes, a quienes se hace pasar por secuestrados. 

La estafa por teléfono se originó en Estados Unidos y alcanzó su auge en 2022, cuando 5.000 víctimas pagaron USD 8.8 millones en promedio, de acuerdo con la Comisión Federal de Comercio (FTC) de ese país.

Tanto en América Latina como alrededor del mundo, las empresas que desarrollan la IA capaz de clonar voces aún carecen de regulaciones al respecto. No existen precedentes legales: eso significa que el mal uso de esta tecnología aún tiene libre el camino libre cometer fraudes. El dinero de las extorsiones ha tenido un margen de recuperación mínimo.

Respecto a los ciberdelitos en general, la región se encuentra en un nivel medio de prevención al contar con estrategias y capacitación profesional contra sus técnicas. El caso de Uruguay es notable, debido a su desarrollo en materia de ciberseguridad.

Los cibercriminales tienen acceso a herramientas en línea para clonar las voces de sus víctimas en inglés. Foto/Cortesía

A este país se suman Chile, Argentina, México, Colombia, Costa Rica, Paraguay, República Dominicana y Trinidad y Tobago, que tiene una política de defensa nacional, según el reporte del Banco Interamericano de Desarrollo (BID) y la Organización de Estados Americanos (OEA).

No obstante, la región comparte una legislación vaga en cuanto al uso de la IA para el caso preciso de las extorsiones.

En las leyes actuales aún se omiten las condenas para las clonaciones de voz, pues solo se contemplan casos de robo de identidad. Incluso la moderación del uso de esta tecnología está limitada a la investigación y la vulnerabilidad de datos personales, según del Instituto de Ciencias Jurídicas de Puebla.

Estafas con deepfakes de voz van al alza en EE. UU.

Por otra parte, un inversor de Florida vivió un episodio desagradable con las deepfakes de voz. Clive Kabatznik llamó a un representado de Bank of America para resolver algunos problemas relacionados a una transferencia.

Los presuntos secuestradores también conocen los datos personales de quien extorsionan. Las pérdidas económicas en Estados Unidos alcanzan USD 8.8 millones con 5.500 víctimas. Foto/Cortesía

Luego de esta breve conversación, el representante del banco volvió a responder una llamada de Kabatznik, solo que esta vez la voz había sido replicada por una programa de IA.

Puedes leer: Si tienes un celular Samsung debes hacer esta actualización de urgencia

La estafa, en este caso, fue frustrada debido a que el operador consideró sospechosa la petición de sacar todo el dinero de una cuenta para pasarlo a otra.

Con información de Infobae

Otras noticias de interés

Noticias Relacionadas

Redes Sociales

20,299FansMe gusta
112,425SeguidoresSeguir
4,600SuscriptoresSuscribirte

Últimas noticias