Fraudes de voz, de video o clonar identidades: estas son las amenazas de la IA contra sus finanzas y así se pueden contrarrestar 3uc4q

El avance de la inteligencia artificial, IA, ha traído consigo no solo innovaciones, sino también nuevos riesgos para las empresas. 232k64
Lo que antes era un fraude fácilmente detectable, como correos electrónicos mal escritos o llamadas impersonales, ahora ha evolucionado gracias a la IA.
Los atacantes pueden crear mensajes perfectamente elaborados, replicar voces de ejecutivos y falsificar documentos con gran realismo, burlando incluso los sistemas de verificación más sofisticados.
Con herramientas de generación de imágenes es posible crear comprobantes bancarios falsos en cuestión de minutos, replicando logos, formatos y sellos oficiales con una apariencia casi perfecta.
Además, la IA permite diseñar ataques dirigidos a gran escala, analizando información pública para elaborar mensajes que aparentan provenir directamente de figuras clave dentro de una empresa, como un CEO.
Isaac Castejón, emprendedor y fundador de la compañía de soluciones tecnológicas Newbrain, explicó en una reciente entrevista cómo pueden las empresas protegerse ante la creciente ola de fraudes digitales impulsados por esta tecnología.
Uno de los casos más impactantes según comenta Castejón, ocurrió en Hong Kong, donde una empresa financiera sufrió un fraude de $25 millones de dólares, mediante el uso de "deepfakes" en videollamadas.
Los estafadores utilizaron IA para crear réplicas convincentes de altos ejecutivos de la compañía en una supuesta reunión virtual, engañando a un empleado para que realizara transferencias a cuentas fraudulentas.
Este tipo de estafas ya no se limitan a correos electrónicos falsos, sino que incluyen videos y audios auténticos que engañan a empleados para realizar falsas transferencias.
En Colombia, de acuerdo con Castejón, los sectores con mayor riesgo frente a fraudes potenciados por inteligencia artificial son el financiero, el comercio electrónico, el sector público y la educación superior.
El atractivo económico inmediato para los estafadores, junto con la persistencia de controles de seguridad básicos en muchas plataformas, facilita estos ataques.
Además, los procesos de contratación y validación en el ámbito público tienden a ser más rígidos y menos ágiles frente a nuevas amenazas, lo que abre la puerta a vulnerabilidades que pueden ser explotadas mediante documentos falsificados con IA.
Algunas tendencias de fraude digital en el entorno corporativo para los que la mayoría de las empresas no están listas, según Castejón, son las estafas 'hiperpersonalizadas' de redes sociales, los fraudes de voz y video personalizados, así como la creación de plataformas falsas "espejo" que se ven idénticas a las ya existentes.
Para contrarrestar estos riesgos, Castejón recomienda a las empresas adoptar medidas de seguridad como la "autenticación multifactor", MFA.
Ese proceso de seguridad requiere que los s proporcionen dos o más métodos de identificación para acceder a una cuenta o sistema.
La verificación de transacciones a través de canales alternativos y la capacitación continua de los empleados en ciberseguridad son otras de las acciones que evitan posibles problemas y no requieren grandes inversiones.
Las personas naturales, no obstante, también pueden ser víctimas de fraudes impulsados por IA.
Expertos señalan que es importante estar al tanto de alertas inusuales como mensajes urgentes, detalles extraños en documentos o llamadas con tonos de voz artificiales.
Verificar la autenticidad de las solicitudes a través de canales oficiales también es fundamental para evitar caer en este tipo de engaños.