actualidad

Fraudes con inteligencia artificial: el desafío empresarial en la era digital

¡Bienvenidos a #FreshStartMonday!

Gary Schildhorn iba manejando su automóvil cuando recibió una llamada urgente del teléfono de su hijo. Él le contó que se había accidentado en su carro, lastimó a una mujer embarazada y necesitaba dinero para pagar la fianza, sino iría a prisión. Su hijo le pidió que llamara al fiscal a cargo del caso, quien le daría instrucciones para realizar el pago. El Sr. Schildhorn obedeció y el fiscal le indicó que debía pagar USD$ 9 mil en un kiosko de Bitcoin.

Esto encendió las alarmas del Sr. Schildhorn por lo que decidió hablar con su nuera antes de realizar el depósito. Ella se sorprendió y le aseguró que no era cierto. Gracias a esa llamada, el Sr. Schildhorn evitó ser estafado por la inteligencia artificial (IA). Según investigaciones, los estafadores usaron una grabación de la voz de su hijo, y con ayuda de la IA, pudieron desarrollar una conversación para intentar estafarlo. Esto le podría pasar a cualquier persona.

Si bien la IA puede utilizarse para actividades productivas como reclutamiento de personal, finanzas, análisis de mercados, entre otros; en simultáneo se está utilizando para realizar actividades de fraude. Esta actividad se comete principalmente creando identidades y documentos falsos, realizando estafas de phishing a gran escala e incluso clonando voces para redirigir fondos bancarios, como le sucedió al Sr. Schildhorn.

En Estados Unidos se calcula que aproximadamente USD$8.8 millardos se pierden anualmente debido a estafas de inversión e impostores. Estos esfuerzos ilícitos se han potenciado por el desarrollo de la IA, la cual les ha permitido defraudar con relativa facilidad por lo convincente que parecen sus identidades falsas y el lenguaje que utilizan.

Asimismo, también se han generado contenidos audiovisuales para extorsionar a las personas. La IA les permite crear interacciones falsas entre personas y/o máquinas, que luego utilizan para extraer fondos de las víctimas.

En marzo de 2023, líderes del mundo de la tecnología como Elon Musk, Steve Wozniak, Yuval Noah Harari, entre otros, hicieron un llamado a los laboratorios que desarrollan soluciones basadas en la IA a pausar por al menos seis meses el entrenamiento de sistemas de IA más poderosos que GPT-4. Plantearon la pregunta: ¿debemos arriesgar el perder control de nuestra civilización?

A la fecha, los legisladores estadounidenses continúan en sus esfuerzos por regular los usos productivos de la IA.

 

Contexto guatemalteco

Actualmente, la legislación guatemalteca en materia penal contempla algunas figuras delictivas con relación a la alteración, destrucción y uso indebido de registros informáticos. Aún no se han desarrollado precedentes judiciales con relación a la aplicación de inteligencia artificial derivado de estas figuras. Al ritmo que se desarrolla la tecnología, los legisladores no han podido consensuar nuevas propuestas específicas sobre cibercrimen y ciberdelitos que se refieran a estas tendencias modernas, atendiendo sus riesgos, prevención, y regulación.

Más allá del marco regulatorio guatemalteco, esta situación es compleja si se toma en cuenta las limitaciones del sistema de justicia. Los problemas que surjan a raíz de cibercrímenes con IA en Guatemala enfrentarán desafíos para resolverse en el contexto local.

*Imagen generada en gencraft.

Soluciones privadas

Afortunadamente existen algunas soluciones para combatir estos fenómenos recientes. La clave está en la propia IA. Ha surgido nuevo software que utilizan IA para detectar intentos de estafa y evitar cibercrímenes. Estos son útiles para reconocer patrones y amenazas en tiempo real.  Su mayor limitante es que estos programas pueden fallar, ya que puede considerar fraudulento algo que no lo es, así como no detectar un intento de estafa real.

No obstante, se han desarrollado herramientas con aplicaciones de IA para la prevención de fraude, hay algunas recomendaciones que toda empresa podría implementar fuera de estas, tales como:

  • Desarrollar una política interna para el uso de IA
  • Socializar consideraciones éticas sobre prácticas responsables en el uso de IA
  • Fortalecer medidas de ciberseguridad y protección de datos, tales como revisión e implementación de claves y contraseñas con factores de autenticación, así como la actualización constante de programas informáticos
  • Invertir en sistemas y mecanismos de prevención y detección de fraude

 

Además, hemos identificado buenas prácticas a implementar en el ámbito personal:

  • Revisar constantemente y fortalecer los accesos a sus cuentas con información personal con métodos adicionales de seguridad.
  • Mantener precaución con la información personal que se publica en redes sociales, ya que puede ser utilizada por defraudadores.
  • Acordar métodos de validación con las personas con las que más discuten temas sensibles para estar seguro de que está conversando con ellas.

 

La tecnología avanza a ritmos exponenciales, por lo que siempre es importante estar al tanto de estas posibles amenazas para prevenirlas. Si tiene alguna consulta en este ámbito, no dude en contactarnos.

ECA
Compartir
publicaciones relacionadas