PathMBA Vault

Technology and analytics

Los riesgos y beneficios de utilizar la IA para detectar delitos

por Lisa Quest, Anthony Charrie, Lucas du Croo de Jongh, Subas Roy

Los riesgos y beneficios de utilizar la IA para detectar delitos

aug18-09-991373786-Patrick-George2

Patrick George/Getty Images

Las empresas utilizan la IA para prevenir y detectar todo, desde la rutina robo de empleados al tráfico de información privilegiada. Muchos bancos y grandes empresas utilizan inteligencia artificial para detectar y prevenir el fraude y el lavado de dinero. Las empresas de redes sociales utilizan el aprendizaje automático para bloquear contenido ilícito, como la pornografía infantil. Las empresas experimentan constantemente con nuevas formas de utilizar la inteligencia artificial para gestionar mejor los riesgos y detectar el fraude de forma más rápida y eficaz, e incluso para predecir y prevenir los delitos.

Si bien la tecnología básica actual no es necesariamente revolucionaria, los algoritmos que utiliza y los resultados que pueden producir sí lo son. Por ejemplo, los bancos llevan décadas utilizando sistemas de supervisión de transacciones basados en reglas binarias predefinidas que exigen que la salida se compruebe manualmente. La tasa de éxito es generalmente baja: de media, solo el 2% de las transacciones señaladas por los sistemas reflejan, en última instancia, un delito real o una intención maliciosa. Por el contrario, las soluciones de aprendizaje automático actuales utilizan reglas predictivas que reconocen automáticamente las anomalías en los conjuntos de datos. Estos algoritmos avanzados pueden reducir significativamente el número de alertas falsas al filtrar los casos que se marcaron incorrectamente y, al mismo tiempo, descubrir otros omitidos con las reglas convencionales.

Dada la gran cantidad de datos disponibles en la actualidad y las crecientes expectativas de los clientes y las autoridades públicas en lo que respecta a la protección y la gestión de esos datos, muchas empresas han decidido que esta es una de las únicas formas de mantenerse al día con los delincuentes cada vez más sofisticados. Hoy, por ejemplo, se espera que las empresas de redes sociales descubran y eliminen los vídeos y mensajes de reclutamiento de terroristas casi al instante. Con el tiempo, las herramientas de lucha contra la delincuencia impulsadas por la IA podrían convertirse en una necesidad para las grandes empresas, en parte porque no habrá otra forma de detectar e interpretar rápidamente los patrones en miles de millones de datos.

Centro Insight

  • Adopción de la IA

    Patrocinado por SAS

    Cómo utilizan las empresas la inteligencia artificial en sus operaciones comerciales.

Pero determinar si las soluciones de IA para combatir la delincuencia son una buena opción estratégica para una empresa depende de si los beneficios superan a los riesgos que conllevan. Uno de esos riesgos es que se puedan sacar conclusiones sesgadas de la IA en función de factores como la etnia, el género y la edad. Las empresas también pueden sufrir una reacción violenta por parte de los clientes que se preocupan de que sus datos se utilicen indebidamente o se exploten mediante una vigilancia aún más intensiva de datos de sus registros, transacciones y comunicaciones, especialmente si esa información se comparte con el gobierno. Hace poco, por ejemplo, un banco europeo se vio obligado a dar marcha atrás en su plan de pedir permiso a los clientes para vigilar sus cuentas de redes sociales como parte del proceso de solicitud de hipotecas, después de una protesta pública por sus tácticas de «Gran Hermano».

Entonces, ¿cómo evalúan las empresas de vanguardia los beneficios y los riesgos de la rápida evolución de la IA en la lucha contra la delincuencia y la gestión de riesgos? A continuación, explicamos algunas de las medidas que están tomando:

Evaluación del ajuste estratégico

Antes de embarcarse en una iniciativa de gestión de riesgos de IA, los directivos deben entender primero los aspectos en los que el aprendizaje automático ya está marcando una gran diferencia. Los bancos, por ejemplo, detienen los delitos financieros de forma mucho más rápida y económica que antes, mediante el uso de la IA para automatizar los procesos y realizar análisis de «aprendizaje profundo» en varios niveles. A pesar de que los bancos ahora archivan 20 veces más informes de actividades sospechosas relacionadas con el lavado de dinero que en 2012, las herramientas de IA les han permitido reducir el número de personas que emplean para evaluar las alertas de actividades sospechosas. Eso se debe a que sus falsas alertas se han reducido hasta la mitad gracias a la IA y porque muchos bancos ahora pueden automatizar el trabajo preliminar humano rutinario en la evaluación de documentos. Por ejemplo, usar inteligencia artificial, PayPal también ha reducido sus alertas falsas a la mitad. Y El Royal Bank of Scotland evitó pérdidas de más de 9 millones de dólares a los clientes tras realizar una prueba piloto de un año con Vocalink Analytics, una empresa de pagos, para utilizar la IA para escanear las transacciones de pequeñas empresas en busca de facturas falsas.

Las herramientas de IA también permiten a las empresas sacar a la luz patrones o relaciones sospechosos invisibles incluso para los expertos. Por ejemplo, las redes neuronales artificiales pueden permitir a los empleados predecir los próximos movimientos incluso de delincuentes no identificados que han descubierto formas de evitar los activadores de alertas en los sistemas de seguridad basados en reglas binarias. Estas redes neuronales artificiales vinculan millones de puntos de datos de bases de datos aparentemente no relacionadas que contienen de todo, desde publicaciones en las redes sociales hasta direcciones de protocolo de Internet utilizadas en las redes wifi de los aeropuertos, propiedades inmobiliarias o declaraciones de impuestos, e identifican patrones.

El siguiente paso para evaluar la conveniencia de lanzar un programa de gestión de riesgos de IA es que las empresas evalúen hasta qué punto los clientes y las autoridades gubernamentales esperan que estén a la vanguardia. Incluso si no se convierte en una obligación reglamentaria o legal, las empresas podrían considerar ventajoso desempeñar un papel de liderazgo en el uso de la analítica avanzada para poder participar en el establecimiento de estándares en todo el sector. Pueden ayudar a garantizar la seguridad de los participantes del sector, los reguladores, los innovadores tecnológicos y los clientes, sin infringir la privacidad y los derechos humanos de las personas.

Evaluar y mitigar los riesgos internos

A medida que los directivos examinen cómo la IA puede ayudarlos a identificar actividades delictivas, también deberían considerar cómo encaja en su estrategia más amplia de IA. La gestión de riesgos de la IA y la detección de delitos no deben realizarse de forma aislada. Las pruebas retrospectivas con modelos más simples pueden ayudar a los bancos a limitar el impacto de las conclusiones potencialmente inexplicables extraídas por la inteligencia artificial, especialmente si se produce un hecho desconocido para el que el modelo no ha sido entrenado. Por ejemplo, los bancos utilizan la inteligencia artificial para supervisar las transacciones y reducir el número de falsas alertas que reciben sobre posibles transacciones fraudulentas, como el dinero que se blanquea con fines delictivos. Se han probado con modelos más simples basados en reglas para identificar posibles valores atípicos. Un modelo de IA puede, por ejemplo, pasar por alto por error una gran transacción de lavado de dinero que normalmente activaría una alerta en un sistema basado en reglas si determina, basándose en datos sesgados, que las grandes transacciones realizadas por clientes que residen en barrios adinerados no merecen tanta atención. El uso de este enfoque permite a las empresas diseñar modelos de aprendizaje automático más transparentes, aunque eso signifique que operan dentro de límites más explícitos.

Sobre todo, los directivos deberían evaluar si los análisis de datos de su empresa son suficientes para gestionar herramientas de IA complejas. Si no, tienen que desarrollar las capacidades de análisis de datos internamente para alcanzar una masa crítica de procesos automatizados y análisis estructurados.

Comprender los riesgos externos y prepararse para ellos

El aumento del uso de herramientas de IA para la prevención del delito también podría provocar que los riesgos externos se generen en cascada de formas inesperadas. Una empresa podría perder su credibilidad ante el público, los reguladores y otras partes interesadas de innumerables maneras, por ejemplo, si hay alertas falsas que identifican erróneamente a las personas como «sospechosas» o «delincuentes» debido a un sesgo racial incorporado involuntariamente al sistema. O, en el otro extremo del espectro, si pasan por alto actividades delictivas, como el tráfico de drogas llevado a cabo por sus clientes o los fondos canalizados desde países sancionados, como Irán. Los delincuentes podrían recurrir a medidas más extremas y potencialmente violentas para superar a la IA. Los clientes podrían huir a entidades vigiladas menos de cerca fuera de los sectores regulados. Incluso podría surgir un riesgo moral si los empleados dependieran demasiado de las herramientas de la IA para combatir el crimen como para atrapar a los delincuentes por ellos.

Para evitar que esto suceda, las empresas tienen que crear y probar una variedad de escenarios de eventos en cascada como resultado de las herramientas impulsadas por la IA que se utilizan para rastrear las actividades delictivas. Para ser más astutos que los blanqueadores de dinero, por ejemplo, los bancos deberían llevar a cabo «juegos de guerra» con exfiscales e investigadores para descubrir cómo podrían derrotar a su sistema.

Con los resultados obtenidos mediante el análisis de escenarios, los directivos pueden ayudar a los altos ejecutivos y miembros del consejo de administración a decidir qué tan cómodos se sienten con el uso de la IA para combatir el crimen. También pueden elaborar manuales de gestión de crisis que contengan estrategias de comunicación internas y externas para poder reaccionar con rapidez cuando las cosas (inevitablemente) salen mal.

Mediante el uso de la IA, las empresas pueden identificar áreas de posibles delitos, como el fraude, el lavado de dinero y la financiación del terrorismo, además de delitos más mundanos, como el robo de empleados, el ciberfraude y las facturas falsas, para ayudar a los organismos públicos a procesar estos delitos de forma mucho más eficaz y eficiente. Pero estos beneficios conllevan riesgos que deberían evaluarse de manera abierta, honesta y transparente para determinar si utilizar la IA de esta manera es una opción estratégica. No va a ser fácil. Pero una comunicación clara con los reguladores y los clientes permitirá a las empresas estar a la altura del desafío cuando las cosas vayan mal. Con el tiempo, la IA tendrá un impacto enormemente positivo en la reducción de la delincuencia en el mundo, siempre y cuando se gestione bien.