PathMBA Vault

Cybersecurity and digital privacy

El asistente de IA de Google es un recordatorio de que la privacidad y la seguridad no son lo mismo

por Ajay Agrawal, Joshua Gans, Avi Goldfarb

El asistente de IA de Google es un recordatorio de que la privacidad y la seguridad no son lo mismo

may18_30-604367799

Jonathan Kitchen/Getty Images

A principios de este mes, Google presentó nuevas y destacables funciones para su asistente automático. Se basan en la creciente experiencia de Google en inteligencia artificial (IA).

Quizás la demostración más dramática y, por ver la avalancha de comentarios, preocupante, fue la habilidad de la IA de Google para hacer llamadas de teléfono que imitan a un humano. Si no ha visto la demo, aquí hay un enlace. Si bien aún no lo hemos hecho, en poco tiempo podrá dar instrucciones a una IA para que utilice una tecnología antigua (llamadas de voz) para concertar citas y gestionar otras interacciones en su nombre, interactuando con otras personas o, si el receptor lo desea, con otras IA. Baste con decir que eso tiene valor.

Entonces, ¿cuál es el problema? Una IA que suene humana compromete tanto la privacidad como la seguridad. Aunque suelen estar agrupadas, la privacidad y la seguridad son diferentes.

La privacidad incluye el derecho a que lo dejen en paz. Las personas que llaman con IA lo infringen por su potencial de entrometerse. Los problemas de privacidad también surgen cuando se utiliza la información fuera de contexto (por ejemplo, por chismes, discriminación de precios o publicidad segmentada). Las personas que llaman por IA y que suenan humanas pueden violar la privacidad, ya que pueden engañar a la gente haciéndoles creer que el contexto de la llamada es de persona a persona, cuando en realidad es de persona a máquina. Es posible que obtengan información de usted y luego la utilicen de formas que no anticipa. Esto podría suceder si habla con la IA usted mismo o, en el futuro, si la IA habla en su nombre.

Sin embargo, cuando la gente habla de problemas de privacidad, a menudo se preocupa mucho por la seguridad. El tema no es la publicidad segmentada ni los chismes, es el robo y la seguridad. La seguridad es el estado de estar libre de peligros. Los problemas de seguridad surgen cuando se extrae información y, luego, se utiliza de forma ilegal. El más obvio de ellos es el robo de identidad. Imagine que una persona que llama por IA puede hacerse pasar por su voz. Puede que quiera eso como parte de un servicio que usted controle, pero, al mismo tiempo, alguien podría replicarlo para engañar a los demás haciéndoles creer que están hablando con usted.

El problema es que mejorar la seguridad puede no ayudar a la privacidad. Por ejemplo, aumentar la vigilancia podría aumentar la seguridad frente a los malos actores, pero a expensas de la privacidad.

Resolver la privacidad puede no ayudar a la seguridad. Las normas de privacidad que restringen el flujo de información pueden dificultar que la policía sepa lo que hacen los malos y, por lo tanto, hacer que esté menos seguro.

Para los asistentes de IA, podemos declarar ilegal la suplantación de identidad y añadir nuevas capas a los controles de identidad para que el robo de identidad sea difícil. Esto ayuda a la seguridad, pero no a la privacidad. Las personas que llaman por IA y la información que usted dice que una IA podría utilizarse para segmentar la publicidad.

Muchos comentaristas pidió que Google (y otros) identificara cuando una máquina llama en lugar de una persona. Google respondió que proporcionarían esa identificación. Sin embargo, una persona empeñada en robarle la identidad no seguirá estas reglas cortésmente.

Incluso si el gobierno exige que un asistente de IA tenga que identificarse, solo servirá para protegerlo si los malos actores también se identifican. Después de todo, si se puede imitar su voz, también se puede imitar un anuncio de voz. La autoidentificación ayuda a la privacidad, pero no a la seguridad.

Ha llegado el momento de considerar los protocolos de comunicación de la IA en todos los dominios con el fin de mejorar tanto la privacidad como la seguridad. Las redes sociales tienen sus propias formas internas de autenticar quién envía mensajes a quién. Sin embargo, no tenemos buenos métodos de verificación en todas las redes. Seguimos viviendo en un mundo analógico y el reconocimiento de voz, un autenticador analógico clásico, ya no es suficiente.

El objetivo está claro. Queremos las ventajas de los asistentes de IA sin problemas importantes de privacidad y seguridad. Necesitamos que las personas que llaman por IA puedan identificarse de manera verificable y protocolos sobre cómo deben gestionarse las llamadas de IA. El reconocimiento de voz ya no funciona para la verificación; es hora de una solución que dé prioridad a lo digital.