El asistente de IA de Google es un recordatorio de que la privacidad y la seguridad no son lo mismo
por Ajay Agrawal, Joshua Gans, Avi Goldfarb

Jonathan Kitchen/Getty Images
A principios de este mes, Google presentó nuevas y destacables funciones para su asistente automático. Se basan en la creciente experiencia de Google en inteligencia artificial (IA).
Quizás la demostración más dramática y, por ver la avalancha de comentarios, preocupante, fue la habilidad de la IA de Google para hacer llamadas de teléfono que imitan a un humano. Si no ha visto la demo, aquí hay un enlace. Si bien aún no lo hemos hecho, en poco tiempo podrá dar instrucciones a una IA para que utilice una tecnología antigua (llamadas de voz) para concertar citas y gestionar otras interacciones en su nombre, interactuando con otras personas o, si el receptor lo desea, con otras IA. Baste con decir que eso tiene valor.
Entonces, ¿cuál es el problema? Una IA que suene humana compromete tanto la privacidad como la seguridad. Aunque suelen estar agrupadas, la privacidad y la seguridad son diferentes.
La privacidad incluye el derecho a que lo dejen en paz. Las personas que llaman con IA lo infringen por su potencial de entrometerse. Los problemas de privacidad también surgen cuando se utiliza la información fuera de contexto (por ejemplo, por chismes, discriminación de precios o publicidad segmentada). Las personas que llaman por IA y que suenan humanas pueden violar la privacidad, ya que pueden engañar a la gente haciéndoles creer que el contexto de la llamada es de persona a persona, cuando en realidad es de persona a máquina. Es posible que obtengan información de usted y luego la utilicen de formas que no anticipa. Esto podría suceder si habla con la IA usted mismo o, en el futuro, si la IA habla en su nombre.
Sin embargo, cuando la gente habla de problemas de privacidad, a menudo se preocupa mucho por la seguridad. El tema no es la publicidad segmentada ni los chismes, es el robo y la seguridad. La seguridad es el estado de estar libre de peligros. Los problemas de seguridad surgen cuando se extrae información y, luego, se utiliza de forma ilegal. El más obvio de ellos es el robo de identidad. Imagine que una persona que llama por IA puede hacerse pasar por su voz. Puede que quiera eso como parte de un servicio que usted controle, pero, al mismo tiempo, alguien podría replicarlo para engañar a los demás haciéndoles creer que están hablando con usted.
El problema es que mejorar la seguridad puede no ayudar a la privacidad. Por ejemplo, aumentar la vigilancia podría aumentar la seguridad frente a los malos actores, pero a expensas de la privacidad.
Resolver la privacidad puede no ayudar a la seguridad. Las normas de privacidad que restringen el flujo de información pueden dificultar que la policía sepa lo que hacen los malos y, por lo tanto, hacer que esté menos seguro.
Para los asistentes de IA, podemos declarar ilegal la suplantación de identidad y añadir nuevas capas a los controles de identidad para que el robo de identidad sea difícil. Esto ayuda a la seguridad, pero no a la privacidad. Las personas que llaman por IA y la información que usted dice que una IA podría utilizarse para segmentar la publicidad.
Muchos comentaristas pidió que Google (y otros) identificara cuando una máquina llama en lugar de una persona. Google respondió que proporcionarían esa identificación. Sin embargo, una persona empeñada en robarle la identidad no seguirá estas reglas cortésmente.
Incluso si el gobierno exige que un asistente de IA tenga que identificarse, solo servirá para protegerlo si los malos actores también se identifican. Después de todo, si se puede imitar su voz, también se puede imitar un anuncio de voz. La autoidentificación ayuda a la privacidad, pero no a la seguridad.
Ha llegado el momento de considerar los protocolos de comunicación de la IA en todos los dominios con el fin de mejorar tanto la privacidad como la seguridad. Las redes sociales tienen sus propias formas internas de autenticar quién envía mensajes a quién. Sin embargo, no tenemos buenos métodos de verificación en todas las redes. Seguimos viviendo en un mundo analógico y el reconocimiento de voz, un autenticador analógico clásico, ya no es suficiente.
El objetivo está claro. Queremos las ventajas de los asistentes de IA sin problemas importantes de privacidad y seguridad. Necesitamos que las personas que llaman por IA puedan identificarse de manera verificable y protocolos sobre cómo deben gestionarse las llamadas de IA. El reconocimiento de voz ya no funciona para la verificación; es hora de una solución que dé prioridad a lo digital.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.