Enseñar a un algoritmo a entender el bien y el mal
por Greg Satell

En suÉtica nicomáquea, Aristóteles afirma que es un hecho que «todo conocimiento y cada búsqueda tienen como objetivo algo bueno», pero luego continúa: «¿Qué queremos decir entonces con lo bueno?» Eso, en esencia, resume el dilema ético. Todos estamos de acuerdo en que debemos ser buenos y justos, pero es mucho más difícil decidir lo que eso implica.
Desde la época de Aristóteles, las preguntas que planteó se discuten y debaten continuamente. De las obras de grandes filósofos como Kant, Bentham, y Rawls a las fiestas de cócteles modernas y a las sesiones de toros nocturnas en dormitorios, los temas se reflexionan y discuten sin cesar, pero nunca llegan a una conclusión satisfactoria.
Hoy, al entrar en una «era cognitiva» de las máquinas pensantes, el problema de qué debe guiar nuestras acciones está adquiriendo una nueva importancia. Si nos resulta tan difícil denotar los principios según los que una persona debe actuar de manera justa y sabia, ¿cómo vamos a codificarlos en las inteligencias artificiales que estamos creando? Es una pregunta para la que tenemos que encontrar respuestas pronto.
Diseñar un entorno de aprendizaje
Todos los padres se preocupan por las influencias a las que están expuestos sus hijos. ¿Qué programas de televisión están viendo? ¿A qué videojuegos juegan? ¿Están pasando el rato con el público equivocado en la escuela? Intentamos no proteger demasiado a nuestros hijos porque queremos que aprendan sobre el mundo, pero no queremos exponerlos a demasiado antes de que tengan la madurez necesaria para procesarlo.
Centro de información
La próxima era de la analítica
Patrocinado por SAS
Aprovechar el poder del aprendizaje automático y otras tecnologías.
En la inteligencia artificial, estas influencias se denominan «corpus de aprendizaje automático». Por ejemplo, si quiere enseñar a un algoritmo a reconocer gatos, lo expone a miles de imágenes de gatos y cosas que no sean gatos. Con el tiempo, descubre cómo diferenciar entre, por ejemplo, un gato y un perro. Al igual que ocurre con los seres humanos, es aprendiendo de estas experiencias que los algoritmos se vuelven útiles.
Sin embargo, el proceso puede ir muy mal, como en el caso de La etiqueta de Microsoft, un bot de Twitter que la empresa lanzó en la plataforma de microblogueo. En menos de un día, Tay pasó de ser amable y casual («Los humanos son geniales») a ser francamente aterrador («Hitler tenía razón y odio a los judíos»). Fue profundamente inquietante.
Francesca Rossi, investigador de IA de IBM, señala que a menudo codificamos los principios relacionados con las influencias en las normas sociales, como la edad que debe tener un niño para ver una película con clasificación R o si debe aprender la evolución en la escuela. «Tenemos que decidir hasta qué punto los principios legales que utilizamos para regular a los seres humanos pueden utilizarse en las máquinas», me dijo.
Sin embargo, en algunos casos los algoritmos pueden alertarnos de los sesgos en nuestra sociedad de la que puede que no nos hayamos enterado, como cuando Busca en Google «abuela» y solo veo caras blancas. «Las máquinas tienen un gran potencial para alertarnos de los sesgos», señala Rossi. «No solo necesitamos entrenar nuestros algoritmos, sino también estar abiertos a la posibilidad de que nos enseñen sobre nosotros mismos».
Desentrañando dilemas éticos
Un experimento mental que ha desconcertado a los especialistas en ética durante décadas es el problema con el tranvía. Imagínese que ve un tranvía corriendo por las vías y está a punto de atropellar a cinco personas. La única manera de salvarlos es tirar de una palanca para cambiar el tranvía a un conjunto diferente de vías, pero si lo hace, una persona que esté en la otra vía morirá. ¿Qué debe hacer?
Sistemas éticos basados en principios morales, como los de Kant Imperativo categórico (actuar únicamente de acuerdo con la máxima según la cual puede, al mismo tiempo, querer que se convierta en una ley universal) o La primera ley de Asimov (un robot no puede herir a un ser humano ni, por inacción, permitir que un ser humano sufra daño) son totalmente inútiles en este caso.
Otra alternativa sería adoptar el principio utilitario y simplemente haga lo que resulte más bueno o menos perjudicial. Entonces quedaría claro que debe matar a una persona para salvar a los cinco. Sin embargo, la idea de matar a alguien intencionalmente es problemática, por decir lo menos. Si bien aplicamos el principio en algunos casos limitados, como en el caso del deber de un oficial del Servicio Secreto de proteger al presidente, son raras excepciones.
El auge de la inteligencia artificial nos obliga a tomarnos los dilemas éticos abstractos mucho más en serio, porque tenemos que codificar los principios morales de forma concreta. ¿Debería un coche autónomo correr el riesgo de matar a su pasajero para salvar a un peatón? ¿Hasta qué punto debe tener en cuenta un avión no tripulado el riesgo de daños colaterales al matar a un terrorista? ¿Deberían los robots tomar decisiones de vida o muerte sobre los humanos? Tendremos que tomar decisiones concretas sobre lo que dejaremos en manos de los humanos y lo que codificaremos en el software.
Son preguntas difíciles, pero Rossi, de IBM, señala que las máquinas podrían ayudarnos con ellas. Las enseñanzas de Aristóteles, a menudo denominadasética de la virtud, haga hincapié en que tenemos que aprender el significado de las virtudes éticas, como la sabiduría, la justicia y la prudencia. Así que es posible que un potente sistema de aprendizaje automático nos dé nuevos conocimientos.
Normas culturales contra valores morales
Otra cuestión a la que tendremos que enfrentarnos es que tendremos que decidir no solo qué principios éticos para codificar en la inteligencia artificial, pero también cómo Están codificados. Como se ha indicado anteriormente, en su mayor parte, «No matará» es un principio estricto. Aparte de unos pocos casos raros, como el Servicio Secreto o un soldado, se trata más bien de una preferencia que se ve muy afectada por el contexto.
A menudo hay mucha confusión sobre qué es realmente un principio moral y qué es simplemente una norma cultural. En muchos casos, como ocurre con los derechos LGBT, los juicios de la sociedad con respecto a la moralidad cambian con el tiempo. En otros, como enseñar el creacionismo en las escuelas o permitir la venta de alcohol, nos parece razonable dejar que las diferentes comunidades tomen sus propias decisiones.
¿Qué hace que una cosa sea un valor moral y otra una norma cultural? Bueno, esa es una pregunta difícil incluso para los especialistas en ética humana más elogiados, pero tendremos que codificar esas decisiones en nuestros algoritmos. En algunos casos, habrá principios estrictos; en otros, solo preferencias basadas en el contexto. Para algunas tareas, los algoritmos tendrán que codificarse de forma diferente según la jurisdicción en la que operen.
El tema se hace especialmente espinoso cuando los algoritmos tienen que tomar decisiones de acuerdo con normas profesionales contradictorias, como en la atención médica. ¿Cuánto debe tenerse en cuenta el coste a la hora de tomar decisiones médicas? ¿Deberían las compañías de seguros opinar sobre la codificación de los algoritmos?
Este no es, por supuesto, un problema completamente nuevo. Por ejemplo, las empresas que operan en EE. UU. deben cumplir con las normas de contabilidad GAAP, que se basan en normas estrictas, mientras que las que operan en Europa siguen las normas de contabilidad IFRS, que se basan en principios generales. Es probable que acabemos en una situación similar con respecto a muchos principios éticos de la inteligencia artificial.
Fijando un estándar más alto
La mayoría de los expertos en IA con los que he hablado piensan que tendremos que establecer estándares morales más altos para la inteligencia artificial que para los humanos. Por supuesto, no esperamos que la gente dé una lista de influencias y una explicación de su lógica en cada decisión que tome, a menos que algo vaya muy mal. Pero vamos a necesitar esa transparencia por parte de las máquinas.
«Con otro ser humano, solemos suponer que tiene capacidades de razonamiento y normas éticas de sentido común similares. Eso no es cierto en el caso de las máquinas, así que tenemos que hacer que cumplan con un estándar más alto», afirma Rossi. Josh Sutton, director global de Datos e Inteligencia Artificial, en Publicidad. Sapient, está de acuerdo y sostiene que tanto la ruta lógica como el corpus de aprendizaje que conducen a la toma de decisiones automáticas deben estar disponibles para su examen.
Sin embargo, Sutton ve cómo podríamos optar también por una menor transparencia en algunas situaciones. Por ejemplo, puede que nos sintamos más cómodos con los algoritmos que utilizan nuestros datos de comportamiento y geolocalización, pero no permiten que los humanos accedan a esos datos. Los humanos, al fin y al cabo, siempre pueden caer en la tentación. A las máquinas se les da mejor seguir parámetros estrictos.
Está claro que estos temas necesitan más reflexión y debate. Los principales actores del sector, como Google, IBM, Amazon y Facebook, creó recientemente una asociación crear una plataforma abierta entre las principales empresas de IA y las partes interesadas del mundo académico, el gobierno y la industria para mejorar la comprensión y promover las mejores prácticas. Sin embargo, eso no es más que un punto de partida.
A pesar de lo omnipresente que va a llegar a ser la inteligencia artificial en un futuro próximo, la responsabilidad recae en la sociedad en su conjunto. En pocas palabras, tenemos que tomarnos los estándares según los que funcionan las inteligencias artificiales con la misma seriedad que los que rigen el funcionamiento de nuestros sistemas políticos y la forma en que se educa a los niños.
Es una responsabilidad que no podemos eludir.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.