Para impulsar el crecimiento de la IA, necesitamos un nuevo enfoque de la responsabilidad legal
por George Maliha, Sara Gerke, Ravi B. Parikh, I. Glenn Cohen

La inteligencia artificial (IA) se está extendiendo en industrias que van desde de la ciberseguridad a la protección del medio ambiente — y la pandemia de la COVID-19 no ha hecho más que acelerarlo tendencia. La IA puede mejorar la vida de millones de personas, pero también lo hará inevitablemente provocar accidentes que hieren a personas o fiestas; de hecho, ya lo ha hecho a través de incidentes como choques de vehículos autónomos. Sin embargo, un sistema de responsabilidad anticuado en los Estados Unidos y otros países no puede gestionar estos riesgos, lo cual es un problema porque esos riesgos pueden impedir las innovaciones y la adopción de la IA. Por lo tanto, es crucial que reformemos el sistema de responsabilidad. Hacerlo ayudará a acelerar las innovaciones y la adopción de la IA.
Responsabilidad mal asignada puede obstaculizar la innovación de varias maneras. En igualdad de condiciones, un diseñador de IA que quiera implementar un sistema en uno de los dos sectores evitará que el sector imponga más responsabilidad al diseñador. Del mismo modo, los usuarios finales de un sistema de IA se resistirán a su adopción si un algoritmo de IA conlleva un mayor riesgo de responsabilidad sin compensación. Se necesitan reformas de responsabilidad para abordar estas cuestiones. Muchos de los cambios que defendemos implican reequilibrar la responsabilidad entre los actores, desde los usuarios finales (médicos, conductores y otros consumidores de IA) hasta actores más avanzados (por ejemplo, diseñadores, fabricantes).
Los analizamos por orden de facilidad de implementación, desde los más fáciles hasta los más difíciles. Aunque nos centramos en el sistema de responsabilidad de EE. UU., los principios en los que se basan nuestras recomendaciones se pueden aplicar a muchos países. De hecho, ignorar la responsabilidad en cualquier parte podría provocar un despliegue inseguro de la IA y obstaculizar la innovación.
Revisión de los estándares de atención
Uno de los cambios más sencillos que las industrias pueden hacer para cambiar su carga de responsabilidad es adoptar y cambiar las normas de atención, la conducta que la ley u otras normas profesionales exigen en respuesta a una situación particular. Estos efectos son más fuertes en la medicina, el derecho y otras profesiones. En la medida en que los actores actuales del sector tengan la experiencia y la previsión sobre su propio sector y sobre cómo encaja la IA en él, cambiar el estándar de atención puede marcar la diferencia entre combatir y facilitar la IA.
Por ejemplo, en lugar de que el radiólogo dé la única lectura de una imagen, un sistema de IA puede proporcionar una lectura inicial de la imagen, con radiólogo haciendo una lectura secundaria posterior. Una vez que esto se convierta en un estándar de atención en la práctica de la radiología, la posible carga de responsabilidad de la IA disminuirá para el médico individual si cumple con el estándar de atención particular. A medida que la IA se afiance más en la práctica médica, los médicos y los sistemas de salud, si actúan juntos, pueden facilitar la introducción segura de la IA al integrarla en sus estándares de atención.
Cambiar quién paga: seguro e indemnización
El seguro y la indemnización ofrecen otras soluciones para reequilibrar la responsabilidad. Estos dos conceptos están relacionados pero son distintos. El seguro permite a muchos asegurados unir recursos para protegerse. La indemnización permite a dos o más partes definir, dividir y distribuir la responsabilidad en un contrato, básicamente transfiriendo la responsabilidad entre sí. Ambas permiten a las partes interesadas de la IA negociar directamente entre sí para eludir las normas de responsabilidad.
Las aseguradoras se dedican a entender todos los matices del sector al que ofrecen protección. De hecho, a menudo están expuestos a las mejores (y las peores) prácticas de un campo en particular. Debido a la recopilación de datos, las aseguradoras podrían exigir prácticas como los requisitos de las pruebas de IA y la prohibición de determinados algoritmos. Estos pueden cambiar con el tiempo a medida que la industria se desarrolla y el las aseguradoras recopilan datos.
De hecho, algunas aseguradoras de automóviles ya han patrocinó las iniciativas de recopilación de datos para las nuevas tecnologías de IA, como el software de guiado autónomo de vehículos. Las aseguradoras podrían recompensar a los usuarios con tarifas más bajas para seleccionar ciertos programas de IA más eficaces, al igual que las aseguradoras recompensa conductores para seleccionar coches más seguros y evitar accidentes. Por lo tanto, las aseguradoras facilitarían la adopción de la IA mediante dos métodos: 1) reducir los costes de responsabilidad distribuyendo el riesgo entre todos los asegurados y 2) desarrollando las mejores prácticas para las empresas que deseen utilizar la IA.
La indemnización, por otro lado, podría ofrecer cierta seguridad de responsabilidad entre dos partes. Las cláusulas de indemnización ya se han utilizado para distribuir la responsabilidad en ensayos clínicos entre los sistemas de salud y las empresas farmacéuticas o de dispositivos.
Renovar las normas: cambiar los incumplimientos de responsabilidad
El seguro y la indemnización toman el sistema de responsabilidad actual y permiten a los participantes hacer pequeños ajustes. Pero la IA puede necesitar algo más que retoques, puede que requiera cambiar las opciones de responsabilidad por defecto. Por ejemplo, el regla predeterminada para los accidentes de automóvil en la mayoría de los estados, el conductor de un automóvil que choca por detrás con otro es responsable del accidente. En un mundo en el que los coches «autónomos» se entremezclan con los coches conducidos por humanos, puede que esa regla ya no tenga sentido. Se podría programar un sistema de IA para proteger a los ocupantes del automóvil de esa responsabilidad y, por lo tanto, podrían intentar desviarse hacia otro carril o hacia una situación más peligrosa (hacia un carril con escombros, por ejemplo).
¿Quién es el responsable cuando confiamos en que la IA anule a un humano? La responsabilidad supone que las personas provocan accidentes. Hay que modificar las normas de responsabilidad tradicionales por defecto. Los tribunales pueden hacer parte del trabajo al tomar decisiones derivadas de accidentes, pero es posible que las legislaturas y los reguladores tengan que elaborar nuevas normas por defecto para hacer frente a los accidentes de IA. Pueden ser contundentes pero claras, como atribuir cualquier error de IA al usuario. O pueden tener más matices, como repartir la responsabilidad de antemano entre un usuario y un diseñador.
Creación de nuevos jueces: tribunales especiales y sistemas de responsabilidad
De hecho, la responsabilidad por una lesión puede resultar difícil de gestionar para los mecanismos de responsabilidad tradicionales debido a los grandes conjuntos de datos, al procesamiento especializado o a problemas técnicos especializados. Una solución es llevar las disputas sobre ciertos tipos de algoritmos, industrias o accidentes a tribunales especializados, que eximen de responsabilidad a determinadas actividades para simplificar las cuestiones y canalizar los casos en un solo lugar. Se podría imaginar un tribunal especializado que desarrolle la habilidad de juzgar, por ejemplo, algoritmos de patología o accidentes que resulten de la interacción de dos algoritmos.
En el mejor de los casos, un sistema judicial canaliza las disputas hacia sistemas más simples, respaldados por los contribuyentes o las tasas de usuario, con jueces especializados, normas más simples y (con suerte) costes de transacción más bajos en comparación con el sistema legal actual. Y la adjudicación especializada puede coexistir con un plan de responsabilidad tradicional.
Florida y Virginia han creado un sistema de adjudicación especializado para ciertas lesiones neurológicas neonatales. El gobierno federal de los Estados Unidos ha establecido su programa de contramedidas para indemnizar a las personas lesionadas por las drogas y los dispositivos utilizados para combatir las emergencias de salud pública, un sistema que muchos podrían llegar a utilizar debido a la pandemia de la COVID-19. Y aparte de la atención médica, muchos estados ofrecen prestaciones de compensación laboral que se determinan fuera del sistema judicial formal.
Poner fin por completo a la responsabilidad: planes regulatorios totales
Incluso la drástica solución de sacar algunas disputas del sistema de responsabilidad tradicional puede no ser suficiente. Por ejemplo, algunas aplicaciones de IA pueden considerarse tan importantes que trataremos de evitar errores y eximir de responsabilidad mediante una amplia red de reglamentos. Un error en un sistema de IA que regula la transmisión de energía entre los estados, guía los aviones hacia tierra y otros sistemas podría quedar completamente exento de responsabilidad si se adoptara un esquema regulatorio integral que se adelantara a las acciones legales por responsabilidad extracontractual.
La regulación puede ser la modalidad adecuada para un» caja negra » algoritmo: un algoritmo que se actualiza constantemente generado por un ordenador que aprende directamente de los datos y no por humanos que especifican las entradas. Para tener en cuenta los cambios de los factores externos una vez entrenados, los algoritmos de caja negra perfeccionan continuamente sus predicciones con cada vez más datos para mejorar su precisión. Sin embargo, no se pueden determinar la identidad y la ponderación precisas de las variables. Nadie —el usuario, el diseñador o la parte perjudicada— puede «mirar bajo el capó» y saber cómo un algoritmo de caja negra llegó a una determinación en particular. Esta dificultad puede hacer reglamento que rige el desarrollo, las pruebas o la implementación de la caja negra, una mejor opción que un caso judicial cada vez que se produce una lesión.
Por supuesto, es casi seguro que un esquema reglamentario que intente especificar por completo un sistema de IA obstaculizará la innovación. Sin embargo, esos costos pueden ser aceptables en áreas específicas, como el desarrollo de fármacos, donde son integrales Esquemas reglamentarios de la Administración de Alimentos y Medicamentos puede sustituir la responsabilidad por completo.
Dada la enorme innovación que genera la IA, a menudo es fácil ignorar los problemas de responsabilidad hasta que la oferta llegue al mercado. Los responsables políticos, los diseñadores y los usuarios finales de la IA deberían desarrollar un sistema de responsabilidad equilibrado para facilitar la IA, en lugar de limitarse a reaccionar ante ella. Construir este 21 st El sistema de responsabilidad del siglo garantizará que 21 st la IA del siglo florecerá.
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.