Es hora de actualizar la Sección 230
por Michael D. Smith, Marshall W. Van Alstyne

Las plataformas de redes sociales de Internet reciben amplias protecciones de «puerto seguro» contra la responsabilidad legal por cualquier contenido que los usuarios publiquen en sus plataformas. Esas protecciones, detalladas en la sección 230 de la Ley de Decencia en las Comunicaciones (CDA) de 1996, se redactaron hace un cuarto de siglo, durante una era de ingenuos optimismo tecnológico y capacidades tecnológicas primitivas. Han cambiado tantas cosas desde el cambio de siglo que esas protecciones están ahora desfasadas desesperadamente. Es hora de replantearse y revisar esas protecciones y de que todos los líderes cuyas empresas dependen de las plataformas de Internet entiendan cómo podrían verse afectadas sus empresas.
Las plataformas de redes sociales ofrecen beneficios sociales innegables. Dieron una voz democrática a los oprimidos durante la Primavera Árabe y una plataforma para los movimientos #MeToo y #BlackLivesMatter. Ayudaron a recaudar 115 millones de dólares para la ELA con el Ice Bucket Challenge y ayudaron a identificar y coordinar el rescate de las víctimas del huracán Harvey.
Pero también hemos aprendido la devastación social que pueden causar estas plataformas, y eso nos ha obligado a enfrentarnos a cuestiones antes inimaginables sobre la rendición de cuentas. ¿Hasta qué punto debe hacerse responsable Facebook por los disturbios en el Capitolio, gran parte de los cuales se planificaron en su plataforma? ¿Hasta qué punto debe rendir cuentas Twitter al permitir el reclutamiento de terroristas? Cuánta responsabilidad debería Backpage y Pornhub ¿oso por facilitar la explotación sexual de niños? ¿Qué hay de otras plataformas de redes sociales que se han beneficiado de la venta ilícita de productos farmacéuticos, armas de asalto y vida silvestre en peligro de extinción? La Sección 230 simplemente no anticipó esas preguntas.
La sección 230 tiene dos subsecciones clave que rigen las publicaciones generadas por los usuarios. La primera, la sección 230 (c) (1), protege a las plataformas de la responsabilidad legal relacionada con el contenido dañino publicado en sus sitios por terceros. La segunda, la Sección 230 (c) (2), permite a las plataformas vigilar sus sitios en busca de contenido dañino, pero no exige que eliminen nada y las protege de la responsabilidad si deciden no hacerlo.
Estas provisiones son buenas, excepto las piezas que están en mal estado.
Lo bueno es bastante obvio. Como las plataformas de redes sociales generan beneficios sociales, queremos que sigan funcionando, pero es difícil imaginárselo si son responsables al instante e irreversiblemente de todo lo que publiquen terceros en sus sitios. La sección 230 (c) (1) se creó para abordar este problema.
La sección 230 (c) (2), por su parte, se creó en respuesta a una Sentencia judicial de 1995 declarando que las plataformas que vigilaban cualquiera El contenido generado por los usuarios en sus sitios debe considerarse editor de —y, por lo tanto, legalmente responsable de— todos del contenido generado por los usuarios publicado en su sitio. El Congreso creyó, con razón, que la sentencia haría que las plataformas no quisieran vigilar sus sitios en busca de contenido perjudicial para la sociedad, por lo que aprobó el 230 (c) (2) para animarlas a hacerlo.
En ese momento, este parecía un enfoque razonable. Pero el problema es que estas dos subsecciones están realmente en conflicto. Cuando concede a las plataformas una inmunidad legal total por el contenido que publican sus usuarios, también reduce sus incentivos para eliminar de forma proactiva el contenido que causa daño social. En 1996, eso no parecía importar mucho: aunque las plataformas de redes sociales tuvieran incentivos legales mínimos para proteger su plataforma del contenido dañino, parecía lógico que lo hicieran por interés económico propio, para proteger sus valiosas marcas.
Digamos que hemos aprendido mucho desde 1996.
Una cosa que hemos aprendido es que hemos subestimado significativamente el coste y el alcance del daño que pueden causar las publicaciones en las redes sociales. También hemos aprendido que las plataformas no tienen incentivos lo suficientemente fuertes como para proteger sus marcas vigilando sus plataformas. De hecho, hemos descubierto que ofrecer contenido perjudicial para la sociedad puede ser valioso desde el punto de vista económico para los propietarios de plataformas y, al mismo tiempo, suponer un daño económico relativamente pequeño para su imagen pública o su marca.
Hoy en día hay un consenso cada vez mayor en cuanto a que necesitamos actualizar la Sección 230. Incluso Mark Zuckerberg de Facebook dijo al Congreso que «podría tener sentido que hubiera responsabilidad por parte del contenido» y que Facebook «se beneficiaría de una orientación más clara por parte de los funcionarios electos». Los funcionarios electos, de ambos lados del pasillo, parecen estar de acuerdo: como candidato, Joe Biden le dijo al New York Times que la Sección 230 debería «revocarse inmediatamente», y el senador Lindsey Graham (R-SC) ha dicho: «La Sección 230 tal como existe hoy en día tiene que ceder». En una entrevista con NPR, el excongresista Christopher Cox (republicano de California), coautor de la Sección 230, ha pedido que se reescriba la Sección 230, porque «el propósito original de esta ley era ayudar a limpiar Internet, no facilitar que la gente hiciera cosas malas».
¿Cómo podría reescribirse la Sección 230? Los expertos en derecho han presentado diversas propuestas, casi todas las cuales adoptan un enfoque de zanahoria y palo, al vincular las protecciones de puerto seguro de una plataforma al uso de políticas razonables de moderación de contenido. Un ejemplo representativo apareció en 2017, en un Fordham Law Review artículo de Danielle Citron y Benjamin Wittes, quienes argumentan que la Sección 230 debería revisarse con los siguientes cambios (resaltados): «Ningún proveedor o usuario de un servicio informático interactivo que tome medidas razonables para abordar los usos ilegales conocidos de sus servicios que causan graves daños a otras personas será tratado como el editor o el orador de cualquier información proporcionada por otro proveedor de contenido de información en cualquier acción derivada de la publicación del contenido proporcionado por ese proveedor de contenido de información.”
Este argumento, del que se hizo eco el propio Mark Zuckerberg testimonio que donó al Congreso en 2021, está vinculado al estándar de derecho consuetudinario del «deber de cuidado», que el American Affairs Journal tiene descrito de la siguiente manera:
Por lo general, las empresas tienen la obligación, según el derecho consuetudinario, de tomar medidas razonables para no causar daño a sus clientes, así como de tomar medidas razonables para evitar dañar a sus clientes. Ese deber también crea una obligación afirmativa en determinadas circunstancias para que una empresa impida que una parte utilice los servicios de la empresa perjudique a otra parte. Por lo tanto, las plataformas podrían ser declaradas culpables en virtud del derecho consuetudinario si crearan irrazonablemente un entorno inseguro, así como si no impidieran irrazonablemente que un usuario perjudicara a otro usuario o al público.
Los tribunales han empezado a adoptar esta línea de pensamiento recientemente. En una decisión del 25 de junio de 2021, por ejemplo, el Tribunal Supremo de Texas dictaminó que Facebook no está protegido por la Sección 230 para el reclutamiento de tráfico sexual que se produce en su plataforma. «No entendemos el artículo 230 para ‘crear una tierra de nadie sin ley en Internet’», escribió el tribunal. «Hacer que las plataformas de Internet rindan cuentas por las palabras o las acciones de sus usuarios es una cosa, y el precedente federal dicta de manera uniforme que la Sección 230 no lo permite. Hacer que las plataformas de Internet rindan cuentas por sus propias fechorías es otra cosa. Este es particularmente el caso de la trata de personas».
El estándar del deber de cuidado es bueno y los tribunales están avanzando hacia él al responsabilizar a las plataformas de redes sociales por el diseño e implementación de sus sitios. Siguiendo cualquier norma razonable de deber de cuidado, Facebook debería haber sabido que tenía que tomar medidas más enérgicas contra el contenido generado por los usuarios que abogaba por el derrocamiento violento del gobierno. Del mismo modo, Pornhub debería haberlo sabido vídeos sexualmente explícitos etiquetados como «14 años» no tenía cabida en su sitio.
No todo el mundo cree en la necesidad de una reforma. Algunos defensores de la Sección 230 sostienen que, tal como está redactada actualmente, permite la innovación, porque las empresas emergentes y otras pequeñas empresas pueden no tener los recursos suficientes para proteger sus sitios con el mismo nivel de cuidado que, por ejemplo, Google. Pero la norma del deber de cuidado abordaría esta preocupación, porque lo que se considera una protección «razonable» para una empresa multimillonaria será, naturalmente, muy diferente de lo que se considera razonable para una pequeña empresa emergente. Otra crítica a la reforma de la Sección 230 es que sofocará la libertad de expresión. Pero eso simplemente no es cierto: todas las propuestas sobre el deber de cuidado que están sobre la mesa hoy abordan el contenido que es no protegido por la Primera Enmienda. La Primera Enmienda no protege la expresión que induce daño (gritar falsamente «fuego» en un teatro abarrotado), fomenta la actividad ilegal (aboga por el derrocamiento violento del gobierno) o que propaga ciertos tipos de obscenidad (material sobre abuso sexual infantil) . *
Las empresas de tecnología deberían aceptar este cambio. A medida que la interacción social y comercial avanza cada vez más en Internet, los bajos incentivos de las plataformas de redes sociales para frenar el daño están reduciendo la confianza del público, lo que dificulta que la sociedad se beneficie de estos servicios y que las empresas legítimas en línea se beneficien de su prestación.
La mayoría de las plataformas legítimas tienen poco que temer del restablecimiento del deber de cuidado. Gran parte del riesgo proviene del contenido generado por los usuarios, y muchas empresas en línea alojan poco o ningún contenido de este tipo. La mayoría de las empresas en línea también actúan de manera responsable y, mientras ejerzan un deber de cuidado razonable, es poco probable que corran el riesgo de ser litigados. Y, como se ha indicado anteriormente, las medidas razonables que se espera que tomen serían proporcionales a los riesgos y recursos conocidos de su servicio.
Lo que los buenos actores tienen que ganar es una delimitación más clara entre sus servicios y los de los malos actores. Una norma sobre el deber de cuidado solo hará rendir cuentas a quienes no cumplan con el deber. Por el contrario, una intervención reguladora más amplia podría limitar la discreción de todas las empresas e imponerles costes, actúen de manera responsable o no. Las probabilidades de imponer una regulación tan amplia aumentan cuanto más tiempo persistan los daños causados por los malos actores. La sección 230 debe cambiar.
*Nota del editor (15 de agosto de 21): Esta frase se ha actualizado para añadir la palabra «en falso».
Artículos Relacionados

La IA es genial en las tareas rutinarias. He aquí por qué los consejos de administración deberían resistirse a utilizarla.

Investigación: Cuando el esfuerzo adicional le hace empeorar en su trabajo
A todos nos ha pasado: después de intentar proactivamente agilizar un proceso en el trabajo, se siente mentalmente agotado y menos capaz de realizar bien otras tareas. Pero, ¿tomar la iniciativa para mejorar las tareas de su trabajo le hizo realmente peor en otras actividades al final del día? Un nuevo estudio de trabajadores franceses ha encontrado pruebas contundentes de que cuanto más intentan los trabajadores mejorar las tareas, peor es su rendimiento mental a la hora de cerrar. Esto tiene implicaciones sobre cómo las empresas pueden apoyar mejor a sus equipos para que tengan lo que necesitan para ser proactivos sin fatigarse mentalmente.

En tiempos inciertos, hágase estas preguntas antes de tomar una decisión
En medio de la inestabilidad geopolítica, las conmociones climáticas, la disrupción de la IA, etc., los líderes de hoy en día no navegan por las crisis ocasionales, sino que operan en un estado de perma-crisis.