Wired, por Gilad Edelman: Las plataformas de redes sociales estadounidenses llevan mucho tiempo tratando de presentarse como lugares de libre expresión sin restricciones. Hace una década, los empleados de Twitter solían calificar a la startup como «el ala de la libertad de expresión del partido de la libertad de expresión». A finales de 2019, Mark Zuckerberg pronunció un discurso en el que defendió la lealtad de Facebook a los principios de la Primera Enmienda -incluyendo su reiterada creencia de que las plataformas no deben ser «los árbitros de la verdad.»
La pandemia se burló de esa idea. En el contexto de una emergencia de salud pública mundial, empresas como Facebook, Twitter y Google empezaron a eliminar publicaciones que contenían información engañosa sobre el coronavirus, lo que les obligó a emitir juicios sobre la verdad y la falsedad. Las elecciones presidenciales las arrastraron aún más al trabajo de comprobación de hechos. En la primavera de 2020, Twitter ya aplicaba etiquetas de advertencia a la cuenta de Donald Trump y, en verano, todas las plataformas pregonaban sus esfuerzos proactivos contra la desinformación electoral.
Evelyn Douek es estudiante de doctorado en la Facultad de Derecho de Harvard y está afiliada al Berkman Klein Center for Internet & Society. Como académica australiana, aporta una perspectiva internacional a las cuestiones de libertad de expresión. En un nuevo artículo publicado en la Columbia Law Review, sostiene que la pandemia ha puesto de manifiesto la falsedad de las pretensiones de las plataformas de las redes sociales sobre el absolutismo de la libertad de expresión al estilo estadounidense. Es hora, escribe, de reconocer que «el enfoque de la gobernanza de la expresión en línea inspirado en la Primera Enmienda que dominaba en los primeros tiempos de Internet ya no es válido. En su lugar, las plataformas están ahora firmemente en el negocio de equilibrar los intereses de la sociedad».
En una conversación mantenida la semana pasada, Douek explicó por qué es bueno el cambio a un enfoque más «proporcional» de la expresión en línea, por qué las plataformas deben proporcionar más transparencia en sus sistemas de moderación y los peligros de confundir las cebollas con pechos. La entrevista ha sido condensada y editada para mayor claridad.
WIRED: En este artículo establece una distinción entre dos formas de concebir la moderación de contenidos. La primera es más bien un enfoque estadounidense, inspirado en la Primera Enmienda, así que empecemos por ahí. ¿Cuáles son sus principales características?
Evelyn Douek: Es parte de la tradición de la moderación de contenidos, que comenzó con estos abogados estadounidenses en Silicon Valley inspirados por el excepcionalismo de la Primera Enmienda. Estas ideas de que no deberían ser los árbitros de la verdad del contenido, que el mejor remedio para el discurso es más discurso, y que sus plataformas deberían ser como el mercado de ideas por excelencia, donde los usuarios llegaban a la verdad con su maravilloso discurso público.
Así que esas son las ideas que invocaron. Y esta idea de que no deben estar en el negocio de mirar el discurso particular y el equilibrio de su costo social, o la verdad de la misma. Ahora, eso siempre fue un poco de un mito y un poco de teatro, porque, por supuesto, la moderación del contenido ha estado ahí desde el principio. Siempre han eliminado ciertas categorías de discurso, como la pornografía, el spam y cosas así, que habrían convertido sus sitios en basurales.
Acabas de utilizar una palabra muy importante en tu artículo, que es «categorías». Uno de los puntos que usted señala es que, en este enfoque al estilo de la Primera Enmienda, las distinciones son más categóricas. ¿Puede dar un ejemplo de una decisión de moderación de contenidos que encarne esa forma de ver las cosas?
Sí, esto es realmente importante, porque es una de las características definitorias de la jurisprudencia estadounidense sobre la libertad de expresión que el resto del mundo ha mirado y ha dicho: «Mmm, no tanto». Es un poco técnico, y para desglosarlo, tomemos, por ejemplo, la desnudez adulta.
La forma en que comenzó [para las redes sociales] fue bastante poco sofisticada. Era como, «Si hay tetas, quítalo». Ese fue el enfoque dominante durante un tiempo. Y luego la gente decía: «Espera, estás eliminando un montón de cosas que tienen valor social. Como la gente que crea conciencia sobre el cáncer de mama, o la gente que amamanta, que no debería ser estigmatizada. O, en un montón de culturas, la desnudez adulta y los pechos son un tipo de expresión perfectamente normal, aceptada y celebrada. Así que poco a poco esta categoría de la desnudez adulta se convirtió, en primer lugar, insostenible como una categoría absoluta. Así que se dividió en distinciones cada vez más finas que ya no parecen ser una categoría sólida, sino que se parecen mucho más a: «De acuerdo, tomaremos estos casos cada vez más finos y haremos un balance, ¿cuál es el coste social de esto, ¿cuál es el beneficio, y cómo deberíamos reconciliarlo y enfocarlo de una manera más proporcionada?
Así que parece que lo que estás diciendo es que un enfoque categórico de la moderación de contenidos intenta trazar líneas muy claras en torno a ciertas categorías de mensajes que no están permitidos, frente a todo lo demás que está permitido. Pero con el tiempo, tienes que seguir cortando estas categorías cada vez más finas. Y en un cierto punto, tal vez es difícil decir exactamente dónde, deja de parecer una verdadera categoría en absoluto, porque los juicios tienen que ser tan matizados.
Sí, eso es básicamente. Tomemos otra categoría: el discurso falso. Esa fue una categoría que fue, como, absolutamente protegida por las plataformas casi universalmente para la historia de la moderación de contenidos. Era como, «El hecho de que es falso no es suficiente para que nos involucremos y no vamos a mirar más allá. ‘Sólo es falso’ no es una razón por la que vamos a investigar el valor de ese discurso».
La pandemia realmente cambió eso. Por primera vez, las plataformas salieron a decir que el coste de este falso discurso en torno a la desinformación de Covid es demasiado alto en el contexto de una emergencia de salud pública, por lo que lo retiraremos para esta pequeña categoría. Y se les recompensó bastante por ello. Su colega de WIRED publicó un artículo que decía: «¿Ha matado el coronavirus al techlash?» Hubo un par de semanas en marzo donde las plataformas fueron «buenas» de nuevo, porque estaban tomando toda esta acción, y como que aprendieron esta lección. De repente, a finales de 2020, Facebook está haciendo cosas como prohibir la negación del Holocausto, que en los primeros días del paradigma de la Primera Enmienda de proteger el discurso y no mirar el discurso falso habría sido impensable. Ese era el tipo de apego más simbólico a ese enfoque de estilo americano. Y ahora dicen: «No, los costos de ese tipo de discurso falso son demasiado altos, no son compensados por los beneficios, y por lo tanto, al equilibrar esos costos y beneficios, vamos a empezar a eliminarlo».
El ejemplo de la negación del Holocausto es realmente interesante por varias razones. A medida que estas empresas se han vuelto más globales, han absorbido más ideas internacionales sobre cómo tratar esto porque la tradición estadounidense es esta anomalía histórica mundial. Nadie más lo hace como nosotros.
Lo que nos lleva al segundo enfoque de la moderación de contenidos sobre el que usted escribe. ¿Cuál es la forma más internacional de pensar en esto que estamos viendo cada vez más en la forma en que las plataformas tratan el discurso de los usuarios?
La tradición de la Primera Enmienda no es sólo sustancialmente excepcional, no es sólo que sea más protectora que otras jurisdicciones. También es metodológicamente excepcional en ese enfoque categórico.
En casi todas las demás jurisdicciones, existe este enfoque de proporcionalidad, que dice: «Sí, de acuerdo, comenzamos con la propuesta de que el discurso debe ser protegido; sin embargo, cualquier sistema maduro de libertad de expresión tiene que reconocer que hay ciertas circunstancias en las que el discurso debe ser restringido. ¿Cómo pensamos en ello? Bueno, lo primero que tenemos que hacer es preguntarnos cuál es la razón por la que se restringe esa expresión. No puede ser simplemente «no me gusta», tiene que haber algún tipo de interés convincente. Y luego la pregunta tiene que ser, ¿se restringe lo menos posible? Por ejemplo, puede que no sea necesario prohibirlo por completo. Puede ser que se pueda restringir de otras maneras que sean más proporcionadas. Y, además, la forma de restringirla tiene que ser realmente efectiva para conseguir el objetivo por el que dices que la has restringido.
A finales de 2019, Mark Zuckerberg dio un discurso en Georgetown en el que realmente vinculó a Facebook con los principios de la Primera Enmienda. Por supuesto, Facebook es una empresa privada; no se rigen literalmente por la Primera Enmienda. Pero Zuckerberg salió a decir que ellos eligen guiarse por los valores de la Primera Enmienda de todos modos.
La negación del Holocausto es un muy buen ejemplo de cómo no es el caso. En los Estados Unidos, no puedes ser castigado por el gobierno por decir que el Holocausto no ocurrió. En otros lugares, especialmente en Europa, sí. Así que el cambio de política de Facebook en este sentido parece una gran ruptura de sus compromisos anteriores con la Primera Enmienda. Una cuestión interesante que se plantea es si se trata de un ejemplo de que Facebook ha hecho un balance de los beneficios frente a los daños y ha llegado a una conclusión diferente, o es sólo un ejemplo de que la empresa ha cedido a la presión pública y a las críticas y se ha cansado de tener que defender esta cosa que es impopular de todos modos.
La negación del Holocausto es un buen ejemplo de que eso no es así. En Estados Unidos, el gobierno no puede castigarte por decir que el Holocausto no ocurrió. En otros lugares, especialmente en Europa, sí. Así que el cambio de política de Facebook en este sentido parece una gran ruptura de sus compromisos anteriores con la Primera Enmienda. Una cuestión interesante que se plantea es si esto es un ejemplo de que Facebook está haciendo un balance de los beneficios frente a los daños y llegando a una conclusión diferente, o es sólo un ejemplo de que la empresa se inclina ante la presión pública y las críticas y se cansa de tener que defender esta cosa que es impopular de todos modos.
Eso es lo que pasa con la decisión sobre la negación del Holocausto: es una decisión tan simbólica, porque en cierto modo ya se habían dedicado a eliminar el discurso falso por otras razones, como la pandemia. Pero realmente se aferraron a esta negación del Holocausto porque es el símbolo más famoso de la tradición de la libertad de expresión estadounidense. Uno de los momentos más orgullosos de la historia de la libertad de expresión americana es que se permitió a los nazis marchar en Skokie. Es como una de las primeras cosas que aprendes sobre la libertad de expresión americana. Así que fue una decisión realmente simbólica para Facebook aferrarse a eso tan firmemente, incluso cuando la marea se volvió en contra públicamente.
Y luego la revocación de la decisión mostró una ruptura con esa tradición. La cuestión de si se trata de una decisión basada en principios, ¿creo que los abogados de Facebook están leyendo un montón de teoría sobre los métodos de adjudicación y mirando el enfoque categórico y el enfoque de proporcionalidad y llegando a algún tipo de comprensión jurisprudencial profunda sobre los beneficios de un enfoque sobre el otro? No, no lo creo. No creo que eso sea lo que está ocurriendo aquí. Definitivamente creo que la presión pública, por supuesto, es el principal motor de esto.
Pero, hasta cierto punto… ¡está bien! Así es como se produce el cambio social. Los tribunales también responden a la presión pública de diferentes maneras. La razón por la que quiero llamar la atención sobre el hecho de que ahora están en el negocio de equilibrar, ya sea sobre la base de la opinión pública o no, es porque, una vez que empezamos a aceptar eso y lo miramos más de cerca, podemos decir, ¿están realmente equilibrando nuestros intereses, o están equilibrando sus propios intereses? Y tienen que hacer que esos argumentos sean más convincentes.
Usted sostiene en el documento que el cambio a la proporcionalidad es bueno. ¿Por qué es mejor el enfoque proporcional?
Una de las cosas en las que el enfoque de la proporcionalidad es realmente fuerte es que todavía hay que restringir de la manera menos restrictiva. Y uno de los defectos del enfoque categórico es que hace que las medidas a medias parezcan un mero apaño. Es como si dijeras que esto ya no es una categoría de expresión protegida, ¿por qué no te deshaces de ella?
Si pretendes no ver los costes sociales de forma tan detallada, se hace muy difícil justificar las medias tintas o los diferentes tipos de respuestas a los diferentes tipos de discurso. Pero la mayor parte de la moderación de contenidos que se está llevando a cabo ahora, se aleja de esta fuerza contundente, de quitar/dejar el falso binario. Estamos viendo todo este tipo de medidas intermedias que personalmente encuentro mucho más emocionantes. Cosas como las etiquetas, la introducción de la fricción, la comprobación de los hechos; cosas como las pantallas de advertencia, tratando de promover el discurso contrario. Creo que ese es un camino más prometedor, y así, en cierto sentido, el enfoque de la proporcionalidad podría ser más protector del discurso porque requerirá que las plataformas busquen esas respuestas menos restrictivas y más proporcionadas a los daños.
Este debería ser uno de los momentos más emocionantes para la jurisprudencia y las normas sobre la libertad de expresión. La ley de libertad de expresión siempre se ha basado, básicamente, en hipótesis empíricas que nunca hemos podido probar. Por ejemplo, ¿cuál es el «efecto de enfriamiento» de esta norma? Vamos a suponer que si se prohíbe este tipo de discurso se va a enfriar todo este otro tipo de discurso y eso es un coste demasiado alto, no podemos hacerlo. Pero nadie ha sabido nunca eso; eso es sólo una opinión de algunos jueces que dicen: «¿Sabes qué? Creo que eso es probablemente lo que va a pasar». Y luego tenemos toda esta doctrina de «efectos escalofriantes».
Por primera vez en la historia de la humanidad, podemos medir muchas de estas cosas con una cantidad emocionante de precisión. Todos estos datos existen, y las empresas están constantemente evaluando, ¿cuáles son los efectos de nuestras normas? Cada vez que elaboran una norma, prueban sus efectos y posibilidades de aplicación. El problema es, por supuesto, que todo está bloqueado. Nadie tiene acceso a ella, excepto la gente de Silicon Valley. Así que es muy emocionante, pero también muy frustrante.
Esto enlaza con lo que quizá sea lo más interesante para mí de tu artículo, que es el concepto de pensamiento probabilístico. Gran parte de la cobertura y el debate sobre la moderación de contenidos se centra en anécdotas, como suelen hacer los humanos. Como: «Este contenido, Facebook dijo que no estaba permitido, pero fue visto 20.000 veces». Un punto que usted hace en el documento es que la moderación perfecta del contenido es imposible a escala, a menos que simplemente se prohíba todo, lo que nadie quiere. Tienes que aceptar que habrá una tasa de error. Y cada elección es sobre qué dirección quieres que vaya la tasa de error: ¿Quieres más falsos positivos o más falsos negativos?
El problema es que si Facebook sale y dice: «Oh, ya sé que eso parece malo, pero en realidad nos hemos librado del 90% de las cosas malas», eso no satisface a nadie, y creo que una de las razones es que nos quedamos con las palabras de estas empresas.
Totalmente. No tenemos ni idea. Quedamos a merced de ese tipo de declaraciones en una entrada de blog.
Pero hay un grano de verdad. Como, Mark Zuckerberg tiene esta línea que está rodando todo el tiempo ahora en cada testimonio del Congreso y entrevista. Es como, la policía no resuelve todo el crimen, no puedes tener una ciudad sin crimen, y no puedes esperar un tipo de aplicación perfecta. Y hay un grano de verdad en eso. La idea de que la moderación de contenidos será capaz de imponer el orden en todo el desorden de la expresión humana es una quimera, y hay algo bastante frustrante, poco realista e improductivo en las constantes historias que leemos en la prensa sobre: «Aquí hay un ejemplo de un error, o un cubo de errores, de esta regla que no se aplica perfectamente».
Porque la única forma de conseguir una aplicación perfecta de las normas sería prohibir cualquier cosa que se parezca remotamente a algo así. Y entonces tendríamos cebollas que se quitarían porque se parecen a las tetas, o lo que sea. Tal vez algunos no estén tan preocupados por la libertad de expresión de las cebollas, pero hay otros ejemplos peores.
No, como alguien que ve muchos videos de cocina-
Eso sería un alto costo a pagar, ¿no?
Veo muchas más imágenes de cebollas que de pechos en Internet, así que eso me afectaría mucho.
Sí, exactamente, por lo que la camarilla de la libertad de expresión para las cebollas es fuerte.
Yo estoy en él.
Tenemos que aceptar los errores de una manera u otra. Así que el ejemplo que utilizo en mi artículo es en el contexto de la pandemia. Creo que es súper útil, porque lo deja muy claro. Al principio de la pandemia, las plataformas tuvieron que enviar a sus trabajadores a casa como todo el mundo, y esto significa que tuvieron que aumentar su dependencia de las máquinas. No tenían tantos humanos haciendo comprobaciones. Y por primera vez, fueron realmente sinceros sobre los efectos de eso, que es: «Oye, vamos a cometer más errores». Normalmente, salen y dicen, «Nuestras máquinas, son tan grandes, son mágicas, van a limpiar todo esto». Y luego, por primera vez fueron como, «Por cierto, vamos a hacer más errores en el contexto de la pandemia». Pero la pandemia hizo el espacio para que ellos dijeran eso, porque todo el mundo estaba como, «¡Bien, comete errores! Tenemos que deshacernos de estas cosas». Y así se equivocaron en el lado de más falsos positivos en la eliminación de la desinformación, porque el coste social de no usar las máquinas en absoluto era demasiado alto y no podían confiar en los humanos.
En ese contexto, aceptamos la tasa de error. Leímos historias en la prensa acerca de cómo, por ejemplo, en la época en que las máscaras eran malas, y estaban prohibiendo los anuncios de máscaras, sus máquinas accidentalmente aplicaron esto y también eliminaron a un montón de fabricantes de máscaras voluntarios, porque las máquinas eran como, «Las máscaras son malas; elimínalas». Y es como, OK, no es ideal, pero al mismo tiempo, ¿qué opción quieres que hagan allí? A escala, donde hay literalmente miles de millones de decisiones, todo el tiempo, hay algunos costos, y estábamos marginando algunos anuncios de máscaras, y por lo que creo que es un compromiso más razonable para hacer.
Pero ese no es el tipo de conversación que tenemos. Tenemos este ejemplo de errores individuales que se presentan como problemas. Y puede ser que los errores sean demasiado elevados. No quiero decir que el hecho de que tengamos que aceptar los errores signifique que tengamos que aceptar todos los errores, y hay muchas pruebas de que los índices de error no son lo suficientemente buenos en muchos tipos de categorías. Pero esa es la conversación que tenemos que tener, ese es el territorio incómodo en el que tenemos que vivir.
Bien, y por eso se vuelve a la transparencia. Las empresas no comparten esta información de forma útil y exhaustiva, por lo que las personas ajenas a las empresas se encuentran en una situación interminable de tener que buscarla por sí mismas y confiar en anécdotas individuales.
Las plataformas deben abrirse y ser más sinceras al respecto. Y diré que estamos avanzando en esa dirección.
Así que Facebook, el año pasado, por primera vez, comenzó a informar de la prevalencia de la incitación al odio, es decir, «¿Cuánta incitación al odio se nos escapó? El usuario promedio, ¿cuánto discurso de odio vio en Facebook, incluso después de haber hecho nuestra moderación de contenido? Y eso es básicamente una tasa de error. Y YouTube, hace un par de semanas, por primera vez, comenzó a informar de esto también. Esa es una medida de transparencia mucho más significativa que, «Quitamos tanto discurso de odio». Genial, buen trabajo, chicos, ¿es el 2% del discurso de odio o es el 98% del discurso de odio? Quién sabe.
Así que la métrica de la prevalencia es útil, y por lo tanto también incentiva las respuestas correctas. Una de las cosas realmente interesantes es que el informe de transparencia de Facebook a principios de este año dijo: «Redujimos la prevalencia del discurso de odio», y ¿cómo lo hicieron? Lo hicieron, no mediante la aplicación excesiva o la eliminación de mucho más, sino ajustando la clasificación en su News Feed, que es una respuesta más proporcionada y mejor para arreglar ese tipo de problema. Así que nos estamos moviendo en la dirección correcta, pero necesitamos mucho más acceso a los datos.
¿Por qué hablar de la moderación de contenidos? ¿Qué pueden lograr los enfoques más ilustrados de la moderación de contenidos para que nos importe?
Creo que nos centramos demasiado en la moderación de contenidos, o ejercemos demasiada presión sobre ella para arreglar cosas que son mucho más importantes que la moderación de contenidos. Y eso es en parte porque es la palanca más obvia de la que tirar. Las cosas que están en las plataformas son la expresión más visible de otros problemas sociales, y entonces la moderación de contenidos está justo ahí y podría deshacerse de esa expresión visible. Esto vuelve a mi meta-argumento, que no creo que la moderación de contenidos pueda resolver los problemas sociales, y creo que es una palanca limitada para tirar.
Pero sigo teniendo una razón para levantarme y hacer el trabajo que hago cada día y escribir estos largos artículos, porque aunque es una parte del problema mucho más pequeña de lo que pensamos, creo que es realmente importante. Decir que la moderación de contenidos no puede arreglar el desmoronamiento del Partido Republicano, o la pandemia, o el aislamiento social, no es decir que no pueda tener impactos reales, significativos e importantes. Hay ciertos casos en los que los efectos de la moderación de contenidos son realmente visibles. Por ejemplo, podemos hablar de una moderación inadecuada en sociedades en conflicto, o de la eliminación de pruebas de crímenes de guerra. Esto es algo muy importante. También es una expresión de los valores sociales, y es un lugar donde discutimos sobre lo que pensamos como sociedad en torno a las normas, y lo que es aceptable. Y son debates importantes sobre cuál debe ser la forma de nuestra esfera pública, y creo que eso es realmente emocionante. Me gusta estar en este espacio porque es un lugar realmente emocionante, y podemos impulsarlo hacia un mundo mejor.
Tengo muchas esperanzas de que no vamos a estar a los caprichos de Mark Zuckerberg y Jack Dorsey por el resto de sus vidas naturales. Creo que va a haber más disrupción y cambios en este espacio de lo que podemos imaginar. Estas empresas son todavía muy jóvenes, toda esta idea es todavía muy joven.
Pero no creo que esa cuestión fundamental de «necesitamos una forma de pensar sobre los contenidos en Internet y las normas que los rigen», no creo que desaparezca nunca, y por eso tenemos que empezar a desarrollar las normas en torno a eso. Tenemos que reconocer que estamos equilibrando los intereses de la sociedad, vamos a tener tasas de error. Una vez que nos pongamos de acuerdo al respecto, podremos empezar a hablar con propiedad sobre lo que estamos haciendo.
Nuestro comentario:
La libertad de expresión es fundamental para la libertad de conciencia. La libertad de expresión y de conciencia está siendo erosionada persistentemente y está desapareciendo gradualmente. Este es un principio que el Vaticano quiere implementar para aumentar su poder a medida que asciende a la supremacía.
Conexión Profética:
“La Constitución de los Estados Unidos garantiza la libertad de conciencia. Nada hay más precioso ni de importancia tan fundamental. El papa Pío IX, en su encíclica del 15 de agosto de 1854, dice: ‘Las doctrinas o extravagancias absurdas y erróneas en favor de la libertad de conciencia, son unos de los errores más pestilentes: una de las pestes que más se debe temer en un estado.’” El Conflicto de los Siglos, pág. 620.
Comments