Has elegido la edición de . Verás las noticias de esta portada en el módulo de ediciones locales de la home de elDiario.es.

Cuando los algoritmos están fuera de la ley: claves del juicio que puede cambiar internet

El dueño de Twitter, Elon Musk, en una fotografía de archivo.

Cristina F. Pereda

0

El Tribunal Supremo de Estados Unidos estudió esta semana dos casos judiciales que pueden alterar drásticamente el funcionamiento de las plataformas tecnológicas y las reglas de Internet. En juego está la inmunidad que han tenido hasta ahora empresas como Google, Meta o Twitter por transmitir el contenido que publican los usuarios. Y, según alegan estas plataformas, también se decide el futuro de la libertad de expresión. 

Los dos casos son pioneros y han sido debatidos este martes y miércoles ante los nueve magistrados. “No somos precisamente los mayores expertos de Internet”, ha reconocido la jueza progresista Elena Kagan, que sin embargo sí supo presentar con claridad la duda legal en cuestión: “si una ley anterior a los algoritmos sirve para regular un mundo de algoritmos”. 

Las audiencias han estudiado dos demandas planteadas por familiares de víctimas de atentados terroristas perpetrados por el Estado Islámico. En una de ellas, los padres de Nohemi González, víctima de los atentados de París en 2015, han alegado que Google debe asumir responsabilidades legales por recomendar a los usuarios vídeos de su subsidiaria, YouTube, “que jugaron un papel decisivo en el reclutamiento de terroristas en Oriente Medio y para cometer atentados en sus países”, dice la demanda.  

En la otra, la familia de otra víctima hace un alegato similar, pero esta vez contra Twitter. Los padres de Nawras Alassaf, víctima de un atentado de ISIS en Turquía en 2017, han argumentado que la plataforma conocía que la organización terrorista la usaba para expandirse y que es responsable de no haber tomado medidas suficientes para impedirlo. Una corte federal ya les dio la razón y Twitter pidió al Supremo que se pronunciase para aclarar el caso.

Los algoritmos de recomendación entran en juego

El argumento de los demandantes en ambas querellas es que las plataformas no quedan totalmente eximidas de responsabilidad porque ya no se limitan a publicar el contenido que crean sus usuarios. “Los algoritmos están en todas partes y la cuestión es qué hacen con ellos las plataformas”, ha insistido durante el juicio el abogado de la familia que se ha querellado contra Google. 

Ni Twitter, ni Facebook ni Google transmiten simplemente los mensajes, fotos y vídeos, porque desde 2006 adoptaron un sistema de algoritmos que recomienda a cada usuario el contenido que consideran que puede ser más relevante. Esa “recomendación” implica que las plataformas ya conocen el material y lo valoran, por lo que –según la acusación– también deben asumir responsabilidad legal por ello. 

Se trata de la primera vez que la máxima instancia judicial de EEUU se pronuncia sobre este aspecto. Los dos casos llegan además en un momento de división política acerca de esta regulación –los demócratas son partidarios de limitar la inmunidad de las plataformas y los republicanos, de ampliarla aún más–, y las tecnológicas han activado todas las alarmas: casi 50 empresas, organizaciones en defensa de la libertad de expresión y expertos han presentado alegaciones en defensa de las plataformas.

Las principales empresas se han manifestado en contra de los demandantes porque quieren mantener su inmunidad legal. “Prácticamente todas las decisiones sobre cómo elegir, organizar y presentar las publicaciones de los usuarios pueden ser descritas como una ‘recomendación’ de ese contenido”, alega Meta en el argumento escrito presentado ante el Supremo.

Sin embargo, incluso su dueño, Mark Zuckerberg, avanzó en una comparecencia reciente que “tendría sentido establecer responsabilidades por ciertos mensajes” y que Facebook “se beneficiaría de unas pautas más claras”. En juego está la decisión sobre su responsabilidad por permitir a los usuarios publicar determinados mensajes, por recomendarlos después al resto de la red y por no actuar para eliminar contenido cuando se trata, por ejemplo, de vídeos de ISIS. 

Este martes, la abogada de Google, Lisa S. Blatt, ha argumentado ante la Corte que los algoritmos son ya una herramienta inseparable del funcionamiento de estas plataformas y que abrir la puerta a este tipo de demandas “pone en riesgo el Internet moderno”. Según Blatt, la ley que exime a las plataformas actualmente contiene “las 26 palabras que crearon el Internet moderno”.

¿Qué dice la legislación actual?

Las tecnológicas que basan su negocio en la publicación de contenido creado por terceros están protegidas por una norma conocida como la Sección 230 de la Ley de Decencia en las Comunicaciones. “Ningún proveedor o usuario de un servicio informático interactivo” –como Google, Facebook o Twitter– “será tratado como editor o difusor de información facilitada por otro proveedor de contenidos informativos”, dice la ley.

Pero la Sección 230 pertenece a una norma de 1996. Internet apenas había iniciado su andadura en EEUU, quedaba casi una década para el nacimiento de Facebook (2004) y para la propagación de los algoritmos que nos sirven el contenido casi de manera personalizada. En 1996 había apenas 40 millones de usuarios de Internet en el mundo. Hoy hay 4.000 millones de usuarios y 1.700 millones de páginas web. Y es prácticamente imposible separar el concepto de un buscador o una red social de las fórmulas de recomendación en las que basan gran parte de su funcionamiento y su negocio. 

Las leyes de EEUU se han adaptado desde los años 90 para determinar la responsabilidad de las plataformas en cuestiones concretas, como casos de pornografía infantil. Los demandantes a los que esta semana ha escuchado el Supremo quieren que ocurra lo mismo para mensajes publicados por grupos terroristas para difundir su ideología o reclutar efectivos, pero el temor es que una sentencia genérica acabe restringiendo las libertades de los usuarios. 

¿Qué defienden las empresas afectadas?

Google ha alegado este martes que “cualquier tipo de publicación requiere organizar el contenido”, por ejemplo, para determinar qué videos salen en la sección de recomendaciones de YouTube. “Ayudar a los usuarios es una necesidad existencial en Internet”, ha declarado su abogada ante los magistrados. 

Los abogados de Twitter han intentado comparar su labor con las de las compañías telefónicas, a las que no se puede demandar por el contenido de las llamadas de sus usuarios. Sin embargo, los jueces sí han presionado a la empresa para que explicara si Twitter –o una compañía similar– debe seguir disfrutando de esta inmunidad cuando tiene pleno conocimiento de un mensaje en el que el Estado Islámico está intentando reclutar efectivos y decide no hacer nada para que ese tuit deje de ser promocionado por sus algoritmos. 

Microsoft, por ejemplo, ha alegado que “las recomendaciones hacen que las plataformas sean útiles y efectivas” gracias a los algoritmos y que sin las protecciones legales de ahora, las plataformas “eliminarán cantidades importantes o incluso todo el contenido creado por terceros”, según el alegato presentado por los dueños de Bing ante el Supremo a favor de Google, “porque sea eliminado o porque quede escondido”. 

Lo mismo opina el Centro de Negocios y Derechos Humanos del Centro Stern de la Universidad de Nueva York. Su argumento en apoyo a Google ha alertado del peligro que supondría trazar la línea de la responsabilidad de las plataformas en el diseño de los algoritmos: “Podría resultar en la pérdida o el eclipse de cantidades masivas de contenido”, dice el texto. 

¿Qué tienen que demostrar las plataformas para ganar el caso?

Una corte federal ya estableció el año pasado que Twitter no había tomado “medidas suficientes” para impedir que el Estado Islámico utilizara la red social. Este miércoles, la jueza Elena Kagan ha planteado que la plataforma ayudó al grupo “al proporcionar un servicio con el conocimiento explícito de que lo iban a utilizar con fines terroristas”.

Twitter, como Google y Meta en la jornada anterior, defiende sin embargo que, a menos que en la red social esté circulando un mensaje que contiene específicamente la localización amenazada y en qué momento se vaya a producir un atentado, exigir responsabilidades a estas plataformas sería como culpar a la compañía telefónica con la que se comunicaron los terroristas para organizar un ataque.  

¿Qué tienen que ver estos casos con la libertad de expresión?

La libertad de expresión impide al Gobierno ejercer la censura, pero no restringe la actividad de empresas privadas: tanto Meta como Twitter tienen sus propias reglas de uso. Las mismas que les permitieron expulsar al entonces presidente Donald Trump. Sin embargo, una sentencia que dé la razón a los demandantes expondría a las plataformas a nuevas demandas por parte de usuarios.

De manera preventiva, las redes sociales podrían empezar a limitar contenido antes de publicarlo si consideran que puede derivar en una demanda posterior. “Algunas plataformas podrían esperar a publicar el contenido hasta que lo hubieran revisado sus moderadores”, alega el Instituto Knight de la Universidad de Columbia, una de las instituciones que han presentado argumentos en el caso.

“Otras podrían bloquear a usuarios que hablen o informen sobre grupos terroristas por temor a que se interprete como una ayuda, o podrían separar mensajes ‘buenos’ de otros ‘malos’”, asegura el texto presentado junto a varias organizaciones por los derechos civiles. “Cualquiera de las medidas eliminaría grandes cantidades de mensajes, privando a los usuarios de opiniones políticas diversas y cerrando canales de información todo para evitar incumplir una ley”. 

Los jueces, en su mayoría conservadores, pueden votar a favor de las plataformas y mantener sus protecciones actuales. Sin embargo, también pueden establecer un nuevo marco de definición de las responsabilidades de los algoritmos o pedir al Congreso de EEUU que redacte una regulación específica. Y ahí es cuando Internet entraría en un terreno desconocido.  

“Puede que no tuviéramos otra vez un movimiento como #MeToo ni volvamos a ver vídeos de violencia policial circulando tan rápidamente”, ha declarado la responsable del Centro de Política de Internet de la Universidad de Stanford a la revista ‘The New Yorker’. Según Keller, el contenido que ahora se vuelve viral con rapidez lo hace porque entra en ránkings elaborados por las plataformas para identificar lo más compartido por sus usuarios. Si cambia la legislación, cambiarán los algoritmos de recomendación y cambiarán también las redes sociales. 

Etiquetas
stats