Para Tyler Kay y Jordan Parlour, la justicia por lo que publicaron en las redes sociales ha llegado rápido y pesado.
Kay, de 26 años, y Parlour, de 28, han sido condenados a 38 meses y 20 meses de prisión respectivamente por incitar al odio racial en línea durante los disturbios de verano.
Los cargos después del desorden se sentían como un momento significativo, en el que la gente tenía que hacer frente a las consecuencias de la vida real por lo que dijeron e hicieron en línea.
Se reconoció ampliamente que las afirmaciones falsas y el odio en línea contribuían a la violencia y el racismo en las calles británicas en agosto.
A su paso, el primer ministro Keir Starmer dijo que las redes sociales “llevan la responsabilidad” de abordar la desinformación.
Más de 30 personas fueron arrestadas por publicaciones en las redes sociales.
Por lo que he encontrado, al menos 17 de ellos han sido acusados.
La policía habrá considerado que algunas de las personas investigadas no cumplían el umbral de criminalidad.
Y en muchos casos, el sistema legal podría ser la manera equivocada de lidiar con las publicaciones en las redes sociales.
Pero algunas publicaciones que no cruzaron la línea hacia la delincuencia pueden haber tenido consecuencias reales.
Así, pues, para los que los hicieron, no hay día de cuentas.
Y, al parecer, tampoco para los gigantes de las redes sociales cuyos algoritmos, una y otra vez, son acusados de priorizar el compromiso sobre la seguridad, empujando el contenido independientemente de la reacción que pueda provocar.
En el momento de los disturbios, me había preguntado si este podría ser el momento que finalmente cambió el paisaje en línea.
Ahora, sin embargo, no estoy tan seguro.
Para dar sentido al papel de los gigantes de las redes sociales en todo esto, es útil empezar por mirar los casos de un padre en Pakistán y una mujer de negocios de Chester.
En X (anteriormente conocido como Twitter) un sitio web de pseudonoticias llamado Channel3Now publicó un nombre falso de la joven de 17 años acusada de los asesinatos de tres niñas en Southport.
Este nombre falso fue entonces ampliamente citado por otros.
Otro cartel que compartió el nombre falso en X fue Bernadette Spofforth, una joven de 55 años de Chester con más de 50.000 seguidores.
Anteriormente había compartido publicaciones que planteaban preguntas sobre el bloqueo y las medidas de cambio climático netamente cero.
Los posts de Channel3Now y la Sra. Spofforth también sugirieron erróneamente que el joven de 17 años era un solicitante de asilo que había llegado al Reino Unido en barco.
Todo esto, combinado con otras afirmaciones falsas de otras fuentes de que el atacante era musulmán, fue ampliamente culpado por contribuir a los disturbios, algunos de los cuales estaban dirigidos contra mezquitas y solicitantes de asilo.
Encontré que Channel3Now estaba conectado con un hombre llamado Farhan Asif en Pakistán, así como un jugador de hockey en Nueva Escocia y alguien que afirmaba ser llamado Kevin.
El sitio parecía ser una operación comercial que buscaba aumentar las vistas y vender anuncios.
En ese momento, una persona que afirmaba ser de la dirección de Channel3Now me dijo que la publicación del nombre falso “era un error, no intencional” y negó ser el origen de ese nombre.
Y la Sra. Spofforth me dijo que borró su post falso sobre el sospechoso tan pronto como se dio cuenta de que era falso.
También negó firmemente haber inventado el nombre.
Entonces, ¿qué pasó después?
Farhan Asif y Bernadette Spofforth fueron arrestados por estos cargos no mucho después de que hablé con ellos.
Sin embargo, los cargos fueron retirados.
Las autoridades de Pakistán dijeron que no podían encontrar pruebas de que el Sr. Asif fuera el iniciador del nombre falso.
La policía de Cheshire también decidió no acusar a la Sra. Spofforth debido a “pruebas insuficientes”.
El Sr. Farhan parece haber caído al suelo.
Se han eliminado el sitio Channel3Now y varias páginas de redes sociales conectadas.
Bernadette Spofforth, sin embargo, está volviendo a publicar regularmente en X.
Sólo esta semana ella ha tenido más de un millón de vistas a través de sus puestos.
Dice que se ha convertido en una defensora de la libertad de expresión desde su arresto.
Ella dice: Como se ha demostrado ahora, la idea de que un solo tuit podría ser el catalizador de los disturbios que siguieron a las atrocidades en Southport simplemente no es verdad.
Centrarse en estos casos individuales puede ofrecer una valiosa visión de quién comparte este tipo de contenido y por qué.
Pero para llegar al centro del problema, es necesario dar un paso más atrás.
Mientras que la gente es responsable de sus propios posts, he encontrado una y otra vez que esto es fundamentalmente acerca de cómo funcionan los diferentes sitios de redes sociales.
Las decisiones tomadas bajo el mandato de Elon Musk, el propietario de X, también son parte de la historia.
Estas decisiones incluyen la capacidad de comprar garrapatas azules, que dan mayor protagonismo a sus publicaciones, y un nuevo enfoque de la moderación que favorece la libertad de expresión sobre todo.
El jefe de la policía contra el terrorismo del Reino Unido, el Comisario Adjunto Matt Jukes, me dijo para el Newscast de la BBC que “X era un enorme conductor” de publicaciones que contribuyeron al desorden del verano.
Un equipo que supervisa llamado Unidad de Remisión de Internet notó “el efecto desproporcionado de ciertas plataformas”, dijo.
Él dice que hubo unas 1.200 remisiones - puestos marcados a la policía por miembros del público - sólo en relación con los disturbios.
Para él eso era “sólo la punta del iceberg”.
La unidad vio 13 veces más referencias en relación con X que TikTok.
Actuar sobre un contenido que es ilegal y en violación de las leyes de terror es, en un sentido, lo más fácil.
Más difícil de abordar son los puestos que caen en lo que el señor Jukes llama la categoría “legal pero horrible”.
La unidad señala ese material a sitios en los que fue publicado cuando cree que viola sus términos y condiciones.
Pero el Sr. Jukes encontró a Telegram, anfitrión de varios grandes grupos en los que el desorden se organizaba y el odio y la desinformación eran compartidos, difíciles de manejar.
En opinión del Sr. Jukes, Telegram tiene la “determinación de no comprometerse” con las autoridades.
Elon Musk ha acusado a las fuerzas del orden en el Reino Unido de tratar de proteger las opiniones sobre cuestiones como la inmigración y ha habido acusaciones de que las medidas adoptadas contra carteles individuales han sido desproporcionadas.
El Sr. Jukes responde: “Le diría esto a Elon Musk si estuviera aquí, no estábamos arrestando a gente por tener opiniones sobre inmigración.
[La policía] fue y arrestó a la gente por amenazar con quemar mezquitas u hoteles o incitar a otros a hacerlo”. Pero mientras que la rendición de cuentas se ha sentido en “el extremo muy agudo” por aquellos que participaron en el desorden y publicaron contenido odioso en línea, el Sr. Jukes dijo “las personas que ganan miles de millones de dólares de proporcionar esas oportunidades” para publicar contenido dañino en las redes sociales “no han pagado ningún precio en absoluto”.
Quiere que la Ley de seguridad en línea que entra en vigor a principios de 2025 se refuerce para que pueda tratar mejor con contenido que es “legal pero horrible”.
Telegram dijo a la BBC “no hay lugar para llamadas a la violencia” en su plataforma y dijo “moderadores removieron canales del Reino Unido pidiendo desorden cuando fueron descubiertos” durante los disturbios.
“Mientras que los moderadores de Telegram eliminan millones de piezas de contenido dañino cada día, los números de usuario de casi mil millones causan ciertos dolores crecientes en la moderación de contenido, a lo que nos estamos enfrentando actualmente”, dijo un portavoz.
También me puse en contacto con X, que no respondió a los puntos planteados por la BBC.
X continúa compartiendo en sus directrices de acceso público que su prioridad es proteger y defender la voz de los usuarios.
Casi todas las investigaciones que hago ahora vuelven al diseño de los sitios de redes sociales y cómo los algoritmos empujan contenido que desencadena una reacción, generalmente independientemente del impacto que pueda tener.
Durante el desorden los algoritmos amplificaron la desinformación y el odio a millones, atrayendo a nuevos reclutas e incentivando a la gente a compartir contenido controvertido para opiniones y gustos.
¿Por qué eso no cambia?
Bueno, por lo que he encontrado, las empresas tendrían que ser obligadas a alterar sus modelos de negocio.
Y para los políticos y reguladores, eso podría ser un gran desafío.
BBC InDepth es el nuevo hogar en el sitio web y la aplicación para el mejor análisis y experiencia de nuestros mejores periodistas.
Bajo una nueva marca distintiva, le traeremos nuevas perspectivas que desafían las suposiciones, y un profundo reporte sobre los mayores problemas para ayudarle a tener sentido de un mundo complejo.
Y vamos a mostrar contenido que incita a la reflexión de todo BBC Sounds e iPlayer también.
Estamos empezando pequeño pero pensando en grande, y queremos saber lo que usted piensa - usted puede enviarnos sus comentarios haciendo clic en el botón de abajo.