Pour Tyler Kay et Jordan Parlour, la justice pour ce qu'ils ont posté sur les médias sociaux est devenue rapide et lourde.
Kay, 26 ans, et Parlour, 28 ans, ont été condamnés respectivement à 38 mois et 20 mois de prison pour avoir suscité la haine raciale en ligne pendant les émeutes d'été.
Les accusations à la suite du désordre se sont senties comme un moment important, dans lequel les gens ont dû faire face à des conséquences réelles pour ce qu'ils ont dit et fait en ligne.
On a largement reconnu que les fausses allégations et la haine en ligne contribuaient à la violence et au racisme dans les rues britanniques en août.
Dans leur sillage, le Premier ministre Keir Starmer a déclaré que les médias sociaux ont la responsabilité de lutter contre la désinformation.
Plus de 30 personnes se sont retrouvées arrêtées sur des postes de médias sociaux.
D'après ce que j'ai trouvé, au moins 17 d'entre eux ont été inculpés.
La police aura estimé que certaines de ces enquêtes n'atteignaient pas le seuil de la criminalité.
Et dans de nombreux cas, le système juridique pourrait être la mauvaise façon de traiter les messages sur les médias sociaux.
Mais certains postes qui n'ont pas franchi la ligne de la criminalité ont peut-être encore eu des conséquences réelles.
Ainsi, pour ceux qui les ont créés, aucun jour de compte.
Et il ne semble pas non plus, pour les géants des médias sociaux dont les algorithmes, maintes et maintes fois, sont accusés de prioriser l'engagement sur la sécurité, poussant le contenu quelle que soit la réaction qu'il peut provoquer.
Au moment des émeutes, je me demandais si ce pourrait être le moment qui a finalement changé le paysage en ligne.
Mais je ne suis pas si sûr.
Pour comprendre le rôle des géants des médias sociaux dans tout cela, il est utile de commencer par examiner les cas d'un père au Pakistan et d'une femme d'affaires de Chester.
Sur X (anciennement connu sous le nom de Twitter), un site pseudo-news appelé Channel3Now a publié un faux nom de l'enfant de 17 ans accusé des meurtres de trois filles à Southport.
Ce faux nom a alors été largement cité par d'autres.
Bernadette Spofforth, 55 ans de Chester avec plus de 50 000 adeptes, est une autre affiche qui a partagé le faux nom sur X.
Elle avait auparavant partagé des postes soulevant des questions sur le verrouillage et les mesures de lutte contre le changement climatique.
Les postes de Channel3Now et de Mme Spofforth ont également suggéré à tort que l'enfant de 17 ans était un demandeur d'asile qui était arrivé au Royaume-Uni par bateau.
Tout cela, combiné à d'autres affirmations fausses d'autres sources selon lesquelles l'agresseur était un musulman, a été largement blâmé pour avoir contribué aux émeutes - dont certaines visaient des mosquées et des demandeurs d'asile.
J'ai découvert que Channel3Now était connecté à un homme nommé Farhan Asif au Pakistan, ainsi qu'à un joueur de hockey en Nouvelle-Écosse et à quelqu'un qui prétendait s'appeler Kevin.
Le site semblait être une opération commerciale visant à augmenter les vues et à vendre des publicités.
À l'époque, une personne prétendant être de la direction de Channel3Now, m'a dit que la publication du faux nom était une erreur, pas intentionnelle, et nié être l'origine de ce nom.
Et Mme Spofforth m'a dit qu'elle avait supprimé son faux billet sur le suspect dès qu'elle s'est rendue compte que c'était faux.
Elle a aussi nié fermement qu'elle ait inventé le nom.
Alors, qu'est-ce qui s'est passé ensuite?
Farhan Asif et Bernadette Spofforth ont tous deux été arrêtés pour ces postes peu après que je leur ai parlé.
Toutefois, les accusations ont été abandonnées.
Les autorités pakistanaises ont déclaré qu'elles ne pouvaient pas trouver de preuve que M. Asif était l'auteur du faux nom.
La police du Cheshire a également décidé de ne pas inculper Mme Spofforth en raison d'un manque de preuves.
M. Farhan semble s'être écrasé.
Le site Channel3Now et plusieurs pages de médias sociaux connectés ont été supprimés.
Bernadette Spofforth, cependant, est maintenant de retour poster régulièrement sur X.
Cette semaine seulement, elle avait plus d'un million de vues sur ses postes.
Elle dit qu'elle est devenue un défenseur de la liberté d'expression depuis son arrestation.
Elle dit : Comme on l'a montré maintenant, l'idée qu'un seul tweet pourrait être le catalyseur des émeutes qui ont suivi les atrocités à Southport n'est tout simplement pas vraie.
Se concentrer sur ces cas individuels peut offrir un aperçu précieux sur qui partage ce type de contenu et pourquoi.
Mais pour arriver au cœur du problème, il faut faire un pas de plus en arrière.
Tandis que les gens sont responsables de leurs propres postes, J'ai trouvé maintes et maintes fois ceci est fondamentalement sur le fonctionnement des différents sites de médias sociaux.
Les décisions prises sous le régime d'Elon Musk, le propriétaire de X, font également partie de l'histoire.
Ces décisions comprennent la possibilité d'acheter des tiques bleues, qui permettent à vos postes de prendre une plus grande importance, et une nouvelle approche de la modération qui favorise la liberté d'expression avant tout.
Le chef de la police anti-terroriste du Royaume-Uni, le commissaire adjoint Matt Jukes, m'a dit pour le BBC-S Newscast que X était un énorme conducteur de postes qui ont contribué au désordre de l'été.
Une équipe qu'il supervise appelé l'Unité de référence Internet a remarqué l'effet disproportionné de certaines plateformes, a-t-il dit.
Il dit qu'il y a eu environ 1 200 renvois - des postes signalés à la police par des membres du public - uniquement en relation avec les émeutes.
Pour celui qui était juste la pointe de l'iceberg.
L'unité a vu 13 fois plus de renvois par rapport à X que TikTok.
Agir sur des contenus illégaux et contraires aux lois sur le terrorisme est, dans un sens, le plus facile.
Plus difficiles à affronter sont les postes qui tombent dans ce que M. Jukes appelle la catégorie "Lawful mais affreux".
L'unité appose ce matériel sur les sites sur lesquels il a été affiché lorsqu'elle pense qu'il viole leurs conditions générales.
Mais M. Jukes a trouvé Telegram, hôte de plusieurs grands groupes dans lesquels le désordre était organisé et la haine et la désinformation étaient partagées, difficiles à gérer.
Selon M. Jukes, Telegram est déterminé à ne pas s'engager avec les autorités.
Elon Musk a accusé les forces de l'ordre au Royaume-Uni d'essayer d'obtenir des opinions policières sur des questions telles que l'immigration et des accusations ont été portées selon lesquelles les mesures prises contre les affiches individuelles ont été disproportionnées.
M. Jukes répond: «Je dirais cela à Elon Musk s'il était ici, nous n'arrêtions pas les gens pour avoir des opinions sur l'immigration.
Mais alors que la responsabilité a été ressentie à l'extrême fin par ceux qui ont participé au désordre et posté des contenus haineux en ligne, M. Jukes a déclaré que les gens qui font des milliards de dollars de fournir ces opportunités de publier des contenus nuisibles sur les réseaux sociaux n'ont pas payé vraiment à tout prix.
Il veut que la loi sur la sécurité en ligne qui entre en vigueur au début de 2025 renforcée afin qu'elle puisse mieux traiter avec le contenu qui est légitime mais affreux.
Telegram a dit à la BBC qu'il n'y a pas de place pour les appels à la violence sur sa plate-forme et a dit que les modérateurs ont retiré les chaînes britanniques appelant au désordre quand ils ont été découverts lors des émeutes.
Alors que les modérateurs de Telegram suppriment des millions de morceaux de contenu nuisible chaque jour, les utilisateurs à près d'un milliard provoque certaines douleurs croissantes dans la modération du contenu, que nous nous adressons actuellement,, a déclaré un porte-parole.
J'ai également contacté X, qui n'a pas répondu aux points soulevés par la BBC.
X continue de partager dans ses lignes directrices accessibles au public que sa priorité est de protéger et de défendre la voix des utilisateurs.
Presque chaque enquête que je fais maintenant revient à la conception des sites de médias sociaux et comment les algorithmes poussent le contenu qui déclenche une réaction, généralement indépendamment de l'impact qu'il peut avoir.
Pendant les algorithmes de désordre amplifient la désinformation et la haine à des millions, puisant dans de nouvelles recrues et incitant les gens à partager des contenus controversés pour les points de vue et les goûts.
Pourquoi ça ne change pas?
D'après ce que j'ai trouvé, les entreprises devraient être obligées de modifier leurs modèles d'affaires.
Et pour les politiciens et les régulateurs, cela pourrait s'avérer un très grand défi.
BBC InDepth est la nouvelle maison sur le site et l'application pour la meilleure analyse et l'expertise de nos meilleurs journalistes.
Sous une nouvelle marque distinctive, nous vous apporterons de nouvelles perspectives qui remettent en question les hypothèses, et des rapports profonds sur les plus grands enjeux pour vous aider à comprendre un monde complexe.
Et nous allons montrer des contenus stimulant la pensée de partout BBC Sounds et iPlayer aussi.
Nous commençons petit mais pensant grand, et nous voulons savoir ce que vous pensez - vous pouvez nous envoyer vos commentaires en cliquant sur le bouton ci-dessous.