Les plateformes en ligne doivent commencer à évaluer si leurs services exposent les utilisateurs à du matériel illégal d'ici le 16 mars 2025 ou sont passibles de sanctions financières à mesure que la Loi sur la sécurité en ligne (LS) entre en vigueur.
Ofcom, l'organisme de réglementation qui applique la loi britannique sur la sécurité sur Internet, a publié lundi ses codes de pratique définitifs sur la manière dont les entreprises devraient traiter les contenus en ligne illégaux.
Les plates-formes disposent de trois mois pour effectuer des évaluations des risques identifiant les risques potentiels pour leurs services ou pourraient être sanctionnées jusqu'à 10 % de leur chiffre d'affaires mondial.
Dame Melanie Dawes, chef d'Ofcom, a déclaré à BBC News que c'était la « dernière chance » pour l'industrie d'apporter des changements.
« S'ils ne commencent pas à changer sérieusement leur façon d'exploiter leurs services, je pense que ces demandes d'interdictions pour les enfants sur les médias sociaux vont devenir de plus en plus vigoureuses », a-t-elle déclaré.
« Je demande maintenant à l'industrie de se déplacer, et s'ils n'ont pas de nouvelles de nous avec des mesures d'application de la loi à partir de mars. » Selon les codes d'Ofcom, les plateformes devront déterminer si, où et comment le contenu illégal pourrait apparaître sur leurs services et comment elles l'empêcheraient d'atteindre les utilisateurs Selon l'OSA, cela comprend le contenu relatif au matériel de violence sexuelle envers les enfants (CSAM), le comportement de contrôle ou de coercition, la violence sexuelle extrême, la promotion ou la facilitation du suicide et de l'automutilation.
Mais les critiques disent que la Loi ne s'attaque pas à un large éventail de méfaits pour les enfants.
Andy Burrows, directeur de la Fondation Molly Rose, a déclaré que l'organisation était « étonnée et déçue » par l'absence de mesures spécifiques et ciblées pour les plates-formes de lutte contre le suicide et l'automutilation dans les conseils d'Ofcom.
« La réglementation anti-robuste demeure le meilleur moyen de lutter contre le contenu illégal, mais il n'est tout simplement pas acceptable que l'organisme de réglementation adopte une approche progressive des menaces immédiates à la vie », a-t-il déclaré.
Et l'organisme de bienfaisance pour enfants, le CNSPC, a également exprimé ses préoccupations.
« Nous sommes profondément préoccupés par le fait que certains des services les plus importants ne seront pas tenus d'éliminer les formes les plus graves de contenu illégal, y compris le matériel de violence sexuelle envers les enfants », a déclaré Maria Neophytou, chef intérimaire.
"Les propositions d'aujourd'hui vont au mieux enfermer l'inertie d'agir, et au pire créer une échappatoire qui signifie que les services peuvent éviter de s'attaquer aux abus dans les messages privés sans craindre d'être exécutés." L'OSA est devenu loi en octobre 2023, après des années de querelles entre les politiciens sur ses détails et sa portée, et de campagne par les personnes concernées sur l'impact des médias sociaux sur les jeunes.
Ofcom a commencé à consulter ses codes de contenu illégaux en novembre, et dit qu'elle a maintenant « renforcé » ses orientations pour les entreprises de technologie dans plusieurs domaines.
Ofcom dit que ses codes comprennent une plus grande clarté sur les exigences pour supprimer le contenu de la violence à l'image intime, et plus d'orientations sur la façon d'identifier et d'enlever du matériel lié aux femmes faisant l'objet d'une contrainte dans le travail du sexe.
Il comprend également des caractéristiques de sécurité des enfants telles que la garantie que les plateformes de médias sociaux cessent de suggérer aux gens d'être amis des comptes d'enfants et des avertissements sur les risques de partage de renseignements personnels.
Certaines plates-formes doivent également utiliser une technologie appelée hachage-matching pour détecter le matériel de violence sexuelle envers les enfants (CSAM) - une exigence qui s'applique maintenant aux petits sites d'hébergement et de stockage de fichiers.
C'est là que les médias reçoivent une signature numérique unique qui peut être vérifiée par rapport aux hashs appartenant à des contenus connus - dans ce cas, les bases de données du CSAM connu.
De nombreuses grandes entreprises technologiques ont déjà mis en place des mesures de sécurité pour les adolescents et des contrôles afin de donner aux parents une plus grande surveillance de leur activité sur les médias sociaux dans le but de s'attaquer aux dangers pour les adolescents et aux réglementations préventives.
Par exemple, sur Facebook, Instagram et Snapchat, les utilisateurs de moins de 18 ans ne peuvent pas être découverts dans la recherche ou les messages par des comptes qu'ils ne suivent pas.
En octobre, Instagram a également commencé à bloquer certains screenshots dans des messages directs pour essayer de combattre les tentatives de sextortion - que les experts ont avertis sont en hausse, ciblant souvent les jeunes hommes.
Peter Kyle, secrétaire à la technologie, a déclaré que la publication de ses codes par Ofcom était un « pas important » vers l'objectif du gouvernement de rendre l'internet plus sûr pour les gens au Royaume-Uni.
« Ces lois marquent une réinitialisation fondamentale dans les attentes de la société envers les entreprises technologiques », a-t-il déclaré.
« Je m'attends à ce qu'ils fournissent et qu'ils surveillent de près pour s'assurer qu'ils le font. » Des préoccupations ont été soulevées tout au long du voyage de l'OSA au sujet de ses règles applicables à un grand nombre de services en ligne variés - les militants étant également fréquemment avertis des répercussions sur la vie privée des exigences de vérification de l'âge de la plateforme.
Et les parents d'enfants qui sont morts après avoir été exposés à des contenus illégaux ou nocifs ont déjà critiqué Ofcom pour avoir évolué à un « rythme d'escargot ».
Les codes de contenu illégaux de l'organisme de réglementation devront encore être approuvés par le Parlement avant qu'ils puissent entrer pleinement en vigueur le 17 mars.
Mais les plates-formes sont dites maintenant, avec la présomption que les codes n'auront aucun problème à passer par le Parlement, et les entreprises doivent avoir des mesures en place pour empêcher les utilisateurs d'accéder au matériel interdit d'ici cette date.