Une nouvelle initiative de notation se concentre sur la sécurité en ligne des adolescents

Imaginez laisser un enfant ou un adolescent voir un film sans aucune indication quant à l’adéquation du film à son âge. Vous pourriez vous installer dans un long métrage d’animation qui vous surprendra, vous et votre enfant de 8 ans, avec des grossièretés incessantes. Ou découvrez que le film d’action que votre enfant de 13 ans a regardé représentait du sexe graphique.

Les parents aiment généralement éviter d’exposer leurs enfants à des contenus inappropriés et comptent sur les audiences des films et des séries télévisées, même imparfaites, pour les aider à y parvenir. Mais comme le soutient Kenneth Cole, défenseur de la santé mentale et créateur de mode, les parents ne disposent pas de telles ressources ni lignes directrices lorsqu’il s’agit d’Internet, où leurs enfants et adolescents passent une grande partie de leur temps.

“Nous leur permettons d’exister dans cet espace dangereux avec un accès illimité au contenu n’importe où, publié par n’importe qui”, a déclaré Cole à Mashable.

C’est pourquoi Cole, fondateur de la Mental Health Coalition, a convoqué un groupe de conseillers experts, notamment en matière de santé mentale et de sécurité en ligne, pour créer un « tout premier » système d’évaluation sur les réseaux sociaux, les moteurs de recherche et les plateformes de jeux.

VOIR ÉGALEMENT:

7 compétences pour vous aider à recadrer vos pensées négatives lorsque les réseaux sociaux vous font vous sentir mal

L’initiative Safe Online Standards for Kids’ Mental Health (SOS) a été lancée jeudi avec l’objectif ambitieux de développer des normes de sécurité testées pour les jeunes et les jeunes adultes âgés de 13 à 24 ans. Le projet pluriannuel commencera à tester les normes l’année prochaine et vise à les mettre en œuvre en 2025.

Le Dr Dan Reidenberg, un expert en prévention du suicide qui a contribué à diriger l’initiative, a déclaré à Mashable que même si des améliorations ont été apportées aux fonctionnalités de sécurité des jeunes en ligne, il reste encore beaucoup à faire. Un domaine qui, selon lui, mérite plus d’attention est la capacité des jeunes à s’adresser mutuellement des messages contenant du contenu intimidant, violent ou menaçant.

Reidenberg a noté qu’à terme, des normes pourraient être élaborées autour de la technologie utilisée pour détecter et bloquer ce type de contenu, et peut-être l’empêcher d’atteindre le destinataire prévu. (Pendant de nombreuses années, Reidenberg a servi de conseiller non rémunéré auprès de grandes entreprises technologiques sur les fonctionnalités visant à améliorer la sécurité des jeunes.)

Reidenberg et Cole ont tous deux souligné que l’initiative ne considère pas la technologie comme un « ennemi ». Au lieu de cela, ils espèrent travailler en partenariat avec de grandes entreprises technologiques, qu’ils ont qualifiées de manquant de normes communes suivies par l’industrie dans son ensemble.

Cole a déclaré qu’il était « déraisonnable » de s’attendre à ce que les entreprises adoptent une meilleure pratique si leurs concurrents refusent de faire de même. Idéalement, a-t-il ajouté, les entreprises soumises à ces normes les adopteraient de manière uniforme. Selon Cole, même si les entreprises pourraient voir le temps passé devant un écran diminuer si elles respectaient les normes, une approche universelle éviterait une perte de part de marché.

Bien que des noms connus comme Google aient soutenu l’initiative, a déclaré Cole, elle n’est pas soutenue par des fonds d’entreprises technologiques et les conseillers experts n’ont pas non plus déclaré de conflits d’intérêts connexes.

Les entreprises technologiques pourraient être désireuses de se joindre à l’initiative en guise de geste de coopération, d’autant plus qu’elles cherchent à conserver la protection d’une loi fédérale de longue date connue sous le nom d’article 230. Cette disposition exonère largement les entreprises de toute responsabilité lorsque leurs utilisateurs publient du contenu inapproprié ou violent. ou quand ils se font du mal.

Reidenberg a déclaré que l’initiative prendrait en compte tous les aspects régissant la sécurité en ligne, y compris l’article 230.

“Je pense que nous devons tout examiner”, a-t-il déclaré.

À l’avenir, Cole a déclaré qu’il pourrait y avoir un mécanisme d’application créé par les législateurs. Actuellement, une mosaïque de lois étatiques visent à améliorer la sécurité des jeunes en ligne ; certains de ces projets de loi ont été contestés par des entreprises technologiques. La législation fédérale proposée imposerait, entre autres mesures, des sanctions aux entreprises qui exposent les enfants à des contenus préjudiciables et réprimerait la publicité destinée aux mineurs.

Le lancement de l’initiative fait suite à un avis du Surgeon General sur les risques et les méfaits de l’utilisation des médias sociaux, ainsi qu’à de nouvelles lignes directrices sur l’utilisation des médias sociaux publiées par l’American Psychological Association.

Parmi les experts de l’initiative figurent le Dr Mitch Prinstein, directeur scientifique de l’American Psychological Association ; Dr Matthew K. Nock, psychologue et chercheur à l’Université Harvard ; et Larry Magid, PDG de l’association à but non lucratif Connect Safely.

La Mental Health Coalition comprend des membres tels que le Trevor Project, l’American Foundation for Suicide Prevention, la National Alliance on Mental Illness et le Child Mind Institute.

Pour plus de bien social des histoires dans votre boîte de réception, inscrivez-vous pour Newsletter Les meilleures histoires de Mashable aujourd’hui.

Laisser un commentaire