frenchhope: infox* + réseaux sociaux*

Les signets de cette page sont gérés par un administrateur.

25 signet(s) - Classer par : Date ↓ / Titre / Vote / - Signets des autres utilisateurs pour ce tag

  1. -
    https://blogs.mediapart.fr/le-club-me...tre-la-desinformation-professionnelle
    Vote 0
  2. -
    https://usbeketrica.com/fr/article/un...gers-de-la-desinformation-sur-youtube
    Vote 0
  3. -
    https://www.theverge.com/2021/9/11/22...urate-data-misinformation-researchers
    Vote 0
  4. FB impose des normes au monde entier alors que celles-ci sont décidées par une population qui n’y est même pas majoritaire ! Que FB décide de la nature de ses politiques, soit. Mais ce qui importe, c’est qu’elles soient justes, cohérentes, proportionnées, équitables. Or, les résultats injustes semblent plus la norme que l’exception, avance Klonick, qui explique que le taux d’erreur sur les décisions de modération de contenu serait de 80 % en fait, ce chiffre semble issu d’un article d’analyse de la décision du conseil de surveillance par le Center for Democracy & Technology qui souligne que 25 contenus postés sur le compte de Trump ont été marqués comme contraires aux standards de FB, mais que suite à leur examen, seulement 5 d’entre eux ont été retenus comme contraires aux standards, ce qui révèle un taux d’erreur dans l’application des standards de 80% ! Et les auteurs de généraliser ce taux d’erreur aux décisions de retraits qui impactent tous les utilisateurs… – qui ne bénéficient pas du même traitement de vérification que les utilisateurs « dignes d’intérêt » – en rappelant d’ailleurs que FB, dans ses rapports de transparence, n’est pas très clair sur son taux d’erreur, ni sur le taux de contenus rétablis, NDT » . Dans son avis, souligne encore Klonick, le conseil de surveillance pointe le rôle du comité discret qui écrit, modifie et réécrit les règles de modération de FB à assumer son rôle politique. Pas sûr que ce soit pourtant la piste que poursuivra l’entreprise ! Jusqu’à présent, ces instances internes qui précisent et peaufinent les règles de modération, quand elles existent, ont toujours été éminemment discrètes et particulièrement protégées.

    ***

    « Supprimer les contenus ne supprime pas la cause qui les a fait naître », conclut Douek. Il est tentant de penser que nous pouvons modérer la société, mais il va être bien plus difficile de résoudre les problèmes sociaux et politiques dont ils sont l’expression. Les plateformes ne seront jamais en mesure de compenser les défaillances de nos sociétés. Cela ne veut pas dire que les plateformes ne doivent pas continuer à réfléchir à la manière d’atténuer leurs effets néfastes, bien sûr. Toute expérimentation qui n’est pas binaire (laisser ou supprimer) notamment est bonne à prendre, par exemple le fait que Twitter incite ses utilisateurs à lire un article avant de le tweeter, ou le fait de limiter le nombre de fois où l’on peut transférer un contenu depuis une même plateforme (comme le propose WhatsApp). D’innombrables ajustements peuvent être tentés sans que les plateformes ne décident de la vérité à notre place.
    https://www.internetactu.net/2021/06/...le-democratique-et-de-la-transparence
    Vote 0
  5. -
    https://www.technologyreview.com/2021...acebook-responsible-ai-misinformation
    Vote 0
  6. -
    https://www.bfmtv.com/tech/covid-19-f...s-nanoparticules_AN-202012030225.html
    Vote 0

Haut de page

Première / Précédent / Suivant / Dernière / Page 1 de 3 Marque-pages / ESPITALLIER.NET: Tags: infox + réseaux sociaux

À propos - Propulsé par SemanticScuttle