frenchhope: transparence* + intelligence artificielle*

Les signets de cette page sont gérés par un administrateur.

5 signet(s) - Classer par : Date ↓ / Titre / Vote / - Signets des autres utilisateurs pour ce tag

  1. FB impose des normes au monde entier alors que celles-ci sont décidées par une population qui n’y est même pas majoritaire ! Que FB décide de la nature de ses politiques, soit. Mais ce qui importe, c’est qu’elles soient justes, cohérentes, proportionnées, équitables. Or, les résultats injustes semblent plus la norme que l’exception, avance Klonick, qui explique que le taux d’erreur sur les décisions de modération de contenu serait de 80 % en fait, ce chiffre semble issu d’un article d’analyse de la décision du conseil de surveillance par le Center for Democracy & Technology qui souligne que 25 contenus postés sur le compte de Trump ont été marqués comme contraires aux standards de FB, mais que suite à leur examen, seulement 5 d’entre eux ont été retenus comme contraires aux standards, ce qui révèle un taux d’erreur dans l’application des standards de 80% ! Et les auteurs de généraliser ce taux d’erreur aux décisions de retraits qui impactent tous les utilisateurs… – qui ne bénéficient pas du même traitement de vérification que les utilisateurs « dignes d’intérêt » – en rappelant d’ailleurs que FB, dans ses rapports de transparence, n’est pas très clair sur son taux d’erreur, ni sur le taux de contenus rétablis, NDT » . Dans son avis, souligne encore Klonick, le conseil de surveillance pointe le rôle du comité discret qui écrit, modifie et réécrit les règles de modération de FB à assumer son rôle politique. Pas sûr que ce soit pourtant la piste que poursuivra l’entreprise ! Jusqu’à présent, ces instances internes qui précisent et peaufinent les règles de modération, quand elles existent, ont toujours été éminemment discrètes et particulièrement protégées.

    ***

    « Supprimer les contenus ne supprime pas la cause qui les a fait naître », conclut Douek. Il est tentant de penser que nous pouvons modérer la société, mais il va être bien plus difficile de résoudre les problèmes sociaux et politiques dont ils sont l’expression. Les plateformes ne seront jamais en mesure de compenser les défaillances de nos sociétés. Cela ne veut pas dire que les plateformes ne doivent pas continuer à réfléchir à la manière d’atténuer leurs effets néfastes, bien sûr. Toute expérimentation qui n’est pas binaire (laisser ou supprimer) notamment est bonne à prendre, par exemple le fait que Twitter incite ses utilisateurs à lire un article avant de le tweeter, ou le fait de limiter le nombre de fois où l’on peut transférer un contenu depuis une même plateforme (comme le propose WhatsApp). D’innombrables ajustements peuvent être tentés sans que les plateformes ne décident de la vérité à notre place.
    https://www.internetactu.net/2021/06/...le-democratique-et-de-la-transparence
    Vote 0
  2. Pour Frank Pasquale lui-même, loin d’être limités, les données et traitements « opaques, invérifiables et incontestables » se sont considérablement étendus depuis 2015 (l’association européenne Algorithm Watch dressait récemment le même constat) et avec eux, s’est étendu l’occultation de réalités sociales complexes, non sans conséquence pour les libertés publiques ou la santé publique. Pour le professeur de droit, dans les débats sur les traitements, nous occultons le contrôle social, politique et économique qu’exercent les systèmes et comment ils faussent les décisions, alors même que nous sommes saturés de récits technosolutionnistes. Le RGPD européen ou le droit à l’explication des traitements a certes ouvert le débat. Mais entre-temps, les traitements ont largement envahi tous les champs de la décision, de la médecine à l’éducation, en passant par les rencontres, l’application de la loi et les décisions commerciales.

    ***

    Pour l’instant, la question de la transparence est plus l’affaire de ceux qui sont victimes des systèmes que de ceux qui opèrent ce travail de surveillance, notamment parce que c’est à eux de montrer qu’ils ont été indûment surveillés ou calculés, comme le souligne désormais le travail d’avocats à traquer les powerty lawgorithms, les décisions automatisées qui s’abattent en cascade sur les plus vulnérables. Jonathan Obar (@CDNJobar) prolonge ce constat en montrant qu’il faut trouver des solutions pour partager plus équitablement le fardeau de la transparence et de l’explicabilité. Or, souligne-t-il, les utilisateurs ne souhaitent pas s’engager dans la transparence : pour cela, il est nécessaire de construire des organisations intermédiaires entre ceux qui développent des systèmes et les utilisateurs finaux, en appelant à développer un nouveau cadre pour la gouvernance des données.

    ***

    le lien entre ces différentes contributions consiste à souligner combien l’imbrication entre l’État et les industries érodent nos capacités d’action. Selon lui, nous devons repenser les relations entre l’expérience privée et l’objectif commun, chercher des alternatives viables à la seule commercialisation et au capitalisme de surveillance que cette commercialisation des données met en place.
    http://www.internetactu.net/a-lire-ai...s/la-societe-des-boites-noires-setend
    Vote 0
  3. -
    https://ins2i.cnrs.fr/fr/cnrsinfo/tru...ntelligence-artificielle-de-confiance
    Vote 0
  4. -
    http://www.internetactu.net/a-lire-ai...ansparence-des-decisions-automatisees
    Vote 0

Haut de page

Première / Précédent / Suivant / Dernière / Page 1 de 1 Marque-pages / ESPITALLIER.NET: Tags: transparence + intelligence artificielle

À propos - Propulsé par SemanticScuttle