France
La France et les Français
Le pass BnF pour accéder à la presse : https://jlai.lu/post/4214444
Communautés principales
Nous rejoindre sur Zulip: https://jlailu.zulipchat.com/
FAQ, guides et ressources :
Actualité internationale
Loisirs:
- !cineseries@jlai.lu
- !cyclisme@sh.itjust.works
- !jardin@lemmy.world
- !jeuxdesociete@lemmy.world
- !jeuxvideo@jlai.lu
- !livres@jlai.lu
- !motardie@jlai.lu
- !sport@jlai.lu
- !technologie@jlai.lu
- !tournesol@jlai.lu
Vie Pratique:
Société:
Villes/Régions
- !bretagne@jlai.lu
- !grenoble@jlai.lu
- !lille@jlai.lu
- !lyon@lemmy.world
- !marseille@jlai.lu
- !nantes@sh.itjust.works
- !orleans@lemmy.world
- !paris@jlai.lu
- !toulouse@jlai.lu
Pays:
Humour:
Fedivers:
Règles
-
Multi-lingual community: posts in other language than French are allowed. 🚀
-
Tous les francophones sont bienvenus. 🐌
-
Remember the human : pas d’insultes, pas d’agressivité, pas de harcèlement entre utilisateurs. 🤖
-
Xénophobie, racisme et autre forme de discrimination sont interdits.🌈
-
Pas de doublon. Pas de spam. Évitez les paywalls autant que possible.☔
-
Utilisez la fonction "Report" pour signaler le contenu contrevenant aux règles.🏴
-
Le contenu doit être en rapport avec la France ou la population française.🇨🇵
Communauté de secours:
view the rest of the comments
Je suis un grand défenseur du statut d'hébergeur et de son immunité vis à vis des contenus présents
Aller dans un sens contraire ne fera qu'augmenter la modération et la censure des contenus, et je suis contre. Probablement une différence d'opinion entre nous
Ça n'a rien à voir avec la question de l'algorithme et de l'éditorialisation qui en découle, comme l'a expliqué Mel.
modération et censure sont deux choses différentes, tu fais des gros amalgames. Si tu es contre la modération des contenus c'est que tu n'as pas de problèmes avec les contenus offensants racistes, LGBTphobe alors ?
Si une plateforme devient responsable de tout ce qui est posté dessus, tu peux être certain qu'elle va lourdement censurer tout ce qui pourrait être polémique ou pourrait se retourner contre elle par précaution
Il n'y a donc aucun milieu entre la censure et la prolifération de contenus à supprimer (racistes etc.) ? Ben si, ça s'appelle la modération communautaire. Même sur l'instance où tu es, il y en a une à minima.
La discussion sur l'ouverture de l'algorithme est différente de celle sur la responsabilité en tant qu'hébergeur, mais tu n'arrives pas à dissocier les deux, j'arrête donc cet échange qui ne mène nulle part.
La discussion est bien sur les deux, donc je ne sais pas trop ce que tu racontes. Ce que je me tue de dire, c'est que justement on ne peut pas exiger de la modération sur les contenus recommandés sous prétexte qu'il y a un algorithme qui oriente.
Evidemment que si, mais je ne pense pas que tu aies compris ce que je voulais dire; tu as l'air d'avoir sauté le contexte...
Au contraire ? On ne peut pas exiger de la modération sous prétexte qu'on a un algorithme quelque peu complexe
La censure de certains est la modération de l'autre, tout dépend de l'endroit où on fixe la limite de liberté d'expression
Tout dépend de la nature du contenu. Un débat sur un sujet qui reste dans le respect et le fondement scientifique, aucun problème, même sur des sujets polémiques. De la haine basée sur de la xénophobie ? Aucun intérêt à avoir ce genre de contenu.
Je pense qu'un contenu choquant n'est pas à interdire pour la simple raison qu'il offense les gens, tant qu'il a quelque chose à apporter de plus que de la simple haine.
je te parle de racisme et de LGBTphobie, tu em réponds que tant que ça apporte une opinion c'est intéressant... Qu'est-ce que tu fais ici, tu as lu la charte ?
Et bien dans ce cas tu as eu ta réponse, ce genre de contenu n'est pas autorisé
Maintenant il s'agit d'identifier et de donner les bonnes étiquettes aux mots
Mon avis est mon avis. Pour autant que je sache c'est les actes qui sont punis ici. Même si je tolérerais ce genre de contenu qui est interdit ici, je ne vois pas le problème tant que je n'en partage pas ici.
Tu les tolèrerais ? Je comprends pas comment tu peux accepter une telle violence vis à vis de d'autres personnes humaines.
Ni pourquoi tu as adhéré à cette charte.
Non, mais je ne vois ce que cela changerait
Je n'ai adhéré à rien. Je respecte simplement les règles des endroits où je participe si je les considère juste, sinon j'évite l'endroit
On va reprendre, j'ai peut-etre mal lu.
Ortaviz a écrit :
Et tu réponds ceci :
Et ensuite tu me réponds ceci :
Pour moi ça change beaucoup de chose et je comprends pas comment on peut dire cela.
Je répondais à : "Qu’est-ce que tu fais ici, tu as lu la charte ?"
C'est bien beau de citer mon commentaire mais il faut le lire correctement et pas dans le sens qu'on veut.
A "je te parle de racisme et de LGBTphobie, tu em réponds que tant que ça apporte une opinion c’est intéressant…" j'ai répondu "Et bien dans ce cas tu as eu ta réponse, ce genre de contenu n’est pas autorisé"
Je faisais référence aux cas où la critique de sujets controversés, où la discussion de différents sujets scientifiques à propos de ces sujets étaient considérés comme du racisme et de la LGBTphobie à tort.
En effet, tu répondais à cette question.
Et tu as répondu ceci :
C’est bien beau de citer ton commentaire mais il faut le lire correctement et pas dans le sens qu’on veut. Car tu réponds cela plus bas :
Est ce que tu sous-entends que si on avait pas cette charte :
Tu partagerais ici des articles, commentaires qui ne respecteraient pas ceci ?
Je pense que nous faisons du bon travail en modération et pédagogie avec patience et bienveillance. Nous avons toujours fait de notre mieux pour expliquer pourquoi avec des sources, des études même si nous sommes pas tous et toutes compétentes sur le sujet...donc quand je lis ce retour...
La reflexion qui mène à changer le status d'hébergeur technique à plateforme éditoriale a à voir avec leurs algo de recommandation. À partir du moment où tu commences à volontairement cacher des éléments publiés sur ta plateforme (shadowing de vidéos sur youtube, recommander des messages nazis sur twitter/X à un compte vierge...), que ce soit via des interventions manuelles ou des algos c'est une décision éditoriale. Le seul algo purement technique c'est le tri chronologique. C'est pas une histoire de ce qui est publié sur une plateforme, mais de la mise en avant. Si les plateformes américaines veulent faire de la propagande pro-trump, libre à elle, mais il faut assumer que des voix d'opposition seraient censurées par dissimulation. Après si tu as des arguments je suis curieuse de les entendre, ce serait avec plaisir.
Ta définition est vague et par conséquent ne peut facilement s’appliquer partout sans dérive. Tout bon algo invisibilisera des contenus en fonction de caractéristiques arbitraires ou complexes. Je me demande comment tu ferais avec des recommandations faites via deep learning sur de l’auto apprentissage en fonction des goûts actuels de l’utilisateur
Ce que tu sembles critiquer c’est les motivations et non le tri technique, mais tu t’en prends au tri technique… je trouve ça bête
Et surtout, pourquoi challenger le contenu d’hébergeur ? On ne peut pas s’attendre à ce que l’hébergeur vérifie chaque contenu posté et en soit responsable, on peut seulement juger sa part de responsabilité dans la recommandation dudit contenu dans le cas d’une suspicion de paramétrage manuel. Et encore, je pense que si ce contenu n’est pas illicite, alors il faut laisser.
Avoir une ligne éditoriale dans son algo n’est pas à mon avis mauvais, mais je suis d’accord qu’il faudrait que cela soit déclaré clairement mais sans détails techniques aux personnes participant.
Je veux bien que tu me donnes ce qui n'est pas clair que je puisse l'éclaircir.
Déjà il faut préciser ce que tu appelles un bon algo. Celui de twitter était déjà polarisant, celui de Musk parait orienté politiquement.
De ce que j'ai pu entendre quand j'étais en école, les systèmes de recommandation tourne déjà avec des réseaux de neurones profond.
Ce que je critique c'est le choix technique afin de capturer l'attention en exploitant les plus bas instincts, les biais mentaux et le circuit de récompense. Le choix technique n'existerait pas sans les motivations derrière de toute façon.
Que veux-tu dire par contenu d'hébergeur ?
Pour illustrer une activité d'hébergement pur sans algo de recommandation (ligne éditoriale), wetransfer est un hébergeur pur : tu déposes tes fichiers, et tu partages. C'est pas wetransfer qui te recommande des fichiers. Or, avoir une reconnaissance de plateforme éditoriale, ça a des implications différentes sur les efforts de modération et sur la transparence de cette ligne.
Si twitter reconnaissait bien son activité éditoriale (qui est ancré à droite), je pense que pas mal de monde s'en séparerait (on imagine mal voir une tribune de Poutou dans le jdd).
Un algo qui recherche des goûts ou tendances, et qui ne pousse pas juste du contenu générique en fonction du nombre de votes et d'interactions comme sur lemmy
Oui certes tu peux critiquer, mais tout ce que tu n'aimes pas ne doit pas forcément être illégal
Pour le reste je suis d'accord pour la transparence mais moins pour la modération
Les gens n'aiment pas le changement. Ça appartient a Musk, si ce n'est pas suffisant...
Dans ce cas, twitter n'a pas nécessairement un bon algo à moins que tu puisses justifier que les sorties de Musk peuvent intéresser un nouveau compte.
Je n'appelle pas forcément à l'illégalité de twitter mais si on peut (de temps en temps) interdire des molécules parce qu'elles sont ou sont perçues comme trop nocives, le blocage d'un algo en particulier, ou de ses réglages ne me choque pas. Certains produits dangereux ont besoin d'une autorisation de mise sur le marché.
Ils peuvent modérer comme ils veulent, mais il faut assumer les discours purement nazis émis sur la plateforme, et la recommandation qui en est faite. Le négationnisme, le racisme, l'homophobie et qq autres ne sont pas des opinions mais des délits en France. Si twitter le pousse avec son algo de recommandation, par transitivité twitter en est responsable (comme un journal est tenu responsable des propos de sa rédaction)
Une note publique émise par X même affichant les pires messages qu'on y trouve (être en accord avec Hitler notamment) et la transparence de l'algorithme (comme les photos des paquets de clopes) et on verrait si plus de monde ne part pas.
Il s'améliore par la suite
Le timing n'est pas bon haha
Ça peut se comprendre mais faut vraiment que ça soit mauvais alors
Si c'est volontairement fait alors je suis d'accord, mais prouver ça c'est pas simple
C'est pas parce qu'il s'"améliore" par la suite que proposer Elon Musk par défaut n'est pas un choix éditorial.
En attendant, si la création des bulles est systématiques, on a alors à faire à des réseaux de radicalisation dont la direction est souvent la même. S'ils ne font rien pour y remédier, ça devient volontaire, et dans la mesure ou Google a des notes internes qui remontent à 2016 qui justifient que peu importe leur niveau d'emmerdification, leur position hégémonique leur permet de faire absolument tout ce qu'ils veulent sans risque, ça me parait illusoire que Twitter ne soit pas au courrant, surtout au vu de la mise en avant de Musk depuis que c'est le proprio.
Je n'ai pas dit le contraire. La question portait sur "bon algo". Homme de paille ?
Certes, c'est un argument.