Introductiepost
Ik verzoek om inhoudelijke duiding van het volgende fenomeen, dat naar mijn mening te makkelijk wordt weggezet als “dat is het algoritme”.
Concrete situatie:
– ik plaats een reactie op YouTube
– ingelogd is deze zichtbaar
– anoniem (of via andere account) is deze niet zichtbaar
Zonder:
→ melding
→ uitleg
→ of enige indicatie dat zichtbaarheid is beperkt
Waar het hier wringt
Dit is geen klassieke moderatie.
Mijn reactie is namelijk:
– niet verwijderd
– niet aangepast
– niet gemarkeerd
Maar feitelijk:
niet gepubliceerd, ondanks dat het systeem dat wel suggereert
Dat roept een vrij basale vraag op:
wat betekent “plaatsen” nog, als zichtbaarheid stilzwijgend wordt aangepast?
Selectie zonder verantwoordelijkheid
Wat hier lijkt te gebeuren:
– content wordt direct (AI/algoritmisch) geclassificeerd
– zichtbaarheid wordt daarop aangepast
– zonder dat dit transparant is
Dus:
→ wel selectie
→ geen uitleg
→ geen verantwoordelijkheid
Dat begint verdacht veel te lijken op redactionele keuzes, zonder de bijbehorende accountability.
De ongemakkelijke observatie
Wat ik zie:
– simpele, korte reacties blijven staan
– inhoudelijke, langere of kritische reacties verdwijnen sneller uit zicht
Niet verboden.
Niet verwijderd.
Maar gewoon:
effectief genegeerd door het systeem
De kernvraag (en die is niet triviaal)
Wanneer is dit:
→ legitieme moderatie
en wanneer wordt dit:
→ onzichtbare beïnvloeding van wat zichtbaar blijft in het debat?
En nog concreter:
is het acceptabel dat een platform de indruk wekt dat iets publiek is, terwijl dat feitelijk niet zo is?
Breder kader
Dit raakt niet alleen techniek, maar ook:
– transparantieverplichtingen (denk aan Digital Services Act)
– voorspelbaarheid van moderatie
– en uiteindelijk: controle over zichtbaarheid
Oftewel:
niet of je mag spreken, maar of iemand je nog kan horen
Verzoek aan de community
Ik verzoek om inhoudelijke reacties, geen onderbuik:
– herkennen jullie dit gedrag technisch gezien?
– hoe zou dit geïmplementeerd kunnen zijn (filtering, ranking, shadow queues)?
– is dit bewust ontwerp of bijeffect van schaal?
– en waar ligt volgens jullie de grens tussen moderatie en manipulatie?
Slot
Als dit klopt zoals het lijkt, dan hebben we het niet over “algoritmes doen rare dingen”.
Dan hebben we het over:
publiceren zonder publicatie
en zichtbaarheid zonder transparantie
Mijn uitgebreide uitwerking (juridisch + technisch) plaats ik hieronder.
Ik verzoek om serieuze input.
Ik verzoek om inhoudelijke duiding van het volgende fenomeen, dat naar mijn mening te makkelijk wordt weggezet als “dat is het algoritme”.
Concrete situatie:
– ik plaats een reactie op YouTube
– ingelogd is deze zichtbaar
– anoniem (of via andere account) is deze niet zichtbaar
Zonder:
→ melding
→ uitleg
→ of enige indicatie dat zichtbaarheid is beperkt
Waar het hier wringt
Dit is geen klassieke moderatie.
Mijn reactie is namelijk:
– niet verwijderd
– niet aangepast
– niet gemarkeerd
Maar feitelijk:
niet gepubliceerd, ondanks dat het systeem dat wel suggereert
Dat roept een vrij basale vraag op:
wat betekent “plaatsen” nog, als zichtbaarheid stilzwijgend wordt aangepast?
Selectie zonder verantwoordelijkheid
Wat hier lijkt te gebeuren:
– content wordt direct (AI/algoritmisch) geclassificeerd
– zichtbaarheid wordt daarop aangepast
– zonder dat dit transparant is
Dus:
→ wel selectie
→ geen uitleg
→ geen verantwoordelijkheid
Dat begint verdacht veel te lijken op redactionele keuzes, zonder de bijbehorende accountability.
De ongemakkelijke observatie
Wat ik zie:
– simpele, korte reacties blijven staan
– inhoudelijke, langere of kritische reacties verdwijnen sneller uit zicht
Niet verboden.
Niet verwijderd.
Maar gewoon:
effectief genegeerd door het systeem
De kernvraag (en die is niet triviaal)
Wanneer is dit:
→ legitieme moderatie
en wanneer wordt dit:
→ onzichtbare beïnvloeding van wat zichtbaar blijft in het debat?
En nog concreter:
is het acceptabel dat een platform de indruk wekt dat iets publiek is, terwijl dat feitelijk niet zo is?
Breder kader
Dit raakt niet alleen techniek, maar ook:
– transparantieverplichtingen (denk aan Digital Services Act)
– voorspelbaarheid van moderatie
– en uiteindelijk: controle over zichtbaarheid
Oftewel:
niet of je mag spreken, maar of iemand je nog kan horen
Verzoek aan de community
Ik verzoek om inhoudelijke reacties, geen onderbuik:
– herkennen jullie dit gedrag technisch gezien?
– hoe zou dit geïmplementeerd kunnen zijn (filtering, ranking, shadow queues)?
– is dit bewust ontwerp of bijeffect van schaal?
– en waar ligt volgens jullie de grens tussen moderatie en manipulatie?
Slot
Als dit klopt zoals het lijkt, dan hebben we het niet over “algoritmes doen rare dingen”.
Dan hebben we het over:
publiceren zonder publicatie
en zichtbaarheid zonder transparantie
Mijn uitgebreide uitwerking (juridisch + technisch) plaats ik hieronder.
Ik verzoek om serieuze input.