Je reactie staat er. Behalve voor iedereen: schijnpublicatie

Pagina: 1
Acties:
  • 289 views

  • Outsider666
  • Registratie: Oktober 2016
  • Laatst online: 05-05 06:31
Introductiepost

Ik verzoek om inhoudelijke duiding van het volgende fenomeen, dat naar mijn mening te makkelijk wordt weggezet als “dat is het algoritme”.

Concrete situatie:

– ik plaats een reactie op YouTube
– ingelogd is deze zichtbaar
– anoniem (of via andere account) is deze niet zichtbaar

Zonder:

→ melding
→ uitleg
→ of enige indicatie dat zichtbaarheid is beperkt

Waar het hier wringt

Dit is geen klassieke moderatie.

Mijn reactie is namelijk:

– niet verwijderd
– niet aangepast
– niet gemarkeerd

Maar feitelijk:

niet gepubliceerd, ondanks dat het systeem dat wel suggereert

Dat roept een vrij basale vraag op:

wat betekent “plaatsen” nog, als zichtbaarheid stilzwijgend wordt aangepast?

Selectie zonder verantwoordelijkheid

Wat hier lijkt te gebeuren:

– content wordt direct (AI/algoritmisch) geclassificeerd
– zichtbaarheid wordt daarop aangepast
– zonder dat dit transparant is

Dus:

→ wel selectie
→ geen uitleg
→ geen verantwoordelijkheid

Dat begint verdacht veel te lijken op redactionele keuzes, zonder de bijbehorende accountability.

De ongemakkelijke observatie

Wat ik zie:

– simpele, korte reacties blijven staan
– inhoudelijke, langere of kritische reacties verdwijnen sneller uit zicht

Niet verboden.
Niet verwijderd.

Maar gewoon:

effectief genegeerd door het systeem

De kernvraag (en die is niet triviaal)

Wanneer is dit:

→ legitieme moderatie
en wanneer wordt dit:
→ onzichtbare beïnvloeding van wat zichtbaar blijft in het debat?

En nog concreter:

is het acceptabel dat een platform de indruk wekt dat iets publiek is, terwijl dat feitelijk niet zo is?

Breder kader

Dit raakt niet alleen techniek, maar ook:

– transparantieverplichtingen (denk aan Digital Services Act)
– voorspelbaarheid van moderatie
– en uiteindelijk: controle over zichtbaarheid

Oftewel:

niet of je mag spreken, maar of iemand je nog kan horen

Verzoek aan de community

Ik verzoek om inhoudelijke reacties, geen onderbuik:

– herkennen jullie dit gedrag technisch gezien?
– hoe zou dit geïmplementeerd kunnen zijn (filtering, ranking, shadow queues)?
– is dit bewust ontwerp of bijeffect van schaal?
– en waar ligt volgens jullie de grens tussen moderatie en manipulatie?

Slot

Als dit klopt zoals het lijkt, dan hebben we het niet over “algoritmes doen rare dingen”.

Dan hebben we het over:

publiceren zonder publicatie
en zichtbaarheid zonder transparantie

Mijn uitgebreide uitwerking (juridisch + technisch) plaats ik hieronder.

Ik verzoek om serieuze input.

  • Outsider666
  • Registratie: Oktober 2016
  • Laatst online: 05-05 06:31
Betreft: Klacht en juridische opinie inzake algoritmische moderatie, schijn van publicatie en noodzaak tot normering

Geachte heer/mevrouw,

Hierbij dien ik een formele klacht in, tevens strekkende tot een juridische opinie en beleidsmatig standpunt, inzake de wijze waarop digitale platforms zoals YouTube en Facebook omgaan met zichtbaarheid van gebruikerscontent.

De kern van deze klacht betreft niet het bestaan van moderatie als zodanig, maar de wijze waarop zichtbaarheid wordt beperkt zonder kenbare grondslag, zonder transparantie en zonder effectieve toetsing, hetgeen leidt tot een situatie die kenmerken vertoont van willekeur.

1. Feitelijke constatering (concrete ervaring)

In mijn geval doet zich het volgende voor:

– een reactie wordt geplaatst en is zichtbaar binnen mijn eigen account
– dezelfde reactie blijkt niet zichtbaar voor derden (bijvoorbeeld via anonieme weergave)
– er wordt geen melding gegeven dat de reactie is gefilterd of beperkt
– er wordt geen motivering verstrekt

Hierdoor ontstaat een situatie waarin:

de gebruiker de indruk krijgt dat hij publiek heeft gepubliceerd, terwijl feitelijk geen sprake is van publieke zichtbaarheid.

Dit betreft geen incidenteel technisch probleem, maar een reproduceerbare uitkomst.

2. Mechanisme (hoe het systeem feitelijk werkt)

De onderliggende oorzaak ligt in algoritmische moderatie en distributie:

– content wordt geautomatiseerd geclassificeerd (toon, complexiteit, claims)
– op basis daarvan wordt zichtbaarheid bepaald
– dit gebeurt direct (op milliseconde-niveau) en zonder expliciete kennisgeving

Belangrijk onderscheid:

→ content wordt niet noodzakelijk verwijderd
→ maar de facto onzichtbaar gemaakt

Deze vorm van moderatie:

beperkt niet het recht om te spreken, maar wel de mogelijkheid om gehoord te worden.

3. Juridisch kader en lacune

Onder de Digital Services Act worden platforms aangemerkt als tussenpersonen, met:

– ruime bevoegdheid tot moderatie
– beperkte aansprakelijkheid
– algemene transparantieverplichtingen

Echter, in de huidige toepassing ontbreekt:

– individuele motivering van zichtbaarheidbeperkingen
– expliciete aanduiding van filtering
– effectieve en laagdrempelige toetsing

Daarnaast ontstaat een spanningsveld met consumentenrecht:

Indien een platform de indruk wekt dat een reactie publiek zichtbaar is, terwijl dit feitelijk niet het geval is, kan sprake zijn van:

een misleidende discrepantie tussen aangeboden functionaliteit en feitelijke werking.

4. Willekeur en rechtsstatelijke beginselen

De huidige praktijk leidt tot een situatie waarin:

– vergelijkbare uitingen ongelijk worden behandeld
– criteria niet kenbaar zijn
– uitkomsten niet voorspelbaar zijn

Hiermee worden fundamentele beginselen geraakt:

– rechtszekerheid → gebruiker kan gedrag niet afstemmen
– gelijkheidsbeginsel → geen aantoonbare consistente toepassing
– motiveringsbeginsel → gebrek aan uitleg bij ingrijpen

Hoewel deze beginselen primair voor de overheid gelden, is hun relevantie evident waar private partijen feitelijk:

toegang tot het publieke debat structureren en begrenzen.

5. Maatschappelijke impact (bubblevorming en vertekening)

Algoritmische distributie leidt tot:

– selectieve zichtbaarheid
– versterking van bestaande voorkeuren
– marginalisering van afwijkende stemmen

Dit resulteert in:

→ filterbubbels
→ afnemende pluraliteit
→ verminderde controleerbaarheid van informatie

Daarmee ontstaat een systeem waarin:

niet de inhoud zelf wordt verboden, maar de relevantie ervan wordt bepaald door niet-transparante criteria.

6. Vrijheid van meningsuiting in de praktijk

Vrijheid van meningsuiting, zoals beschermd onder Artikel 10 EVRM, waarborgt formeel het recht om te spreken.

In de huidige digitale context verschuift de kern echter naar:

de feitelijke mogelijkheid om gehoord te worden.

Indien zichtbaarheid afhankelijk is van ondoorzichtige algoritmen, ontstaat een situatie waarin:

– formele vrijheid blijft bestaan
– maar materiële participatie wordt beperkt

7. Concrete voorstellen (noodzakelijke ingrepen)

Gelet op het voorgaande is ingrijpen noodzakelijk. De volgende maatregelen worden voorgesteld:

1. Transparantie op individueel niveau

– verplichte melding bij beperking van zichtbaarheid
– duidelijke labels zoals: “beperkt zichtbaar” of “in review”

2. Motiveringsplicht

– beknopte, begrijpelijke uitleg waarom content wordt beperkt
– categorisering (bijv. “gevoelige inhoud”, “risicoclassificatie”)

3. Toetsingsmechanisme

– laagdrempelige bezwaarprocedure
– herbeoordeling door mens (niet uitsluitend AI)

4. Inzicht in distributiecriteria

– openbaarmaking van hoofdlijnen van algoritmische ranking
– uitleg van factoren die zichtbaarheid beïnvloeden

5. Keuzevrijheid voor gebruikers

– mogelijkheid om algoritmische filtering te beperken
– optie voor chronologische / ongefilterde weergave

6. Audit en toezicht

– onafhankelijke controle op consistente toepassing
– toetsing op discriminatie en systematische bias

8. Slotbeschouwing – van sociale naar algoritmische tirannie

De huidige ontwikkeling kan worden begrepen in het licht van John Stuart Mill en diens concept van de “tirannie van sociale normen”.

Waar Mill waarschuwde voor maatschappelijke druk die afwijkende meningen marginaliseert, zien wij thans een verschuiving naar:

een algoritmisch gestuurd systeem dat zichtbaarheid bepaalt zonder expliciete normstelling.

Niet langer is het de meerderheid die direct corrigeert, maar een systeem dat:

– gedrag analyseert
– patronen versterkt
– afwijking minder zichtbaar maakt

Het risico hiervan is fundamenteel:

niet dat men niet mag spreken, maar dat men systematisch minder wordt gehoord.

Deze vorm van sturing is minder zichtbaar, minder toetsbaar en daardoor potentieel ingrijpender dan de sociale druk waar Mill voor waarschuwde.

9. Conclusie

De huidige praktijk van algoritmische moderatie:

– creëert een schijn van publicatie zonder feitelijke zichtbaarheid
– ontbeert voldoende transparantie en motivering
– vertoont kenmerken van willekeur
– en ondermijnt effectieve deelname aan het publieke debat

Daarmee is sprake van een structureel probleem dat:

niet slechts aandacht, maar concrete regulerende ingrepen vereist.

Ik verzoek u deze klacht in behandeling te nemen en te beoordelen in het licht van de toepasselijke regelgeving en de hierboven geschetste structurele problematiek.

  • The Eagle
  • Registratie: Januari 2002
  • Laatst online: 10:38

The Eagle

I wear my sunglasses at night

Ik weet niet wat je hebt geslikt of van welke ai je deze tekst hebt, maar bij de redactie van t.net klagen dat YouTube dingen wel of niet doet: dan blaf je tegen de verkeerde boom lijkt me :)

Al is het nieuws nog zo slecht, het wordt leuker als je het op zijn Brabants zegt :)


  • Microkid
  • Registratie: Augustus 2000
  • Laatst online: 13:17

Microkid

Frontpage Admin / Moderator PW/VA

Smile

^^^ dat dus.
Dicht.

4800Wp zonnestroom met Enphase
Life's a waste of time. Time's a waste of life. Get wasted all the time and you'll have the time of your life.


Dit topic is gesloten.