Daarom suggereer ik ook dat het alleen in extreme gevallen een beslissing moet mogen nemen (het weren van een reactie) en in overige gevallen simpelweg met een advies komt.
Ik gebruik het dagelijks om vele tienduizenden bronnen aan informatie te verwerken voor mijn eigen bedrijf, de magie zit hem in de juiste prompts validatie, en een combinatie van scores.
Met name bij Gemini (meeste ervaring mee) heb je zaken zoals safety settings (dangerous content, harassment, sexual, hate speech) maar kan je in de context ook je eigen meetpunten meegeven.
Het gaat jullie als mods enorm veel werk besparen als vele honderden reacties worden geweerd.
AlphaRomeo schreef op dinsdag 10 juni 2025 @ 15:05:
Het probleem zit hem bovendien ook niet (puur) in de vorm van de reacties, maar vaak de tientallen bronnen die gelinkt worden. Je kunt niet van de vrijwillige crew verwachten om al die bronnen die hoe dan ook biassed zijn in de ogen van andere users te gaan valideren en verifiëren.
Blacklist gewoon bepaalde bronnen, of whitelist specifieke bronnen. Laat de rest ook door een LLM beoordelen met advies voor de moderators.
De makkelijkste ingrepen zijn scheldpartijen, of aanvallen op de man.
Dat is het merendeel lijkt mij? Wat overblijft is voor menselijke mods te beoordelen.
De lastigste zijn extreem correct gebrachte foutieve posts die middels een scheepslading obscure bronnen.
Links naar allerlei externe bronnen zijn vaak ook vermoeiend voor een discussie. Je zou ze gewoon kunnen weren.
Ik probeer in oplossingen te denken waarbij een gezonde, echte, menselijke, respectvolle, en gestroomlijnde discussie kan plaatsvinden.
"Censuur" (zoals beschreven in de TS) of het simpelweg verbieden van belangrijke onderwerpen "want het is zo moelijk te modereren" is één optie, de andere optie is om grof geschut in te zetten:
1. Moderated met hulp van een LLM
2. Links niet toegestaan
3. Low-tolerance beleid
Ik vermoed dat het de mods in zulke threads al snel makkelijk 80% of nog veel meer van de ruis wegneemt en veel moeilijke situaties voorkomt (bans, verweer, etc.)
En zelfs als dat maar 20% is op aantallen zoals eerder genoemd in dit topic (honderden reports) lijkt me dat de moeite waard voor relatief weinig moeite.
Kortom: Zoiets implementeren (als experiment eerst) kost veel minder tijd dan hoeveel tijd en moeite het jullie mods kost om zo'n topic open te houden. Het is dweilen met de kraan open, en een LLM is gewoon een filtertje om de grote stukken roest weg te houden