Naar aanleiding van deze post en de daaropvolgende, totaal ontspoorde discussie, toch maar een topic geopend om eens te kijken wat hier nou gebeurde. Ik denk dat het goed is om hier een stuk duidelijkheid te creëren, want in mijn optiek gingen er wat dingen mis en is er nog wel wat te verbeteren aan verder beleid.
Even een korte schets van de gebeurtenissen
Naar aanleiding van een vraagstuk van @djwice over hoe hij zijn tone of voice in verdere berichten aan zou kunnen passen heb ik in het mismod topic gereageerd op djwice. In mijn reactie heb ik uitgelegd dat ik dezelfde worsteling herken, en dat het kan helpen om meer tijd in een post te steken en eventueel een LLM te gebruiken als hulpmiddel: bijvoorbeeld om je eigen tekst kritisch te laten bevragen of de toon wat te laten polijsten. De inhoud en argumenten moeten van jezelf komen, maar een model kan helpen bij structuur en formulering. Ter illustratie heb ik een stuk tekst van djwice herschreven naar een positievere toon en expliciet vermeld dat dit “simpel door GPT 5” was gedaan, precies als voorbeeld van AI als hulpmiddel, niet als vervanger.
Daarop reageerde Bor met de boodschap dat we
Ik heb expliciet benoemd dat zijn conclusie
Op mij komt het zo over dat mijn opmerkingen over AI als hulpmiddel uit hun context zijn gehaald en zijn neergezet alsof ik “AI-Machine2Machine-communicatie” als zodanig zou promoten. Vervolgens worden daar stevige, algemene conclusies aan verbonden (“AI-content is niet gewenst”, “veel gebruikers willen dat niet”), zonder onderbouwing met cijfers of rekening te houden met survivor bias. Dat maakt de discussie onnodig scherp en voelt voor mij als een vorm van escalatie, terwijl mijn standpunt feitelijk in lijn is met de huisregels (“AI als hulpmiddel”) en de toelichting van de redactie. We gaan namelijk van "gebruik AI als hulpmiddel om jezelf te challengen en scherp te blijven op je tone of voice", naar "Grotendeels of geheel middels Ai geschreven reacties zijn op Tweakers niet toegestaan". De stap naar huisregel 3 (die kennelijk een titel heeft, waar ik zo op terug kom) is dan best wel snel gemaakt dat snap ik, maar dat komt dus doordat men vanuit het moderatie team zelf die escalatie maakt. Uiteindelijk zijn we met een vrij grote boog op dezelfde conclusie terecht gekomen en dan denk ik, was dat nou nodig?
Je kunt de kop van huisregel 3 wat mij betreft niet zo scherp stellen, naast dat het niet terugkomt in het beleid is het simpelweg ook gewoon niet het beleid van tweakers' eigen redactie. Ik zou willen pleiten om de kopjes uit de inhoudsopgave ook terug te laten komen in de daadwerkelijke tekst (als kopje opgemaakt) om daar onder de nuance te kunnen plaatsen. Nu zitten we denk ik, terecht, in een spagaat dat de "titel" (in de inhoudsopgave) van het beleid A zegt, de inhoud van het beleid B zegt, moderators A verlangen, maar de redactie ook B en zelfs C doet.
Tweakers gebruikt zelf actief AI in het redactionele proces. In een eigen .plan wordt beschreven dat de redactie een interne tool gebruikt, ChatDPG, gebaseerd op GPT-4o, om teksten te laten genereren en per productcategorie met een specifieke prompt te werken zodat er “een zo goed mogelijke tekst” ontstaat die past bij de categorie. Dat is niet alleen spellingcontrole, maar gewoon serieus tekstwerk via een taalmodel. De huisregels staan dergelijke dingen niet toe
Daarnaast is door redacteur Tijs tijdens de Abodag zelfs toegelicht dat deze digitale redacteur wordt ingezet als hulpmiddel: spelfouten signaleren, herschrijvingen voorstellen, teksten aanscherpen. Wat mij betreft precies het soort gebruik dat ik ook voor FP reacties voorstel: AI als hulpmiddel om je eigen tekst leesbaarder en vriendelijker te maken, niet als vervanging van je eigen inhoud.
Ik heb daar ook helemaal geen probleem mee; integendeel, ik vind het logisch dat de redactie moderne tools inzet. Maar doordat moderators in de discussie AI-herschrijving door gebruikers neerzetten als iets wat “niet gewenst” is en als “communiceren met AI”, ontstaat er een scheve situatie: aan de voorkant wordt AI door de redactie ingezet op precies die manier, aan de achterkant worden gebruikers op vergelijkbaar gebruik aangesproken en wordt er zelfs "gedreigd" met serieuze maatregelen.
Het kost mij soms uren om een nette reactie te maken met voldoende onderbouwde informatie. Ook dit kost weer drie uur. Als AI ingezet kan worden om mensen scherp te houden dat ze niet in frustratie en emotie woorden gebruiken die een negatieve tone of voice promoten vind ik dat best wel een oplossing. ook het challengen van je eigen reactie vind ik een goed gebruik van AI.
"Ik wil het volgende reageren op dit en dit, klopt het eigenlijk wel wat ik zeg en zo ja, kan ik dit ook vriendelijker brengen? Geef wat synoniemen om de tone of voice positiever te maken". dat is toch allemaal zo gek nog niet?
ik probeer met dit topic helemaal niet om AI-walls of spam te verdedigen, maar juist om helderheid en consistentie te krijgen. Volgens de huisregels en de toelichting van de redactie is AI als hulpmiddel toegestaan, zolang de inhoud van jezelf komt en de tekst niet grotendeels door een model is gegenereerd. In de praktijk zie ik echter dat een moderator mijn opmerkingen over AI-hulp uit hun context trekt, daar vrij absolute conclusies aan verbindt zónder onderbouwing, en daarmee de discussie onnodig laat escaleren. Tegelijk is het AI-beleid in de huisregels wat weggestopt en misschien niet geheel in lijn met zichzelf, terwijl de redactie zelf precies dit soort tooling gebruikt om teksten te verbeteren.
Dit topic is dus bedoeld om dat bij elkaar te leggen:
Zorg voor duidelijk geformuleerd en goed terug te vinden beleid, en pas dat vervolgens op een consistente manier toe.
Even een korte schets van de gebeurtenissen
Naar aanleiding van een vraagstuk van @djwice over hoe hij zijn tone of voice in verdere berichten aan zou kunnen passen heb ik in het mismod topic gereageerd op djwice. In mijn reactie heb ik uitgelegd dat ik dezelfde worsteling herken, en dat het kan helpen om meer tijd in een post te steken en eventueel een LLM te gebruiken als hulpmiddel: bijvoorbeeld om je eigen tekst kritisch te laten bevragen of de toon wat te laten polijsten. De inhoud en argumenten moeten van jezelf komen, maar een model kan helpen bij structuur en formulering. Ter illustratie heb ik een stuk tekst van djwice herschreven naar een positievere toon en expliciet vermeld dat dit “simpel door GPT 5” was gedaan, precies als voorbeeld van AI als hulpmiddel, niet als vervanger.
Daarop reageerde Bor met de boodschap dat we
en dat Tweakers interactie tussen mensen en niet tussen machines wil. Hij koppelde mijn opmerking over redigeren met GPT daarmee aan een veel bredere stelling: AI-geschreven reacties zouden op Tweakers vooral klachten opleveren, en AI-content zou door gebruikers niet worden gewaardeerd. Toen hij later stelde dat ze “met behoorlijke regelmaat” meldingen krijgen over AI-reacties en dat “geen enkele” daarvan positief is, heb ik aangegeven dat dit een klassiek voorbeeld van survivor bias is: hij ziet alleen de AI-gevallen waar iemand over klaagt, niet de posts waar AI als hulpmiddel is gebruikt, die gewoon goed vallen en soms zelfs hoog of zeer hoog gemodereerd worden. Dergelijke moderaties spreken wat mij betreft juist waardering uit over de kwaliteit van de post, de inhoud en structuur. Een +3 krijg je niet zomaar.Laten we vooral niet adviseren om met behulp van Ai te gaan communiceren.
Ik heb expliciet benoemd dat zijn conclusie
absoluut niet volgt uit die meldingen, omdat je daarmee alleen de slechtste, opgevallen voorbeelden meet. De goede voorbeelden blijven per definitie buiten beeld. Bor reageerde daarop door te zeggen dat hij het niet eens is met “de draai” die ik eraan geef, dat AI-reacties mogelijk niet herkend worden, maar dat dat voor hem niet uitmaakt: hij “weet eigenlijk wel zeker” dat dergelijke content niet gewenst is en dat “veel van onze gebruikers geen AI-content willen lezen”. Tegelijkertijd schreef hij in dezelfde reactie dat AI om spelfouten te verbeteren “gewoon mag” en dat het probleem vooral is bij volledig of grotendeels door AI geschreven reacties. Als ik dan op dat bericht reageer om de discussie dan ook echt af te sluiten en dat we kunnen concluderen dat we uiteindelijk wel op dezelfde lijn zitten (en daar ook nog wat andere dingen in zet die volledig on topic waren voor iets anders) dan wordt er op .... een wijze ... gewoon een knip in gezet en het geheel weggegooid met de boodschap:Dus ja, wat ik hier stel klopt wel.
Nou... bij deze.Als je deze discussie wilt voeren staat het je vrij een topic te openen.
Op mij komt het zo over dat mijn opmerkingen over AI als hulpmiddel uit hun context zijn gehaald en zijn neergezet alsof ik “AI-Machine2Machine-communicatie” als zodanig zou promoten. Vervolgens worden daar stevige, algemene conclusies aan verbonden (“AI-content is niet gewenst”, “veel gebruikers willen dat niet”), zonder onderbouwing met cijfers of rekening te houden met survivor bias. Dat maakt de discussie onnodig scherp en voelt voor mij als een vorm van escalatie, terwijl mijn standpunt feitelijk in lijn is met de huisregels (“AI als hulpmiddel”) en de toelichting van de redactie. We gaan namelijk van "gebruik AI als hulpmiddel om jezelf te challengen en scherp te blijven op je tone of voice", naar "Grotendeels of geheel middels Ai geschreven reacties zijn op Tweakers niet toegestaan". De stap naar huisregel 3 (die kennelijk een titel heeft, waar ik zo op terug kom) is dan best wel snel gemaakt dat snap ik, maar dat komt dus doordat men vanuit het moderatie team zelf die escalatie maakt. Uiteindelijk zijn we met een vrij grote boog op dezelfde conclusie terecht gekomen en dan denk ik, was dat nou nodig?
Dat brengt mij bij puntje 2. De daadwerkelijke duiding en inhoud van het beleid. Als ik naar de formele huisregels kijk, dan zie ik dat het beleid over AI in feite vrij redelijk en grotendeels in lijn is met wat ik zelf bepleit. In regel 3 staat expliciet: “Kunstmatige intelligentie (AI) mag als hulpmiddel worden gebruikt, maar grotendeels gegenereerde teksten zijn niet toegestaan.” Dat is precies de scheidslijn die ik zelf ook hanteerde in mijn initiële bericht: AI als hulpmiddel is oké, volledig of grotendeels AI-gespuugde reacties niet. Als je dan echter als organisatie in je inhoudsopgave een kop gebruikt die niet de lading dekt en moderators daar wel mee gaan lopen zwaaien, dan snap ik ook wel dat er verwarring ontstaat en je discussie kunt krijgen.Schrijf leesbare zinnen in het Nederlands, zonder AI.
Je kunt de kop van huisregel 3 wat mij betreft niet zo scherp stellen, naast dat het niet terugkomt in het beleid is het simpelweg ook gewoon niet het beleid van tweakers' eigen redactie. Ik zou willen pleiten om de kopjes uit de inhoudsopgave ook terug te laten komen in de daadwerkelijke tekst (als kopje opgemaakt) om daar onder de nuance te kunnen plaatsen. Nu zitten we denk ik, terecht, in een spagaat dat de "titel" (in de inhoudsopgave) van het beleid A zegt, de inhoud van het beleid B zegt, moderators A verlangen, maar de redactie ook B en zelfs C doet.
Tweakers gebruikt zelf actief AI in het redactionele proces. In een eigen .plan wordt beschreven dat de redactie een interne tool gebruikt, ChatDPG, gebaseerd op GPT-4o, om teksten te laten genereren en per productcategorie met een specifieke prompt te werken zodat er “een zo goed mogelijke tekst” ontstaat die past bij de categorie. Dat is niet alleen spellingcontrole, maar gewoon serieus tekstwerk via een taalmodel. De huisregels staan dergelijke dingen niet toe
Daarnaast is door redacteur Tijs tijdens de Abodag zelfs toegelicht dat deze digitale redacteur wordt ingezet als hulpmiddel: spelfouten signaleren, herschrijvingen voorstellen, teksten aanscherpen. Wat mij betreft precies het soort gebruik dat ik ook voor FP reacties voorstel: AI als hulpmiddel om je eigen tekst leesbaarder en vriendelijker te maken, niet als vervanging van je eigen inhoud.
Ik heb daar ook helemaal geen probleem mee; integendeel, ik vind het logisch dat de redactie moderne tools inzet. Maar doordat moderators in de discussie AI-herschrijving door gebruikers neerzetten als iets wat “niet gewenst” is en als “communiceren met AI”, ontstaat er een scheve situatie: aan de voorkant wordt AI door de redactie ingezet op precies die manier, aan de achterkant worden gebruikers op vergelijkbaar gebruik aangesproken en wordt er zelfs "gedreigd" met serieuze maatregelen.
Het kost mij soms uren om een nette reactie te maken met voldoende onderbouwde informatie. Ook dit kost weer drie uur. Als AI ingezet kan worden om mensen scherp te houden dat ze niet in frustratie en emotie woorden gebruiken die een negatieve tone of voice promoten vind ik dat best wel een oplossing. ook het challengen van je eigen reactie vind ik een goed gebruik van AI.
"Ik wil het volgende reageren op dit en dit, klopt het eigenlijk wel wat ik zeg en zo ja, kan ik dit ook vriendelijker brengen? Geef wat synoniemen om de tone of voice positiever te maken". dat is toch allemaal zo gek nog niet?
ik probeer met dit topic helemaal niet om AI-walls of spam te verdedigen, maar juist om helderheid en consistentie te krijgen. Volgens de huisregels en de toelichting van de redactie is AI als hulpmiddel toegestaan, zolang de inhoud van jezelf komt en de tekst niet grotendeels door een model is gegenereerd. In de praktijk zie ik echter dat een moderator mijn opmerkingen over AI-hulp uit hun context trekt, daar vrij absolute conclusies aan verbindt zónder onderbouwing, en daarmee de discussie onnodig laat escaleren. Tegelijk is het AI-beleid in de huisregels wat weggestopt en misschien niet geheel in lijn met zichzelf, terwijl de redactie zelf precies dit soort tooling gebruikt om teksten te verbeteren.
Dit topic is dus bedoeld om dat bij elkaar te leggen:
Zorg voor duidelijk geformuleerd en goed terug te vinden beleid, en pas dat vervolgens op een consistente manier toe.