hans3702 schreef op donderdag 25 oktober 2018 @ 14:20:
Voor het productteam, mogelijk zijn er aan de hand van de logboeken voor zover die met de AVG nog gebruikt mogen worden mogelijkheden om spiders te herkennen aan gedrag in de tijd van AI toch een prima opdracht voor een stagiaire :-)
Dat is helaas onbegonnen werk. Er komen letterlijk honderden, zoniet duizenden, spiders elke dag langs. Veel daarvan komen van buiten Europa en krijgen de cookiewall daardoor sowieso niet. Maar veel van die spiders willen we eigenlijk helemaal niet toestaan (ze zijn lang niet allemaal in het belang van onszelf of van onze bezoekers of maken niet duidelijk wat ze uberhaupt doen), waarbij de cookiewall dus eigenlijk juist handig is

En anders een vrijgave verzoek formulier of contact gegevens waar ik wallibag naar kan verwijzen opdat het voor iedereen op de bedoelde wijze werkt, de cookie muur. Ik denk wel dat het laatste bericht aangeeft dat de wettelijke verlichting boven alles gaat.
We zijn best bereid meer uitzonderingen in te bouwen, maar dat moet natuurlijk wel voldoende meerwaarde geven ivt de benodigde inspanning en daadwerkelijk concreet herkenbaar zijn. Ik kende tot dit topic Wallabag niet eens. Ik kan me trouwens voorstellen dat Wallabag dezelfde gedachte aanhoudt en dat daardoor de kans dat ze bij 'elke' website zo'n formulier willen invullen klein is.
Wat helpt om onze inspanning te beperken is ze toe te laten, is deze dingen weten:
- Welke useragent gebruiken ze
Wallabag en onenote komen bijvoorbeeld niet voor in de afgelopen 30 dagen gebruikte useragents...
- Vanaf welke ip-ranges kunnen we ze verwachten
Als je echter voor google de deur open zet blijf ik wel vinden dat je ook voor MS de deur open moet zetten en dan bedoel ik voor Onenote. In deze is tweakers denk ik de kleine partij en is bij MS aankloppen voor mij geen zinnige actie.
Aangezien het programma onenote gratis is te gebruiken op windows 10 en op een smartphone zou dat voor het productteam niet heel moelijk moeten zijn om de juiste parameters uit een log te vissen en voor dit product de site weer toegankelijk te maken.
Google en Bing (en nog diverse anderen) zijn open gezet. Maar het is best veel werk om elke applicatie die mogelijk zoiets wil doen te installeren (en vaak moet je dan ook nog eerst e.o.a. account maken), uit te zoeken hoe de betreffende handeling werkt en daarna te doen wat jij allemaal beschrijft.
Dus laten we het vooral omkeren, want we hebben heel veel gebruikers die dergelijke tools vaak gebruiken. Zij (en nu dus jij) kunnen daar dus prima mee helpen

De snelste manier om de useragent duidelijk te maken is door een unieke url te gebruiken. Je kan een willekeurige url van Tweakers pakken en daar met ? iets achter plakken. Dus
https://tweakers.net/?ditIsEenTestVoorDeTweakersCrawler.
Het is dan wel handig als je die url vervolgens niet zodanig deelt dat tientallen mensen 'm gebruiken
Overigens moet het dan alsnog voldoende herkenbaar blijken en natuurlijk ook wel een beetje een veelgebruikte partij zijn. We willen niet honderden uitzonderingen voor allerlei obscure partijen die 1 request per week doen
