Schaalverbreding scorekaarten

Pagina: 1
Acties:

Acties:
  • 0 Henk 'm!

  • Misha
  • Registratie: Augustus 2010
  • Laatst online: 05:54
Binnenkort willen we wat gaan aanpassen aan de scorekaart en ik zou graag wat input van jullie hiervoor verzamelen.

Momenteel kun je bij het schrijven van een productreview een product beoordelen op een set criteria. Per criteria kun je kiezen uit vijf verschillende waardes/labels, variërend van 'Zeer slecht' tot 'Zeer goed'. Bij sommige criteria worden contextuele waardes/labels gebruikt, bijvoorbeeld bij Warmteproductie. Hier kunnen jullie kiezen voor 'Zeer hoog' tot 'Zeer slecht' en pixeldefecten kun je bijvoorbeeld kiezen voor 'Meerdere defecten', 'Één defect', 'Incidenteel hangende defecten', 'Geen defecten' en 'Geen defecten na langdurig gebruik'.

Er bestaat al enige tijd bij wat gebruikers en bij de redactie (die nagenoeg hetzelfde scorekaartsysteem gebruikt) de wens om meer vrijheid te krijgen bij het geven van scores op bepaalde criteria (en niet alleen bij productreviews, maar ook shopreviews bijvoorbeeld). Er wordt vaak gevraagd om ook halve waardes te kunnen geven, bijvoorbeeld 4.5 ster, omdat een product bijvoorbeeld niet ultiem goed is, maar ook weer niet bijna perfect is. Met een schaalvergroting moet het uiteindelijk mogelijk worden dit te bewerkstelligen.

Het struikelblok hierbij zijn de labels die gebruikt worden, en dan met name wanneer er afgestapt wordt van de standaard beoordeling van 'Zeer slecht' naar 'Zeer goed'.

In het verleden is op een gegeven moment gekozen om bij bijvoorbeeld het criterium 'Warmteproductie' te kiezen voor 'Zeer hoog' tot 'Zeer laag', en dat vervolgens te vertalen naar een aantal sterren. Als we de schaal gaan verbreden, dan zullen er ook meer labels komen zodat je de keuze kunt maken. Je zou dan bijvoorbeeld bij 'Warmteproductie' terecht komen op:

- Extreem hoog
- Zeer hoog
- Hoog
- Bovengemiddeld
- Acceptabel
- Ondergemiddeld
- Laag
- Zeer laag
- Extreem laag

Zo is dit ook goed toepasbaar bij bijvoorbeeld het criterium 'Vervorming' bij lenzen, wat nu van 'Zeer sterk' naar 'Zeer minimaal' gaat. Het is alleen niet toepasbaar op bijvoorbeeld het criterium 'Pixeldefecten' bij monitoren. Dat heeft momenteel de volgende waardes:

- Meerdere defecten
- Één defect
- Incidenteel hangende defecten
- Geen defecten
- Geen defecten na langdurig gebruik

Dit is wat lastig om in schaal te verbreden (persoonlijk vind ik dit criterium sowieso wat lastig en vraag me af hoe relevant het anno 2013 nog is).

Daarom bedacht ik me of we dit wellicht kunnen oplossen door bij deze 'speciale criteria' af te stappen van de contextuele labeling en ook naar de standaard gaan. Aan de ene kant kun je zeggen dat een moederbord een zeer lage geluidsproductie heeft, aan de andere kant vind ik het ook logisch dat een moederbord op het gebied van geluidsproductie zeer goed presteert. Het voordeel van eenzelfde schaalverdeling hebben is natuurlijk consistentie. Je mag verwachten dat een moederbord die veel geluid maakt zijn werk niet goed doet en derhalve zeer slecht scoort. Vervolgens krijgen we er meer vrijheid voor terug om scores toe te kennen.

We kunnen er ook voor kiezen om een goede schaalverdeling te verzinnen bij de contextuele labels, maar dat zal behoorlijk tricky worden.

In ieder geval wilde ik het graag ook bij jullie in de groep gooien. :) Ik heb al met wat productreviewers hierover gesproken, waarbij de een het niet veel uitmaakt als hij maar meer vrijheid krijgt en de ander het prima vind om naar de standaard verdeling te gaan of toch liever een uitgebreidere labeling ziet. Hoe denken jullie hier over?

Ik heb voor de geïnteresseerde even verzameld wat voor soort verschillen we op het moment hebben:

Algemeen, wordt voor grofweg 90% van de criteria gebruikt
Zeer slecht
Slecht
Gemiddeld
Goed
Zeer goed

Speciaal criterium 1, bijv. warmteproductie, geluidsproductie en inktverbruik
Zeer hoog
Hoog
Acceptabel
Laag
Zeer laag

Speciaal criterium 2, bijv vervorming, chromatische abberatie en vignettering
Zeer sterk
Sterk
Acceptabel
Minimaal
Zeer minimaal

Speciaal criterium 3, ghosting
Zeer veel ghosting
Veel ghosting
Acceptabele ghosting
Weinig ghosting
Geen ghosting

Speciaal criterium 4, pixeldefecten
Meerdere defecten
Één defect
Incidentieel hangende defecten
Geen defecten
Geen defecten na langdurig gebruik

Acties:
  • 0 Henk 'm!

  • JHS
  • Registratie: Augustus 2003
  • Laatst online: 09-06 06:07

JHS

Splitting the thaum.

Ik zou sowieso voor breder dan een 5 punts schaal gaan, meer verschillen zijn arbitrair en leiden alleen maar tot cijferinflatie. (Je zou eerder nog 4 punten gebruiken, om te voorkomen dat mensen teveel naar het midden trekken.)

De speciale criteria klinken best logisch, maar ik weet niet of dat zo veel toevoegt dat ik dat nou erg veel prio zou geven..

DM!


Acties:
  • 0 Henk 'm!

  • peter123
  • Registratie: Juni 2007
  • Niet online
Ik heb er persoonlijk geen behoefte aan.
Als je van een 5 jaar oude PC gaat naar een nieuwe is dat voor de persoon die de review maakt misschien 5 sterren. Als je dezelfde nieuwe PC afzet tegen wat je anders had kunnen kopen, is het misschien wel 1 ster.
Wat voor de ene persoon een koopje is, is voor de andere een vermogen. Dus hoe beoordeel je de prijs? Of is de prijs de prijs/prestatie verhouding?
Wat ik wil zeggen is dat het hele sterrensysteem nogal discutabel is en persoonlijk.
Ik vind de wijzigingen in het sterrensysteem in Tweakers.net v7 beter dan v6. Ik zie meer kleine reviews en dat is goed. Als er veel reviews zijn, dan krijg je een goed beeld, vooral van de betrouwbaarheid. Het is goed om het laagdrempelig te houden denk ik.
Nog een verzoekje: Kunnen jullie het tekstvlak ook groter maken? Ik moet nu veel scrollen.

10kWp zon - 20kWh accu - 62kWh auto - 3,5kW L/L - HAOS


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 10:41

pino85

Im just a Bird in the Sky

Edit:

NVM dacht dat het over jullie eigen reviews van producten ging had niet goed gelezen.. ik had een idee over jullie eigen reviews dus is die mening in dit topic niet relevant. :$

[ Voor 141% gewijzigd door pino85 op 17-01-2013 16:12 ]

Liefhebber van Tweakers


Acties:
  • 0 Henk 'm!

  • TERW_DAN
  • Registratie: Juni 2001
  • Niet online

TERW_DAN

Met een hamer past alles.

peter123 schreef op donderdag 17 januari 2013 @ 15:15:
Wat ik wil zeggen is dat het hele sterrensysteem nogal discutabel is en persoonlijk.
Ik vind de wijzigingen in het sterrensysteem in Tweakers.net v7 beter dan v6. Ik zie meer kleine reviews en dat is goed.
Het sterrensysteem is hetzelfde in 6 als in 7. Dus wat bedoel je hier precies mee?


De schaalverbreding hoeft wat mij betreft niet, 5 sterren lijkt me eigenlijk wel voldoende.

Acties:
  • 0 Henk 'm!

  • peter123
  • Registratie: Juni 2007
  • Niet online
Wat betreft v6 en v7 bedoelde ik niet het sterrensysteem, maar het plaatsen van een review in het algemeen. Ook de beoordeling van reviews is verbeterd vind ik.

10kWp zon - 20kWh accu - 62kWh auto - 3,5kW L/L - HAOS


Acties:
  • 0 Henk 'm!

  • Misha
  • Registratie: Augustus 2010
  • Laatst online: 05:54
JHS schreef op donderdag 17 januari 2013 @ 14:24:
Ik zou sowieso voor breder dan een 5 punts schaal gaan, meer verschillen zijn arbitrair en leiden alleen maar tot cijferinflatie. (Je zou eerder nog 4 punten gebruiken, om te voorkomen dat mensen teveel naar het midden trekken.)

De speciale criteria klinken best logisch, maar ik weet niet of dat zo veel toevoegt dat ik dat nou erg veel prio zou geven..
Uiteindelijk vormen de labels bij speciale criteria een klein deel. Het is inderdaad de vraag of dan de rest van de functies 'daar onder moeten lijden'.
peter123 schreef op donderdag 17 januari 2013 @ 15:15:
Wat ik wil zeggen is dat het hele sterrensysteem nogal discutabel is en persoonlijk.
Ik vind de wijzigingen in het sterrensysteem in Tweakers.net v7 beter dan v6. Ik zie meer kleine reviews en dat is goed. Als er veel reviews zijn, dan krijg je een goed beeld, vooral van de betrouwbaarheid. Het is goed om het laagdrempelig te houden denk ik.
Nog een verzoekje: Kunnen jullie het tekstvlak ook groter maken? Ik moet nu veel scrollen.
Ieder beoordelingsysteem is ook altijd persoonlijk. Wat de een erg goed vind, kan voor de ander anders zijn. Zo vind ik het heel gaaf als bijvoorbeeld mijn SLR volgepropt is met knoppen voor alle functies, en daarmee een wat druk design krijgt, terwijl een ander juist houdt van strakke bodies zonder al te veel poespas. Het blijft alitjd persoonlijk. Hetzelfde kan gezegd worden voor warmteproductie: wat de een zeer hoog vind, kan voor de ander acceptabel zijn.

Mbt het tekstvlak: je kunt het tekstveld zelf al verbreden door rechtsonderaan te slepen. Dat is een standaard functionaliteit van tekstvelden. Je kunt het herkennen aan de twee streepjes. Mocht je die niet zien dan hoor ik het graag. :)

Acties:
  • 0 Henk 'm!

  • crisp
  • Registratie: Februari 2000
  • Laatst online: 17:20

crisp

Devver

Pixelated

Misha schreef op vrijdag 18 januari 2013 @ 11:51:
[...]

Mbt het tekstvlak: je kunt het tekstveld zelf al verbreden door rechtsonderaan te slepen. Dat is een standaard functionaliteit van tekstvelden. Je kunt het herkennen aan de twee streepjes. Mocht je die niet zien dan hoor ik het graag. :)
Dat is browser-afhankelijk. Opera heeft het bijvoorbeeld niet ;)

Intentionally left blank


Acties:
  • 0 Henk 'm!

  • TERW_DAN
  • Registratie: Juni 2001
  • Niet online

TERW_DAN

Met een hamer past alles.

crisp schreef op vrijdag 18 januari 2013 @ 12:29:
[...]

Dat is browser-afhankelijk. Opera heeft het bijvoorbeeld niet ;)
En of Opera dat heeft.

Acties:
  • 0 Henk 'm!

  • crisp
  • Registratie: Februari 2000
  • Laatst online: 17:20

crisp

Devver

Pixelated

Ik zie het niet hier in Opera 12.02 onder windows XP :P IE8 heeft het ook niet btw.

Net geupdate naar Opera 12.12 en die heeft het wel :)

Intentionally left blank


Acties:
  • 0 Henk 'm!

  • PeaceNlove
  • Registratie: Juni 2004
  • Laatst online: 11:17

PeaceNlove

Deugleuter

Ik ben zelf niet voor meer dan vijf categorien voor de beoordeling van de criteria.
Voor warmeteproductie bijvoorbeeld zie ik ik niet wat de verschillen zouden moeten zijn tussen:
- Extreem hoog
- Zeer hoog
- Hoog
Dat is allemaal gewoon 1 ster, en bovengemiddeld is 2 sterren. Bovendien is het verschil tussen hoog en zeer hoog voor iedereen weer anders, dus aan dat soort subtiliteit heb je weinig. Het verschil tussen hoog en bovengemiddeld is ook wel anders voor mensen, maar omdat het veel grover is wanneer je met slechts 5 sterren werkt, zal het voor de meesten wel redelijk overeenkomen en heb je dus ook wat aan de score die iemand anders gegeven heeft.
Waar ik wel voor ben is om de totaalscore wél met halve sterren te werken, want daar kan je de verschillen die uit de subcategorien komen dan wel in verwerken.

Bijvoorbeelde de consumentenbond werkt hier ook mee voor de tests dmv van 5 categorien (++,+,[],-,--), maar komt op het einde van de rij wel met een mooi cijfer achter de komma als gewogen totaalscore.
En het zou helemaal top zijn als jullie dan ook nog even implementeren dat iedere user zijn gewichten voor de verschillende criteria ook nog kan aanpassen. Om bij het voorbeeld van de koelers te blijven. Als ik vooral een stille koeler wil voor op mijn zuinige CPU, dan wil ik de scores voor geluid zwaar laten meetellen en de scores voor warmteontwikkeling niet of nauwelijks (dit hebben ze bij de CB overigens ook op de site).
crisp schreef op vrijdag 18 januari 2013 @ 12:40:
[...]

Ik zie het niet hier in Opera 12.02 onder windows XP :P IE8 heeft het ook niet btw.

Net geupdate naar Opera 12.12 en die heeft het wel :)
Weet u zeker dat u devver bent? :P

[ Voor 9% gewijzigd door PeaceNlove op 18-01-2013 23:06 ]


Acties:
  • 0 Henk 'm!

  • crisp
  • Registratie: Februari 2000
  • Laatst online: 17:20

crisp

Devver

Pixelated

PeaceNlove schreef op vrijdag 18 januari 2013 @ 23:05:
[...]
Weet u zeker dat u devver bent? :P
Juist daarom heb ik ook nog oude meuk beschikbaar naast modernere varianten. Opera en IE gebruik ik zelf bijna nooit - alleen om dingen te testen, en Chrome ook alleen als het moet :P

[ Voor 4% gewijzigd door crisp op 19-01-2013 00:01 ]

Intentionally left blank


Acties:
  • 0 Henk 'm!

  • peter123
  • Registratie: Juni 2007
  • Niet online
Ik gebruik zelf ook Opera en ik kan hem inderdaad naar beneden trekken. Hele mooie optie. Thx.

10kWp zon - 20kWh accu - 62kWh auto - 3,5kW L/L - HAOS


Acties:
  • 0 Henk 'm!

  • roland83
  • Registratie: Oktober 2008
  • Laatst online: 26-06 00:03
Misha, leuk dat je me hebt gevraagd om mee te denken! Het heeft twee daagjes geduurd (iets met werk), maar mijn epistel is af :)

Ik vind het een goed idee om de schalen wat te vergroten. Het is nu zoals Misha al beschrijft best lastig om iets 4,5 ster te geven, als je dat wel zou willen. Een schaal van 7 keuzemogelijkheden lijkt me hierbij ideaal. Vijf is te weinig, maar het voorbeeld van Misha met 9 mogelijkheden is zo lang dat je al gauw niet meer kunt kiezen. Ook is bij 9 mogelijkheden niet meer een precies midden aan te geven. Soms is een onderdeel simpelweg niet goed en niet slecht, maar misschien wel ondergemiddeld. Toch wil je dan Acceptabel aanklikken, omdat Ondergemiddeld in het staatje van 9 net weer te weinig is.

Het grootste risico wat je bij uitbreiding loopt is dat verschillende mensen ook verschillende meningen aangeven. Logisch, daar zijn het mensen voor. Maar de variatie wordt wel groter naarmate je meer keuzes aanbiedt. Het referentiekader is ook lang niet gelijk bij iedereen.

Verder vind ik de uitgebreidere "flexibele" criteria zoals die nu zijn eigenlijk prima. Je noemt ze al, ze hoeven van mij niet per se uitgebreider of helemaal anders. Je moet zeker niet afstappen van deze criteria, geluidsproductie bij een moederbord slaat helemaal nergens op. En bij een lens wil je juist weten hoeveel vervorming deze heeft, en nog meer wat de scherpte is.

De algemene criteria "featureset" en "prijs" zijn voor mij wel elke keer hoofdbrekers. Voor "Prijs" gebruik ik eigenlijk "prijs/prestatieverhouding", maar velen zullen dit zien als "het is goedkoop en werkt, dus 5 sterren voor prijs". Bij de reviews van Tweakers zelf lijkt dit al beoordeeld te worden als prijs/prestatieverhouding, zie bijvoorbeeld de recente review van ssd's. De featureset vind ik moeilijker, want wat is het eigenlijk? Bij een videokaart is het misschien makkelijk: veel aansluitingen, kabeltjes compleet, dus een goede featureset. Een harddisk dan: er zit een disk in een zakje. Is de featureset dan slecht? Je kunt het lezen als: kan het apparaat veel en is de doos volgestopt met leuke extra's?

Een algemeen probleem wat je bij specifieke criteria krijgt en houdt: referentiekader van de reviewer. Hoe specifieker, hoe meer je er last van hebt. Voorbeeld: ik heb zelf een DSLR, met inmiddels drie lenzen. Ik weet hoe scherp een foto kan worden met mijn camera en met welke lens. Mocht ik nu een nieuwe superdeluxe hyperlens kopen van 1500 euro, dan merk ik die extra scherpte niet doordat mijn camera het niet kan gebruiken. Mijn referentiekader schiet hier dus tekort. Ook schoot het nog tekort toen ik nog maar 2 lenzen had, en een vaste 50mm lens erbij kocht. Er ging een wereld open: het is een van de beste lenzen die Nikon maakt. Vrijwel geen vervorming en chromatische abberatie, en een scherpte van hier tot Tokyo. Maar ja, dat vind ik nu, hoe is dat als ik een straks misschien een superdeluxe hypercamera koop?
Ik durf wel te stellen dat mijn referentiekader op dit gebied (veel?) groter is dan de consument die een mooie Nikon D5300 koopt met een standaard kitlens: die heeft de beste bedoelingen in zijn review, en geeft scherpte van de lens misschien wel 5 sterren. Terwijl dat dus niet kan; een ander met een groter referentiekader geeft dezelfde lens misschien maar 3 sterren. Waar wil ik nou heen: ik denk dat dit effect wordt versterkt zodra er meer keuzemogelijkheden komen.

Dit probleem wordt op - jaja, dat verwacht je niet - Dealextreme opgelost door bij een review verplicht op te geven hoeveel kennis je van het product hebt. Er moet nog wel beter worden nagedacht over de keuzemogelijkheden dan nu bij DX wordt gebruikt, maar het idee lijkt me goed. Iemand die net zijn eerste camera heeft gekocht, kan bij de review zetten dat hij nog vrij onervaren is op dit gebied. En een ander die al 4 camera's en 10 lenzen heeft versleten, mag wel opschrijven dat hij expert is. Het risico bij dit systeem is misschien wel dat iedereen denkt dat hij een tweaker is en dus opschrijft dat hij expert is, al zijn er ook genoeg reviews waar de auteur zich meteen excuseert door te zeggen dat het de eerste review is en dat hij het product pas 2 dagen heeft. Uitstekend, die opmerkingen zie ik heel graag. Daaruit kun je direct het referentiekader van de gebruiker opmaken, en dus bepalen hoe betrouwbaar je de review vindt.

PeaceNlove noemt het hierboven ook al: een gewogen gemiddelde. Momenteel erger ik me aan sommige reviews enorm doordat allerlei punten 3-4 sterren krijgen, en een enkele 5, terwijl "Algemeen" dan 5 of juist 2 sterren krijgen. Dit doet de betrouwbaarheid van de review behoorlijk teniet. Ik vind dat Algemeen een weerspiegeling moet zijn van alle criteria. Ik heb zelfs voor mijn eigen reviews een optelsommetje gemaakt, en het totaal gedeeld door het aantal criteria. En waar ik op bijvoorbeeld 3,5 of 4,5 uitkwam, dan koos ik een criterium uit wat ik belangrijk vond om te gebruiken als afrondfactor (als in: naar boven of naar beneden afronden). Dat geeft mijns inziens een realistisch beeld van hoe goed het product is. Een nadeel: 5 sterren uitdelen wordt hierdoor erg moeilijk. Daarom heeft mijn review van de Sennheiser IE 8 maar 4 sterren als totaal, terwijl ik me weinig beters kan wensen. Meer keuzemogelijkheden had ervoor gezorgd dat ik hier 4,5 punt had kunnen uitdelen, of 6 van 7.

Wat ook meteen aangepakt mag worden zijn reviews als deze. Drie zinnen in de review, terwijl de echte review pas in de voor- en nadelen staat. De lengte klaag ik even niet over, maar de voor- en nadelen hadden een samenvattende herhaling moeten zijn van de reviewtekst zelf. Ik weet dat niet elke Tweaker een geboren auteur is, maar dit soort reviews zijn gewoon geen review. Het is op te lossen door in de plus- en minpunten af te dwingen dat er kort en bondig puntsgewijs een aantal punten worden opgenoemd. Dit gebeurt nu al door elke newline in het stukje tekst te laten beginnen met een mooie plus of min, maar dat snapt de gemiddelde gebruiker niet.

Ten slotte het punt over pixeldefecten: het is nog steeds relevant als je de reviews van Kid Jansen leest over Dell-monitoren. Dell levert garantie dat alle pixelfouten worden opgelost, en alle exemplaren die hij heeft getest hadden pixelfouten. Toch is het algemeen moeilijk te beoordelen, doordat Kid Jansen een uitzonderingsgeval is (hij krijgt testschermen van Dell) en een normale sterveling maar 1 scherm koopt. Als deze geen fouten bevat, dan geef je pixeldefecten 5 sterren, en met een pixeldefect geef je maar 1 ster? Wordt het niet erg betrouwbaar van.

Ik ga niet nog meer schrijven, want dan wordt het verhaal wel heel lang. Er borrelt vast nog wel wat op, maar eerst mogen jullie hierop schieten :)

Hoe kort je Tweakers tegenwoordig af? Toen het nog Tweakers.net was, werd het T.net, maar nu?

Acties:
  • 0 Henk 'm!

  • Bundin
  • Registratie: Januari 2006
  • Niet online
Ik zou inderdaad afstappen van alle niet-standaard labels om verwarring te voorkomen. Gewoon alles van Zeer Slecht tot Zeer Goed laten lopen. Extreem hoge of lage scores worden in goede reviews toch toegelicht, dus die specifieke labels lijken me niet echt nodig.

Van een expert-reviewer (in veel gevallen de redactie ook dus) kan ik me voorstellen dat hij graag halve sterren gebruikt omdat hij de kleurweergave of vormgeving van dit model nét even beter vindt dan die van model X maar iets minder dan Y en Z. Op zo'n moment heeft een schaalvergroting meerwaarde. Ook heeft het meerwaarde bij scores die gebaseerd zijn op objectieve criteria zoals metingen.

Voor gebruikersreviews en subjectieve/relatieve scores vind ik een 5-puntsschaal echter prima. Een verschil tussen "Goed" en "Zeer Goed" voor iets als vormgeving of kleurweergave kan ik me misschien nog voorstellen maar dat is al giswerk omdat je niet weet wat de gebruiker als vergelijkingsmateriaal gebruikt. Ik kan niet zien of de gebruiker zijn oordeel baseert op een vergelijking met andere courante modellen, of misschien maar met ééntje, of misschien wordt de nieuwe TV vergeleken met de 9 jaar oude hd-ready lcd die net vervangen is. Een label "Zeer Goed" geeft dan aan dat de gebruiker er erg tevreden mee is, verder verfijnen naar Extreem Goed vertelt me niets extra's.

Allleen bij een eindoordeel kan ik me voorstellen dat een 10-puntsschaal toch meerwaarde heeft voor gebruikersreviews. Het gaat dan (in een goede review) om een gewogen gemiddelde (met misschien nog een aanpassing naar boven of beneden vanwege criteria die niet in de scorekaart staan). De weging kan per persoon verschillen omdat ze andere eisen aan hun producten stellen dus een wat grotere schaal biedt dan meer opties. Ik zou dan wel "algemene beoordeling" hernoemen naar "eindoordeel" om (nog) duidelijker te maken dat deze score de totaalscore is waarin alle andere punten meegewogen dienen te worden.

p.s.: de laatste keer dat ik een scherm heb geruild wegens dooie pixels is nog geen 2 jaar geleden, wat mij betreft blijft dat criterium dus :)

[ Voor 13% gewijzigd door Bundin op 20-01-2013 20:04 ]


Acties:
  • 0 Henk 'm!

  • Mexel
  • Registratie: Juni 2009
  • Laatst online: 03-03 19:20

Mexel

↓ volgende bericht hieronder ↓

Het review systeem wat we nu hebben is op zich prima, alleen zie ik toch liever een halve punten systeem erbij, ook omdat er altijd wel iets is met een product wat beter kan, dus twijfel je tussen 4 of 5 sterren, dan in het midden gaan zitten.

Wel vindt ik dat jullie de korte reviews moeten gaan aanpakken, zoals roland al aangaf, ik erger er me kapot aan, ik zie er nu net 1 binnenkomen : productreview: LG 55LM860V Zwart review door quakel

Ik ga over de rest nog even nadenken, jullie zien me later wel even hier, ben nu even druk met de koffie.

↓ volgende bericht hieronder ↓


Acties:
  • 0 Henk 'm!

  • Misha
  • Registratie: Augustus 2010
  • Laatst online: 05:54
PeaceNlove schreef op vrijdag 18 januari 2013 @ 23:05:
Ik ben zelf niet voor meer dan vijf categorien voor de beoordeling van de criteria.
Voor warmeteproductie bijvoorbeeld zie ik ik niet wat de verschillen zouden moeten zijn tussen:
- Extreem hoog
- Zeer hoog
- Hoog
Dat is allemaal gewoon 1 ster, en bovengemiddeld is 2 sterren. Bovendien is het verschil tussen hoog en zeer hoog voor iedereen weer anders, dus aan dat soort subtiliteit heb je weinig. Het verschil tussen hoog en bovengemiddeld is ook wel anders voor mensen, maar omdat het veel grover is wanneer je met slechts 5 sterren werkt, zal het voor de meesten wel redelijk overeenkomen en heb je dus ook wat aan de score die iemand anders gegeven heeft.
Waar ik wel voor ben is om de totaalscore wél met halve sterren te werken, want daar kan je de verschillen die uit de subcategorien komen dan wel in verwerken.

Bijvoorbeelde de consumentenbond werkt hier ook mee voor de tests dmv van 5 categorien (++,+,[],-,--), maar komt op het einde van de rij wel met een mooi cijfer achter de komma als gewogen totaalscore.
En het zou helemaal top zijn als jullie dan ook nog even implementeren dat iedere user zijn gewichten voor de verschillende criteria ook nog kan aanpassen. Om bij het voorbeeld van de koelers te blijven. Als ik vooral een stille koeler wil voor op mijn zuinige CPU, dan wil ik de scores voor geluid zwaar laten meetellen en de scores voor warmteontwikkeling niet of nauwelijks (dit hebben ze bij de CB overigens ook op de site).
[...]
Interessante punten. Ik ben het in grote lijnen met je eens, vandaar dat ik ook voorstel om af te stappen van de speciale benaming en het naar een uitmuntend tot en met zeer slecht labeling te brengen. Dat is vatbaar genoeg voor de gebruiker om een keuze te kunnen maken.

Dat punt met weging vind ik erg interessant. Ik zie bij de CB het niet bij hun gebruikersreviews. Doen ze dat enkel bij hun eigen testoordelen? (Ik heb geen account daar)

Acties:
  • 0 Henk 'm!

  • Misha
  • Registratie: Augustus 2010
  • Laatst online: 05:54
Erg bedankt!
roland83 schreef op zaterdag 19 januari 2013 @ 13:02:

Ik vind het een goed idee om de schalen wat te vergroten. Het is nu zoals Misha al beschrijft best lastig om iets 4,5 ster te geven, als je dat wel zou willen. Een schaal van 7 keuzemogelijkheden lijkt me hierbij ideaal. Vijf is te weinig, maar het voorbeeld van Misha met 9 mogelijkheden is zo lang dat je al gauw niet meer kunt kiezen. Ook is bij 9 mogelijkheden niet meer een precies midden aan te geven. Soms is een onderdeel simpelweg niet goed en niet slecht, maar misschien wel ondergemiddeld. Toch wil je dan Acceptabel aanklikken, omdat Ondergemiddeld in het staatje van 9 net weer te weinig is.

Het grootste risico wat je bij uitbreiding loopt is dat verschillende mensen ook verschillende meningen aangeven. Logisch, daar zijn het mensen voor. Maar de variatie wordt wel groter naarmate je meer keuzes aanbiedt. Het referentiekader is ook lang niet gelijk bij iedereen.
Goed punt. Een schaal van 7 lijkt mij echter wat krom. Waarom 7? En hoe zou je zoiets kunnen weergeven? Het voordeel van een schaal van negen is dat je halve sterren kunt tonen. Als je een schaal van 7 gaat verdelen over sterren, dan krijg je 1 ster en een beetje :+ dat lijkt me niet duidelijk voor een gebruiker. Anderzijds kun je ook zeggen dat je het dan maar wat discreter gaat invullen, en enkel een bepaalde waarde een cijfer laat vullen, bijvoorbeeld:

1 -> 1 ster
2 -> 2 sterren
3 -> 3 sterren
4 -> 3.5 ster
5 -> 4 sterren
6 -> 4.5 ster
7 -> 5 sterren

Maar dan is het wat vreemd dat je bijvoorbeeld niet een 2.5 kunt geven
roland83 schreef op zaterdag 19 januari 2013 @ 13:02:

Verder vind ik de uitgebreidere "flexibele" criteria zoals die nu zijn eigenlijk prima. Je noemt ze al, ze hoeven van mij niet per se uitgebreider of helemaal anders. Je moet zeker niet afstappen van deze criteria, geluidsproductie bij een moederbord slaat helemaal nergens op. En bij een lens wil je juist weten hoeveel vervorming deze heeft, en nog meer wat de scherpte is.
Het is ook niet de bedoeling om van het criterium zelf af te stappen: het gaat om de labeling. Een lens moet je kunnen beoordelen op de hoeveelheid Flare dat het heeft, maar de vraag is of je het op een schaal van "Zeer slecht" tot en met "Uitmuntend" moet kunnen beoordelen, of van "Extreem veel" tot en met "Extreem weinig". Het lijkt mij dat dit tweede bij een dergelijke schaal geen uitkomst meer biedt, omdat het verschil tussen "Extreem hoog" en "Zeer hoog" voor mensen niet vatbaar is. Het verschil tussen "Zeer slecht" en "Slecht" is een stuk makkelijker te begrijpen (en te maken).
roland83 schreef op zaterdag 19 januari 2013 @ 13:02:

De algemene criteria "featureset" en "prijs" zijn voor mij wel elke keer hoofdbrekers. Voor "Prijs" gebruik ik eigenlijk "prijs/prestatieverhouding", maar velen zullen dit zien als "het is goedkoop en werkt, dus 5 sterren voor prijs". Bij de reviews van Tweakers zelf lijkt dit al beoordeeld te worden als prijs/prestatieverhouding, zie bijvoorbeeld de recente review van ssd's. De featureset vind ik moeilijker, want wat is het eigenlijk? Bij een videokaart is het misschien makkelijk: veel aansluitingen, kabeltjes compleet, dus een goede featureset. Een harddisk dan: er zit een disk in een zakje. Is de featureset dan slecht? Je kunt het lezen als: kan het apparaat veel en is de doos volgestopt met leuke extra's?
Ik vind zelf een criterum prijs/prestatieverhouding wat moeilijk, omdat dat voor mij ook heel veel weg heeft van een Algemene Beoordeling. We lopen al een tijdje met het idee om een korte nuancering toe te kunnen voegen bij ieder beoordeeld criterium, zoals bijvoorbeeld GDGT.com het doet. Dat lost dit probleem op, plus zorgt ervoor dat andere beoordeling goed in hun context gelezen worden.
roland83 schreef op zaterdag 19 januari 2013 @ 13:02:

Een algemeen probleem wat je bij specifieke criteria krijgt en houdt: referentiekader van de reviewer. Hoe specifieker, hoe meer je er last van hebt. Voorbeeld: ik heb zelf een DSLR, met inmiddels drie lenzen. Ik weet hoe scherp een foto kan worden met mijn camera en met welke lens. Mocht ik nu een nieuwe superdeluxe hyperlens kopen van 1500 euro, dan merk ik die extra scherpte niet doordat mijn camera het niet kan gebruiken. Mijn referentiekader schiet hier dus tekort. Ook schoot het nog tekort toen ik nog maar 2 lenzen had, en een vaste 50mm lens erbij kocht. Er ging een wereld open: het is een van de beste lenzen die Nikon maakt. Vrijwel geen vervorming en chromatische abberatie, en een scherpte van hier tot Tokyo. Maar ja, dat vind ik nu, hoe is dat als ik een straks misschien een superdeluxe hypercamera koop?
Ik durf wel te stellen dat mijn referentiekader op dit gebied (veel?) groter is dan de consument die een mooie Nikon D5300 koopt met een standaard kitlens: die heeft de beste bedoelingen in zijn review, en geeft scherpte van de lens misschien wel 5 sterren. Terwijl dat dus niet kan; een ander met een groter referentiekader geeft dezelfde lens misschien maar 3 sterren. Waar wil ik nou heen: ik denk dat dit effect wordt versterkt zodra er meer keuzemogelijkheden komen.
Heel goed punt. Ik ben het er alleen niet mee eens dat dit versterkt zal worden als er beoordeeld kan worden op een verbrede schaal. De (en correct me for using these terms) 'onwetende gebruiker' zal altijd een ander referentiekader hebben dan wij, die veel ervaring hebben met apparatuur. Wellicht dat de nuancering die ik hierboven beschreef het probleem wel zou kunnen oplossen. Want in alle eerlijkheid vind ik zelf de scherpte van een kitlens erg goed, domweg omdat de lens zelf geen drol kost :P maar dan wil ik dat wel aangeven bij de beoordeling met een klein zinnetje, zodat de lezer snapt dat bijvoorbeeld de scherpte erg goed is voor zo'n goedkope lens, maar het bij lange na niet zo goed is als een fixed focus lens.
roland83 schreef op zaterdag 19 januari 2013 @ 13:02:

Dit probleem wordt op - jaja, dat verwacht je niet - Dealextreme opgelost door bij een review verplicht op te geven hoeveel kennis je van het product hebt. Er moet nog wel beter worden nagedacht over de keuzemogelijkheden dan nu bij DX wordt gebruikt, maar het idee lijkt me goed. Iemand die net zijn eerste camera heeft gekocht, kan bij de review zetten dat hij nog vrij onervaren is op dit gebied. En een ander die al 4 camera's en 10 lenzen heeft versleten, mag wel opschrijven dat hij expert is. Het risico bij dit systeem is misschien wel dat iedereen denkt dat hij een tweaker is en dus opschrijft dat hij expert is, al zijn er ook genoeg reviews waar de auteur zich meteen excuseert door te zeggen dat het de eerste review is en dat hij het product pas 2 dagen heeft. Uitstekend, die opmerkingen zie ik heel graag. Daaruit kun je direct het referentiekader van de gebruiker opmaken, en dus bepalen hoe betrouwbaar je de review vindt.
Ook erg interessant punt. We zouden eens kunnen verkennen hoe de expertise van een gebruiker kunnen laten terugkomen in een review. Stel dat iemand heel veel goedgewaardeerde reviews heeft geschreven, dan mag dit best terugkomen. Dan weet de lezer ook meteen dat de reviewer kaas heeft gegeten van de stof. Interesant. We zouden ook bijvoorbeeld een harde koppeling kunnen maken met de inventaris, zoals GDGT.com het doet, al is dat ook niet helemaal waterproof. Dat zorgt er ook meteen voor dat het gebruik van de inventaris meer gestimuleerd wordt.
roland83 schreef op zaterdag 19 januari 2013 @ 13:02:

PeaceNlove noemt het hierboven ook al: een gewogen gemiddelde. Momenteel erger ik me aan sommige reviews enorm doordat allerlei punten 3-4 sterren krijgen, en een enkele 5, terwijl "Algemeen" dan 5 of juist 2 sterren krijgen. Dit doet de betrouwbaarheid van de review behoorlijk teniet. Ik vind dat Algemeen een weerspiegeling moet zijn van alle criteria. Ik heb zelfs voor mijn eigen reviews een optelsommetje gemaakt, en het totaal gedeeld door het aantal criteria. En waar ik op bijvoorbeeld 3,5 of 4,5 uitkwam, dan koos ik een criterium uit wat ik belangrijk vond om te gebruiken als afrondfactor (als in: naar boven of naar beneden afronden). Dat geeft mijns inziens een realistisch beeld van hoe goed het product is. Een nadeel: 5 sterren uitdelen wordt hierdoor erg moeilijk. Daarom heeft mijn review van de Sennheiser IE 8 maar 4 sterren als totaal, terwijl ik me weinig beters kan wensen. Meer keuzemogelijkheden had ervoor gezorgd dat ik hier 4,5 punt had kunnen uitdelen, of 6 van 7.
Ik begrijp wel waarom een product alsnog maar 2 sterren krijgt, domweg omdat (zoals ook in dit topic staat) een bepaald criterium zwaarder kan meewegen voor de gebruiker. Bij een DSLR geef ik zelf vrij weinig om de featureset. Het enige wat ik wil is een volledige handmatige bediening, grote sensor en snelle toegang tot onder/overbelichten. De rest, zoals timelapse- en filmfuncties, kunnen me eigenlijk gestolen worden. Wat ik veel belangrijker vind is de bouwkwaliteit van de camera. Dat weegt voor mij heel erg zwaar mee. Mocht dat onacceptabel zijn, dan zal dat meer invloed hebben op de Algemene Beoordeling dan de beoordeling op Featureset. We zouden echter wel de Algemene Beoordeling alvast automatisch kunnen invullen voor de gebruiker, maar dat hij het alsnog zelf mag aanpassen. De Algemene Beoordeling is dan domweg het gemiddelde, tenzij de gebruiker het zelf aanpast. Anderzijds kunnen we kijken naar wat extra weegfactoren, al kan dat al heel snel behoorlijk ingewikkeld worden :+
roland83 schreef op zaterdag 19 januari 2013 @ 13:02:

Wat ook meteen aangepakt mag worden zijn reviews als deze. Drie zinnen in de review, terwijl de echte review pas in de voor- en nadelen staat. De lengte klaag ik even niet over, maar de voor- en nadelen hadden een samenvattende herhaling moeten zijn van de reviewtekst zelf. Ik weet dat niet elke Tweaker een geboren auteur is, maar dit soort reviews zijn gewoon geen review. Het is op te lossen door in de plus- en minpunten af te dwingen dat er kort en bondig puntsgewijs een aantal punten worden opgenoemd. Dit gebeurt nu al door elke newline in het stukje tekst te laten beginnen met een mooie plus of min, maar dat snapt de gemiddelde gebruiker niet.
Dat kunnen we inderdaad nog even goed verduidelijken. Bij de volgende release herintroduceren we weer een minimaal aantal woorden, wat de extreem korte reviews teniet moet doen (garandeert alleen geen kwaliteit :+)
roland83 schreef op zaterdag 19 januari 2013 @ 13:02:

Ten slotte het punt over pixeldefecten: het is nog steeds relevant als je de reviews van Kid Jansen leest over Dell-monitoren. Dell levert garantie dat alle pixelfouten worden opgelost, en alle exemplaren die hij heeft getest hadden pixelfouten. Toch is het algemeen moeilijk te beoordelen, doordat Kid Jansen een uitzonderingsgeval is (hij krijgt testschermen van Dell) en een normale sterveling maar 1 scherm koopt. Als deze geen fouten bevat, dan geef je pixeldefecten 5 sterren, en met een pixeldefect geef je maar 1 ster? Wordt het niet erg betrouwbaar van.
Vandaar dat ik het een wat lastig criterium vind. Volgens mij is dit criterium heel erg gevoelig voor extremen. Volgens mij mogen schermen ook gewoon teruggestuurd worden als er ook maar 1 pixel defect is, toch?
roland83 schreef op zaterdag 19 januari 2013 @ 13:02:

Hoe kort je Tweakers tegenwoordig af? Toen het nog Tweakers.net was, werd het T.net, maar nu?
Voor mij blijven we T.net! :*) .

Thanks voor de input!

Acties:
  • 0 Henk 'm!

  • Misha
  • Registratie: Augustus 2010
  • Laatst online: 05:54
Bundin schreef op zondag 20 januari 2013 @ 19:57:
Ik zou inderdaad afstappen van alle niet-standaard labels om verwarring te voorkomen. Gewoon alles van Zeer Slecht tot Zeer Goed laten lopen. Extreem hoge of lage scores worden in goede reviews toch toegelicht, dus die specifieke labels lijken me niet echt nodig.

Van een expert-reviewer (in veel gevallen de redactie ook dus) kan ik me voorstellen dat hij graag halve sterren gebruikt omdat hij de kleurweergave of vormgeving van dit model nét even beter vindt dan die van model X maar iets minder dan Y en Z. Op zo'n moment heeft een schaalvergroting meerwaarde. Ook heeft het meerwaarde bij scores die gebaseerd zijn op objectieve criteria zoals metingen.

Voor gebruikersreviews en subjectieve/relatieve scores vind ik een 5-puntsschaal echter prima. Een verschil tussen "Goed" en "Zeer Goed" voor iets als vormgeving of kleurweergave kan ik me misschien nog voorstellen maar dat is al giswerk omdat je niet weet wat de gebruiker als vergelijkingsmateriaal gebruikt. Ik kan niet zien of de gebruiker zijn oordeel baseert op een vergelijking met andere courante modellen, of misschien maar met ééntje, of misschien wordt de nieuwe TV vergeleken met de 9 jaar oude hd-ready lcd die net vervangen is. Een label "Zeer Goed" geeft dan aan dat de gebruiker er erg tevreden mee is, verder verfijnen naar Extreem Goed vertelt me niets extra's.
Als je zelf een scorekaart ziet (dus als je bijv iemand anders z'n review gaat bekijken), dan zul je niet direct het label zien. Je zal gewoon het aantal sterren zien. Enkel wanneer je zelf een scorekaart aanmaakt krijg je te maken met de labels. Een "Extreem goed" lijkt me geen valide optie. Ik denk dat je eerder moet kijken naar:

- Zeer slecht (1)
- Slecht (1.5)
- Onvoldoende (2)
- Matig (2.5)
- Voldoende (3)
- Ruim voldoende (3.5)
- Goed (4)
- Zeer goed (4.5)
- Uitmuntend (5)

Dat komt goed overeen met hoe we al in het vroege stadium van ons leven zijn beoordeeld op school en is derhalve goed herkenbaar voor een ieder.
Bundin schreef op zondag 20 januari 2013 @ 19:57:

p.s.: de laatste keer dat ik een scherm heb geruild wegens dooie pixels is nog geen 2 jaar geleden, wat mij betreft blijft dat criterium dus :)
Maar als je hem hebt omgeruild voor een scherm zonder dode pixels; beoordeel je dan het oude product of het nieuwe product? Je hebt er een zonder dode pixels, dus eigenlijk zou hij direct een maximale score moeten krijgen

Acties:
  • 0 Henk 'm!

  • Kid Jansen
  • Registratie: Oktober 2005
  • Niet online
Misha schreef op vrijdag 18 januari 2013 @ 11:51:
Ieder beoordelingsysteem is ook altijd persoonlijk. Wat de een erg goed vind, kan voor de ander anders zijn. Zo vind ik het heel gaaf als bijvoorbeeld mijn SLR volgepropt is met knoppen voor alle functies, en daarmee een wat druk design krijgt, terwijl een ander juist houdt van strakke bodies zonder al te veel poespas. Het blijft alitjd persoonlijk. Hetzelfde kan gezegd worden voor warmteproductie: wat de een zeer hoog vind, kan voor de ander acceptabel zijn.
Wat hierboven staat slaat wat mij betreft de spijker op z'n kop. Ik vind zelf om eerlijk te zijn het sterrensysteem overbodig.

Zelfs al zou iedereen exact dezelfde criteria gebruiken voor het toekennen van een bepaalde waarde, dan nog zal je met het probleem zitten dat in veel productcategoriën de technologie nou eenmaal niet stil staat.

Je kan dus krijgen dat waar een paar jaar geleden het gemiddelde van alle producten van dat jaar rond het midden zat bij een bepaald onderdeel, een paar jaar later alle nieuwe producten rond goed of zelfs zeer goed zitten op een diezelfde schaal.

Wanneer je elk jaar de beoordelingscriteria zou aanscherpen om te compenseren voor de productverbeteringen door nieuwe technologiën krijg je weer het probleem dat het erg lastig wordt om producten te vergelijken die niet met dezelfde criteria beoordeeld zijn.

Verder zit je met een veel te grote diversiteit in sommige productgroepen. Ik pak er voor het gemak even beeldschermen bij, omdat dat toch wel een beetje mijn specialiteit is. Daar heb je een hele reeks paneeltechnologiën met zeer uiteelopende prestaties.

Als ik dan een TN beeldscherm review kan ik vrijwel altijd wel de responsetijd op Goed of Zeer Goed zetten, met een IPS beeldscherm geldt dat weer voor kijkhoeken. In beide gevallen heb je maar 2, hooguit 3 opties, als je voor alle beeldschermen, ongeacht de paneeltechnologie dezelfde criteria gebruikt.

Ga je daar weer op aanpassen, dan krijg je weer dat het erg lastig wordt om twee beeldschermen te vergelijken die allebei een andere paneeltechnologie gebruiken.

Het aantal opties zou wel groter worden als je van een 5-punts schaal naar een 8 of 10-punts schaal gaat, maar nog steeds heb je het probleem dat je altijd maar aan één kant van de schaal zit te werken.

Eigenlijk het enige criterum dat naar mijn idee wel goed werkt is dat voor Pixeldefecten, aangezien die als enige goed gedefinieerde criteria heeft die ook geen verbreding nodig hebben en waar het ook niet uitmaakt als je veel aan één kant van de schaalverdeling werkt. Deze zal ook geen aanpassing nodig hebben over de jaren, maar blijft wel relevant, want anno 2013 hebben we nog steeds te maken met pixeldefecten.


Mochten jullie het 5-punts systeem willen wijzigen in een 10-punts systeem, dan zou ik het gewoon heel simpel van 1 tot 10 laten gaan en ook geen labels geven. Gewoon het rapportcijfer waar iedereen jarenlange ervaring mee heeft van de basisschool, middelbare school en vervolgopleiding.

Maar het enige wat naar mijn idee werkt is mensen die gewoon zoveel mogelijk hun best doen op een review. Zo uitgebreid en goed mogelijk een product testen om een zo objectief en nauwkeurig mogelijk oordeel te kunnen vellen. Maar dit is iets wat nou eenmaal veel tijd en daarnaast ook nog eens veel geld kost.

Ik hecht dan ook vrijwel geen waarde aan de productreviews op Tweakers.net. Met als uitzondering de reviews van een handje vol mensen. Die in sommige gevallen nog betere reviews maken dan de grote reviewwebsites.

Acties:
  • 0 Henk 'm!

  • T.Struik
  • Registratie: Januari 2006
  • Laatst online: 19-08-2022
Ik zie net pas een DM van Misha en heb eerst even het hele topic doorgelezen. Ik heb al veel goede ideeën gezien. Over een aantal wil ik iets kwijt.

-Ervaring reviewer:
Naar mijn idee is het voor een gebruiker in redelijke mate relevant om te weten wat de ervaring/expertise van een reviewer is om te kunnen oordelen wat de waarde is van een review. Dit valt echter deels samen met de waardering van een review (0 t/m 3). Want wat is dan het verschil om de waarde van de review te bepalen? Bied je een gebruiker zo niet te veel opties? Theoretisch zou het dan kunnen zijn dat je een lange review hebt, een hoge waardering, maar een lage mate van ervaring. Kortom de basis van ervaring moet dan wel op een gewichtige manier tot stand komen. Het tegenovergestelde is dus ook mogelijk. Anders gezegd denk ik dat je gebruikers voor niet te veel keuzes moet stellen bij het aangeven/bepalen van de ervaring van een reviewer. Het wordt anders een kwestie dat een lezer eerst moet gaan beoordelen hoe betrouwbaar de beoordeling van de ervaring van de reviewer is ;(. Anders vertaald: het is bekend dat wanneer een verkoper zijn klant legio aan mogelijkheden voorlegt de kans op een succes kleiner wordt. Dit in de schaduw van het feit dat wanneer hij goed luistert, twee opties aanbiedt die uit het verhaal van de klant goed passend blijken, de kansen veel groter zijn.

-Labeling:
Dit blijft wel noodzakelijk denk ik, zeker voor een reviewer zelf (bij het maken van een review, niet wanneer hij gepubliceerd is), om zodoende te stellen waaraan hij ongeveer moet refereren wat betreft prestaties op dat specifieke aspect, zo tackle je volgens mij in lichte mate dat iemand 4,5 goed vindt en een ander extreem goed(ij wijze van). Bij reviewers die al ervaring hebben wordt dit na verloop overbodig, maar de personen die relatief nieuw en onbekend zijn is het mogelijk toch enigszins noodzakelijk om te voorkomen dat ze een product te snel té goed of té slecht waarderen, wat nu toch nog wel gebeurd heb ik het idee.

-Waardering product kenmerken
Een grotere keuze zou ik zelf wel erg prettig vinden, zeker zoals eerder genoemd bij de totale/algemene beoordeling. Hierdoor ken je net even wat meer ‘credits’ toe aan dat product dat bijvoorbeeld meer waard is dan een 4, maar minder dan een vijf. Echter wordt de waarde/betekenis die een lezer kan geven aan de waardering van door de reviewer lastiger. Hoewel een goed natuurlijk duidelijk iets anders zegt dan een beoordeling in de mindere/slechtere sferen.
Zo vraag ik me ook af of het misschien het overwegen waard is om bij de minder ervaren reviewers het algemene oordeel verplicht te koppelen aan het gemiddelde oordeel van alle andere aspecten uit dezelfde review. Zoals eerder genoemd kom ik ook wel eens reviews tegen waar meerdere onderdelen met 3 of 4 sterren worden beoordeeld, maar het eindoordeel op zeer goed staat, dit verlaagt de betrouwbaarheid van de review an sich zou ik zeggen. Zeker als nergens duidelijk uit blijkt waarom de gebruiker dat zo oordeelt.

Anderzijds: Een voordeel van het huidige 5 punten systeem is dat het gebruikers dwingt te kiezen voor iets dat mogelijk te veel of te weinig is qua punten (geen midden weg als 4.5) op dat specifieke aspect. Een voordeel? Ja, inderdaad een voordeel, in die zin dat het bij mij zo werkt dat het me soms stevig aan het denken kan zetten waarom ik nou voor die 4 of die 5 sterren zou kiezen. Dit geeft een beter afgewogen oordeel. Vraag is daarbij of dat ook bij andere reviewers zo werkt.

Het belangrijkste in het geheel blijft denk ik de betekenis die gebruikers moeten ontlenen aan een oordeel. Zo lijkt het mij waardevol dat een waardering klikbaar wordt en zo verwijst naar het tekst gedeelte waarde de verklaring van de score op dat aspect staat. Zo weet de lezer goed waarom de reviewer een specifiek punt zo waardeert. Wat is die 4 bijvoorbeeld op gewaardeerd? Nadeel daarvan is dat het meer moeite van de gebruiker vraagt om dit te realiseren, terwijl de drempel voor een review juist laag moet blijven. Zo is een verschil in interpretatie (wat zegt een 4 of een goed nu precies?) in enige mate weg te nemen of kan een labeling voor de lezers zelfs achterwege blijven. De basis hiervoor zou denk ik al kunnen liggen in het eerder gesuggereerde 'schoolse' systeem.

Acties:
  • 0 Henk 'm!

  • roland83
  • Registratie: Oktober 2008
  • Laatst online: 26-06 00:03
Leuk om te zien dat er zoveel verschillende meningen zijn :)
Misha schreef op maandag 21 januari 2013 @ 11:04:

- Zeer slecht (1)
- Slecht (1.5)
- Onvoldoende (2)
- Matig (2.5)
- Voldoende (3)
- Ruim voldoende (3.5)
- Goed (4)
- Zeer goed (4.5)
- Uitmuntend (5)

Dat komt goed overeen met hoe we al in het vroege stadium van ons leven zijn beoordeeld op school en is derhalve goed herkenbaar voor een ieder.
Ik had even niet aan de conversie naar sterren gedacht. De verdeling zoals je hierboven schetst is denk ik inderdaad de beste. Het zou nog best eens kunnen helpen als je de getallen ook in de omschrijving van de keuzemogelijkheden noemt. Voor sommigen zullen getallen meer zeggen dan omschrijvingen, dus dan sla je twee vliegen in 1 klap. Het komt daarna toch ook weer in de sterren terug.
T.Struik schreef op maandag 21 januari 2013 @ 12:19:

-Ervaring reviewer:
Naar mijn idee is het voor een gebruiker in redelijke mate relevant om te weten wat de ervaring/expertise van een reviewer is om te kunnen oordelen wat de waarde is van een review. Dit valt echter deels samen met de waardering van een review (0 t/m 3). Want wat is dan het verschil om de waarde van de review te bepalen? Bied je een gebruiker zo niet te veel opties? Theoretisch zou het dan kunnen zijn dat je een lange review hebt, een hoge waardering, maar een lage mate van ervaring. Kortom de basis van ervaring moet dan wel op een gewichtige manier tot stand komen.
Daar kan ik het niet helemaal mee eens zijn. Ik heb nu het idee dat de meeste tweakers die een review beoordelen niet snel een +3 zullen uitdelen, en systematisch te laag oordelen. Dit geldt overigens nog meer voor moderaties op reacties in nieuwsberichten. Mijn reservetelefoon bijvoorbeeld. In de review heb ik mijn best gedaan om alle aspecten te belichten en ook kritisch te zijn. Ik heb meerdere Androidtelefoons gehad, maar uit de +2 blijkt niet dat ik nu een "expert" ben.

En soms is er over een bepaald product weinig te zeggen, bijvoorbeeld een usb-stick of een sd-kaart. Dit soort reviews zijn meestal niet meer dan een woord of en een paar plaatjes. Zie mijn (overigens stokoude) review van de LaCie Whizkey. Deze is wat mij betreft zo lang als een review over een usb-stick kan worden, en toch "maar" een +1 beoordeling. Okee, de plaatjes staan niet tussen de tekst in (ik wist toen nog niet hoe dat moet), maar dat zal de pret toch niet bederven?

Ten slotte heb ik zelf niet altijd evenveel zin om over een nieuw aangeschaft product een enorme review te schrijven, die alle ins en outs belicht. Zeker dan gaat de vergelijking van score en mate van betrokkenheid (expert zijn of niet) gaat mank.

Mijn punt over het aangeven van ervaring ging er vooral om dat de reviewer zelf kan aangeven over zijn eigen review in hoeverre hij denkt de ervaring in huis te hebben. Dat dit later deels zal blijken uit de beoordelingen, staat buiten kijf.

Acties:
  • 0 Henk 'm!

  • T.Struik
  • Registratie: Januari 2006
  • Laatst online: 19-08-2022
roland83 schreef op maandag 21 januari 2013 @ 14:08:

1. Daar kan ik het niet helemaal mee eens zijn. Ik heb nu het idee dat de meeste tweakers die een review beoordelen niet snel een +3 zullen uitdelen, en systematisch te laag oordelen. Dit geldt overigens nog meer voor moderaties op reacties in nieuwsberichten. Mijn reservetelefoon bijvoorbeeld. In de review heb ik mijn best gedaan om alle aspecten te belichten en ook kritisch te zijn. Ik heb meerdere Androidtelefoons gehad, maar uit de +2 blijkt niet dat ik nu een "expert" ben.

2. En soms is er over een bepaald product weinig te zeggen, bijvoorbeeld een usb-stick of een sd-kaart. Dit soort reviews zijn meestal niet meer dan een woord of en een paar plaatjes. Zie mijn (overigens stokoude) review van de LaCie Whizkey. Deze is wat mij betreft zo lang als een review over een usb-stick kan worden, en toch "maar" een +1 beoordeling. Okee, de plaatjes staan niet tussen de tekst in (ik wist toen nog niet hoe dat moet), maar dat zal de pret toch niet bederven?

3. Ten slotte heb ik zelf niet altijd evenveel zin om over een nieuw aangeschaft product een enorme review te schrijven, die alle ins en outs belicht. Zeker dan gaat de vergelijking van score en mate van betrokkenheid (expert zijn of niet) gaat mank.

4. Mijn punt over het aangeven van ervaring ging er vooral om dat de reviewer zelf kan aangeven over zijn eigen review in hoeverre hij denkt de ervaring in huis te hebben. Dat dit later deels zal blijken uit de beoordelingen, staat buiten kijf.
1. Ik snap je punt. Later werd er aangegeven dat de ervaring mogelijk bepaald kan worden door zekere factoren:
Misha schreef op maandag 21 januari 2013 @ 10:55:

Ook erg interessant punt. We zouden eens kunnen verkennen hoe de expertise van een gebruiker kunnen laten terugkomen in een review. Stel dat iemand heel veel goedgewaardeerde reviews heeft geschreven, dan mag dit best terugkomen. Dan weet de lezer ook meteen dat de reviewer kaas heeft gegeten van de stof. Interesant. We zouden ook bijvoorbeeld een harde koppeling kunnen maken met de inventaris, zoals GDGT.com het doet, al is dat ook niet helemaal waterproof. Dat zorgt er ook meteen voor dat het gebruik van de inventaris meer gestimuleerd wordt.
1 & 4. Hier onstaat iets wat enigszins lijkt op welke waarde/betekenis lezers kunnen geven aan een ster waardering of label als 'goed'. Kortom een verschil in interpretatie, wat jij als +3 zou oordelen vond de gemiddelde Tweaker kennelijk geen +3. Een ander obstakel kan zijn dat de gemiddelde Tweaker niet de criteria begrijpt/goed hanteert voor de verschillende userwaarderingen voor een review. Reviews worden momenteel naar mijn idee voornamelijk op drie punten beoordeeld (correct me if i'm wrong); lengte, onderwerp/product en inhoud en de door jou aangehaalde review is uitgebreid, maar niet zéér uitgebreid. Maar de waardering lijkt me verder niet zeer interessant omdat het zo subjectief is. Daarnaast moet 'expert' denk ik ook blijken uit meerdere reviews en niet uit slechts 1. Maar nu komen we wel bij de essentie en neem dit niet persoonlijk, het is omdat ik het anders niet goed kan schetsten, maar jij zegt: 'maar uit de +2 blijkt niet dat ik nu een "expert" ben.'. Misschien ben je dat dan ook niet? (als voorbeeld heh, gezien je reviewes denk ik dat je het wel bent, maar als voorbeeld) Hiermee wil ik aangeven dat ik denk dat er mensen zullen zijn die zich vanwege status or whatever zichzelf expert noemen, maar dat dus niet zijn. Kortom als waarborg voor het 'keurmerk' expert denk ik dat het niet handig is om gebruikers zichzelf dat te laten bestempelen.

2. Zeer eensch, maar op basis van 1 review baseren lijkt me niet wenselijk, op meerdere reviews en/of meerdere factoren lijkt me logischer.

3. Klopt, of de 'status' verlies je niet meer (of na zo veel tijd inactief zijn) of dat moet anderzijds getackeld worden.

Ik denk dat we redelijk hetzelfde bedoelen, maar dat ik alleen vind dat de 'benoeming' (hoe je het ook wilt noemen) niet (alleen) aan de users zelf overgelaten moet worden :).

Acties:
  • 0 Henk 'm!

  • notsonewbie
  • Registratie: Januari 2002
  • Laatst online: 14-05 10:12

notsonewbie

...---...---...---

Wat tot nu toe besproken is, met name wat de een juist wel- en de ander niet wil, in een poll stoppen?
Zelf ben ik voor 6 'sterren' met 'school systeem punten'.
- Slecht (1)
- Matig (3)
- Voldoende (5)
- Ruim voldoende (7)
- Goed ( 8 )
- Uitmuntend (10)
Of anders gewoon de huidige 5. Want voldoende en ruim voldoende is moeilijk (vind ik) in te schatten. Dan krijg je in achterhoofden budget denken en wat voor de 1 voldoende aanzet tot kopen, moet voor de ander net ff meer zijn, ruim voldoende, omschrijf dan maar eens wat de grens van voldoende naar ruim voldoende deed gaan bij de ene reviewer maar niet bij de andere.
Bij veel meer sterren kunnen reviewers die eigenlijk hetzelfde vinden het toch net te veel anders waarderen en krijg je een scheef beeld.

Ook zou ik een 'nieuw product' willen kunnen reviewen 'systeem gebouwd door webshop x'
Ik vermoed dat daar meer reacties op komen ook, ivm de losse onderdelen, ervaringen met een webshop, de keuze en uitleg die men zoekt omtrent hardware (combinatie-) keuze a of b e.d.

tot zo ver mijn 2 centen

http://tweakers.net/gallery/45440/sys | Als het in de manual staat is dat fout.... (Creative ZEN scherm perikelen)


Acties:
  • 0 Henk 'm!

  • Bundin
  • Registratie: Januari 2006
  • Niet online
Misha schreef op maandag 21 januari 2013 @ 11:04:
[...]


Als je zelf een scorekaart ziet (dus als je bijv iemand anders z'n review gaat bekijken), dan zul je niet direct het label zien. Je zal gewoon het aantal sterren zien. Enkel wanneer je zelf een scorekaart aanmaakt krijg je te maken met de labels. Een "Extreem goed" lijkt me geen valide optie. Ik denk dat je eerder moet kijken naar:

- Zeer slecht (1)
- Slecht (1.5)
- Onvoldoende (2)
- Matig (2.5)
- Voldoende (3)
- Ruim voldoende (3.5)
- Goed (4)
- Zeer goed (4.5)
- Uitmuntend (5)

Dat komt goed overeen met hoe we al in het vroege stadium van ons leven zijn beoordeeld op school en is derhalve goed herkenbaar voor een ieder.
Een 10-puntsschaal biedt verfijning die niks meer toevoegt voor mij, tenzij ik meer weet over het reviewproces en de reviewer. Als iemand een scherm reviewt en kleurweergave scoort, wat is dan de baseline?
A. Als ik mijn huidige ips-scherm vergelijk met het tn-scherm dat vervangen werd zou ik prima de hoogste score kunnen geven voor kleurweergave, het is namelijk heel veel beter dan dat tn-scherm me ooit heeft laten zien en ik ben er heel blij mee.
B. Of een iets lagere score omdat ik ook andere schermen ben gaan bekijken onder goede omstandigheden, dit niet het beste was maar wel goed betaalbaar?
C. Of geef ik een nog wat lagere score omdat ik er een calibratie-geval op losgelaten heb, het bereik heb gemeten, vergeleken heb met (resultaten van) andere panelen in dezelfde prijsklasse en concludeer dat het goed maar niet geniaal is?
D. Of geef ik een krappe voldoende omdat ik al die metingen van C gedaan heb maar niet alleen vergelijk binnen prijsklasse maar met alle ips-schermen diete koop zijn, waarbij dit scherm een niet veel meer dan een middenmoter is?

Ik denk dat de meeste reviewers type A of B zijn en ik vermoed bij veel criteria/producten vaker A dan B. Ik denk dat de score in die gevallen vooral gezien moet worden als een uiting is van tevredenheid over gescoorde feature/criterium. Een 5-puntsschaal vertelt me dan meer dan genoeg:

- zeer ontevreden (1)
- ontevreden (2)
- neutraal (3)
- tevreden (4)
- zeer tevreden (5)

Daar bovenop komt nog dat mensen verschillende eisen stellen aan producten, zoals het eerder genoemde aantal knoppen op een camera. Een 10-puntsschaal kan dan juist de score minder duidelijk maken: het verschil tussen "tevreden" en "zeer tevreden" kan ik nog wel inschatten. Maar als er twee stappen bijkomen aan de positieve kant van het spectrum... dat wordt echt nattevingerwerk. Ook voor de reviewer trouwens, kan die echt een goed onderbouwd verschil maken tussen ruim voldoende en goed?
[...]


Maar als je hem hebt omgeruild voor een scherm zonder dode pixels; beoordeel je dan het oude product of het nieuwe product? Je hebt er een zonder dode pixels, dus eigenlijk zou hij direct een maximale score moeten krijgen
Het oude product, met een duidelijke kanttekening in de tekst dat de klantenservice haar werk goed gedaan heeft. Alsnog krijgt de productlijn aftrek op de score, het is immers geen 100% succesverhaal. Als ik over een bepaald model lees dat er nogal eens pixel-problemen waren kan dat voor mij reden zijn een paar tientjes meer te betalen en 'm niet online te bestellen bij die ene webshop waar RMAs lang duren of vaak eerst 3x moeilijk gedaan wordt in de hoop dat je het wel slikt, of niet bij de MM te halen omdat ze daar pas bij 6 pixels in actie komen (of een ander model uit te zoeken natuurlijk).

In dit geval heeft Dell 3x een ander scherm laten bezorgen... Scherm 1 had dode pixel in midden van het beeld. Scherm 2 was niet nieuw maar refurbished, had geen issues met pixels, maar wit was geelgroenig en niet te corrigeren. Scherm 3 weer nieuw, maar weer met een dode pixel, deze op een onopvallende plek en die heb ik maar gehouden want liever een dode pixel dan niet-wit wit... en ik was er wel een beetje klaar mee, iedere keer thuisblijven voor een koerier.

[ Voor 43% gewijzigd door Bundin op 22-01-2013 02:09 ]


Acties:
  • 0 Henk 'm!

  • uncle_sjohie
  • Registratie: Januari 2004
  • Laatst online: 24-06 08:49
Ik zou niet veel meer sterren invoeren, en hooguit van 5 tot 7 gaan, om zeg een 2,5 en 4,5 positie mogelijk te maken. Vooral met reviews die tussen de 4 en 5 uitkomen, maakt dit het reviewer-dilemma meteen duidelijk aan een lezer, zonder eerst de tekst door te hoeven lezen. Niet dat we dat moeten voorkomen, maar ik merk zelf ook dat ik niet altijd zin/tijd heb om een hele review door te lezen. Alternatief hiervoor zou een berekend getal kunnen zijn, welke wordt getoond bij de review, op basis van de som van de toegekende sterren per criterium.

uncle_sjohie


Acties:
  • 0 Henk 'm!

  • xs4me
  • Registratie: Maart 2002
  • Laatst online: 27-06 17:35
Ik heb nooit echt een beperking gezien in de scorekaarten. Al kan 't ook geen kwaad om 't nog iets verfijnder te maken.

Waar ik me soms wel aan heb geërgerd is dat de waarderings onderdelen van een product niet logisch zijn. Of er goede toevoegingen te verzinnen zijn.

Bijvoorbeeld: Software bij mediaspelers (toch een belangrijk onderdeel - en specifieker dan Gebruiksgemak). Dit is ook toepasbaar op 90% andere apparatuur tegenwoordig. Denk alleen al aan randapparatuur als pen tablets, race sturen etc ... Of bijvoorbeeld bij all-in-one NAS-en (Synology e.d.) Dit ontbreekt nu.

Dit specificeren zou meer zeggen dan bijv. 't algemene onderdeel "gebruikersgemak" 2x zo breed te maken qua score.

[ Voor 15% gewijzigd door xs4me op 22-01-2013 20:52 ]


Acties:
  • 0 Henk 'm!

  • Misha
  • Registratie: Augustus 2010
  • Laatst online: 05:54
Guys, sorry dat ik nog niet gereageerd heb. Ik ben de afgelopen twee dagen erg druk geweest en zit vandaag op de Webwinkel Vakdagen. Ik zal proberen om vanavond de nieuwe posts te lezen

Acties:
  • 0 Henk 'm!

  • Misha
  • Registratie: Augustus 2010
  • Laatst online: 05:54
Kid Jansen schreef op maandag 21 januari 2013 @ 11:52:
[...]

Wat hierboven staat slaat wat mij betreft de spijker op z'n kop. Ik vind zelf om eerlijk te zijn het sterrensysteem overbodig.

Zelfs al zou iedereen exact dezelfde criteria gebruiken voor het toekennen van een bepaalde waarde, dan nog zal je met het probleem zitten dat in veel productcategoriën de technologie nou eenmaal niet stil staat.

Je kan dus krijgen dat waar een paar jaar geleden het gemiddelde van alle producten van dat jaar rond het midden zat bij een bepaald onderdeel, een paar jaar later alle nieuwe producten rond goed of zelfs zeer goed zitten op een diezelfde schaal.

Wanneer je elk jaar de beoordelingscriteria zou aanscherpen om te compenseren voor de productverbeteringen door nieuwe technologiën krijg je weer het probleem dat het erg lastig wordt om producten te vergelijken die niet met dezelfde criteria beoordeeld zijn.
Opzich vind ik je een punt hebben, maar is het ook niet aan de gebruiker om de score op een bepaalde manier te interpreteren? Als ik een review lees over bijvoorbeeld een camera, die 'zeer goed' presteert bij hoge iso-waardes, maar ik weet dat het een camera is uit 2010, dan begrijp ik dat het anno 2013 wellicht niet meer 'zeer goed' is in vergelijking met camera's uit dezelfde klasse.
Kid Jansen schreef op maandag 21 januari 2013 @ 11:52:

Eigenlijk het enige criterum dat naar mijn idee wel goed werkt is dat voor Pixeldefecten, aangezien die als enige goed gedefinieerde criteria heeft die ook geen verbreding nodig hebben en waar het ook niet uitmaakt als je veel aan één kant van de schaalverdeling werkt. Deze zal ook geen aanpassing nodig hebben over de jaren, maar blijft wel relevant, want anno 2013 hebben we nog steeds te maken met pixeldefecten.
Ik ben het eens dat de pixeldefecten goed gedefinieerd zijn, alleen eenzelfde aanpak doortrekken naar andere categorieën zal lastig gaan. Bij warmteproductie zou je bijvoorbeeld dan het aantal graden moeten nemen als labels. Niet iedereen is in staat om de warmte correct te meten. Die mensen zouden dan niet weten wat ze moeten aanklikken, of ze moeten domweg gokken. Dat zal dan resulteren in wat vreemde scores
Kid Jansen schreef op maandag 21 januari 2013 @ 11:52:

Mochten jullie het 5-punts systeem willen wijzigen in een 10-punts systeem, dan zou ik het gewoon heel simpel van 1 tot 10 laten gaan en ook geen labels geven. Gewoon het rapportcijfer waar iedereen jarenlange ervaring mee heeft van de basisschool, middelbare school en vervolgopleiding.
Hier heb ik ook over nagedacht. Het probleem hierbij is dat we de scores presenteren in de vorm van sterren. Een schaal van tien gebruiken zal betekenen dat een product ook een halve ster als beoordeling kan krijgen, terwijl de ondergrens bij een weergave van sterren 1 ster is. Afstappen van de weergave met sterren en naar harde cijfers betekent vervolgens weer dat het niet in een oogopslag meteen duidelijk is hoe goed of slecht een product is. Dat moet dan afgelezen worden. Even vlug scannen is er dan denk ik niet meer bij

Thanks Kid :)

Acties:
  • 0 Henk 'm!

  • Femme
  • Registratie: Juni 1999
  • Laatst online: 10:26

Femme

Hardwareconnaisseur

Official Jony Ive fan

Kid Jansen schreef op maandag 21 januari 2013 @ 11:52:
[...]

Wat hierboven staat slaat wat mij betreft de spijker op z'n kop. Ik vind zelf om eerlijk te zijn het sterrensysteem overbodig.
Een beoordelingssysteem dat is gebaseerd op de input van individuele gebruikers die geen strikte beoordelingsnormen met elkaar hebben afgesproken kan nooit heel erg fijnmazig zijn, tenzij er enorm veel beoordelingen per product of item worden gegeven. Toch vind ik dat een beoordeling meer informatie geeft dan helemaal geen beoordeling.
Maar het enige wat naar mijn idee werkt is mensen die gewoon zoveel mogelijk hun best doen op een review. Zo uitgebreid en goed mogelijk een product testen om een zo objectief en nauwkeurig mogelijk oordeel te kunnen vellen. Maar dit is iets wat nou eenmaal veel tijd en daarnaast ook nog eens veel geld kost.

Ik hecht dan ook vrijwel geen waarde aan de productreviews op Tweakers.net. Met als uitzondering de reviews van een handje vol mensen. Die in sommige gevallen nog betere reviews maken dan de grote reviewwebsites.
Ik ben ervan overtuigd dat er ook een grote groep gebruikers is die helemaal niet zit te wachten op enorm uitgebreide reviews van duizenden woorden. Als ik een product wil kopen dat voldoet aan de door mij gewenste specificaties hoef ik alleen maar van anderen te weten of het product voldoet aan de verwachtingen. Als het product tot tevredenheid stemt zal de score hoog zijn en zal er in de review met enthousiasme over het product geschreven, als er veel problemen zijn is de score laag en zie ik een review vol klachten. Dat kan prima in een paar alinea's.

Acties:
  • 0 Henk 'm!

  • Misha
  • Registratie: Augustus 2010
  • Laatst online: 05:54
Thanks Tim,
T.Struik schreef op maandag 21 januari 2013 @ 12:19:
Ik zie net pas een DM van Misha en heb eerst even het hele topic doorgelezen. Ik heb al veel goede ideeën gezien. Over een aantal wil ik iets kwijt.

-Ervaring reviewer:
Naar mijn idee is het voor een gebruiker in redelijke mate relevant om te weten wat de ervaring/expertise van een reviewer is om te kunnen oordelen wat de waarde is van een review. Dit valt echter deels samen met de waardering van een review (0 t/m 3). Want wat is dan het verschil om de waarde van de review te bepalen? Bied je een gebruiker zo niet te veel opties? Theoretisch zou het dan kunnen zijn dat je een lange review hebt, een hoge waardering, maar een lage mate van ervaring. Kortom de basis van ervaring moet dan wel op een gewichtige manier tot stand komen. Het tegenovergestelde is dus ook mogelijk. Anders gezegd denk ik dat je gebruikers voor niet te veel keuzes moet stellen bij het aangeven/bepalen van de ervaring van een reviewer. Het wordt anders een kwestie dat een lezer eerst moet gaan beoordelen hoe betrouwbaar de beoordeling van de ervaring van de reviewer is ;(. Anders vertaald: het is bekend dat wanneer een verkoper zijn klant legio aan mogelijkheden voorlegt de kans op een succes kleiner wordt. Dit in de schaduw van het feit dat wanneer hij goed luistert, twee opties aanbiedt die uit het verhaal van de klant goed passend blijken, de kansen veel groter zijn.
Het is inderdaad de vraag waar je dit van af laat wegen. Wellicht dat een koppeling met de inventaris en de gemiddelde waardering van productreviews van de auteur in dezelfde categorie een oplossing, maar dat maakt het allemaal aardig complex.
T.Struik schreef op maandag 21 januari 2013 @ 12:19:
-Labeling:
Dit blijft wel noodzakelijk denk ik, zeker voor een reviewer zelf (bij het maken van een review, niet wanneer hij gepubliceerd is), om zodoende te stellen waaraan hij ongeveer moet refereren wat betreft prestaties op dat specifieke aspect, zo tackle je volgens mij in lichte mate dat iemand 4,5 goed vindt en een ander extreem goed(ij wijze van). Bij reviewers die al ervaring hebben wordt dit na verloop overbodig, maar de personen die relatief nieuw en onbekend zijn is het mogelijk toch enigszins noodzakelijk om te voorkomen dat ze een product te snel té goed of té slecht waarderen, wat nu toch nog wel gebeurd heb ik het idee.
Doel je hiermee op de labeling van de algemene criteria, of van de speciale criteria? Het lijkt me sowieso verstandig om de gebruiker te bepalen of iets Zeer Goed of Uitmuntend is, ipv domweg 4.5 ster of 5 sterren te geven. Een keuze qua hoe goed het presteert vertalen wij dan vervolgens in een aantal sterren
T.Struik schreef op maandag 21 januari 2013 @ 12:19:

-Waardering product kenmerken
Een grotere keuze zou ik zelf wel erg prettig vinden, zeker zoals eerder genoemd bij de totale/algemene beoordeling. Hierdoor ken je net even wat meer ‘credits’ toe aan dat product dat bijvoorbeeld meer waard is dan een 4, maar minder dan een vijf. Echter wordt de waarde/betekenis die een lezer kan geven aan de waardering van door de reviewer lastiger. Hoewel een goed natuurlijk duidelijk iets anders zegt dan een beoordeling in de mindere/slechtere sferen.
Zo vraag ik me ook af of het misschien het overwegen waard is om bij de minder ervaren reviewers het algemene oordeel verplicht te koppelen aan het gemiddelde oordeel van alle andere aspecten uit dezelfde review. Zoals eerder genoemd kom ik ook wel eens reviews tegen waar meerdere onderdelen met 3 of 4 sterren worden beoordeeld, maar het eindoordeel op zeer goed staat, dit verlaagt de betrouwbaarheid van de review an sich zou ik zeggen. Zeker als nergens duidelijk uit blijkt waarom de gebruiker dat zo oordeelt.
Maar hierbij loop je dus wel tegen het probleem aan dat het lastig te bepalen is hoe ervaren (en hoe goed!) een reviewer is. Enkel voor de minder ervaren reviewer het te doen vind ik daarom een beetje vreemd. Ik zou uiteindelijk wel naar een automatisch berekend Algemene Beoordeling willen gaan, die zelf nog evt. door de gebruiker aan te passen is. Zie bijvoorbeeld hoe GDGT.com het doet. Eerst beoordeel je op allerlei criteria, vervolgens geef je een final verdict. Deze final wordt automatisch bepaald, maar is nog aan te passen mocht je het er niet meer eens zijn
T.Struik schreef op maandag 21 januari 2013 @ 12:19:

Anderzijds: Een voordeel van het huidige 5 punten systeem is dat het gebruikers dwingt te kiezen voor iets dat mogelijk te veel of te weinig is qua punten (geen midden weg als 4.5) op dat specifieke aspect. Een voordeel? Ja, inderdaad een voordeel, in die zin dat het bij mij zo werkt dat het me soms stevig aan het denken kan zetten waarom ik nou voor die 4 of die 5 sterren zou kiezen. Dit geeft een beter afgewogen oordeel. Vraag is daarbij of dat ook bij andere reviewers zo werkt.
Goed punt. Maar het grote nadeel blijft dat je er nooit tussen kan zitten, domweg omdat het niet een uitmuntend product is, maar ook weer niet boven gemiddeld bijvoorbeeld.
T.Struik schreef op maandag 21 januari 2013 @ 12:19:

Het belangrijkste in het geheel blijft denk ik de betekenis die gebruikers moeten ontlenen aan een oordeel. Zo lijkt het mij waardevol dat een waardering klikbaar wordt en zo verwijst naar het tekst gedeelte waarde de verklaring van de score op dat aspect staat. Zo weet de lezer goed waarom de reviewer een specifiek punt zo waardeert. Wat is die 4 bijvoorbeeld op gewaardeerd? Nadeel daarvan is dat het meer moeite van de gebruiker vraagt om dit te realiseren, terwijl de drempel voor een review juist laag moet blijven. Zo is een verschil in interpretatie (wat zegt een 4 of een goed nu precies?) in enige mate weg te nemen of kan een labeling voor de lezers zelfs achterwege blijven. De basis hiervoor zou denk ik al kunnen liggen in het eerder gesuggereerde 'schoolse' systeem.
We hebben ook al eens nagedacht over een anchor. Ik denk dat als je met een klein zinnetje de score kan verduidelijken dit het al grotendeels oplost en zorg je er toch nog voor dat het in zijn geheel gebruiksvriendelijk blijft

Acties:
  • 0 Henk 'm!

  • Misha
  • Registratie: Augustus 2010
  • Laatst online: 05:54
roland83 schreef op maandag 21 januari 2013 @ 14:08:
Leuk om te zien dat er zoveel verschillende meningen zijn :)


[...]


Ik had even niet aan de conversie naar sterren gedacht. De verdeling zoals je hierboven schetst is denk ik inderdaad de beste. Het zou nog best eens kunnen helpen als je de getallen ook in de omschrijving van de keuzemogelijkheden noemt. Voor sommigen zullen getallen meer zeggen dan omschrijvingen, dus dan sla je twee vliegen in 1 klap. Het komt daarna toch ook weer in de sterren terug.
Dat zou een goede oplossing zijn. Twijfel alleen over de elegantie en of het direct duidelijk is voor een nieuwe gebruiker dat het cijfer achter het label het aantal sterren representeert
roland83 schreef op maandag 21 januari 2013 @ 14:08:

[...]

Daar kan ik het niet helemaal mee eens zijn. Ik heb nu het idee dat de meeste tweakers die een review beoordelen niet snel een +3 zullen uitdelen, en systematisch te laag oordelen. Dit geldt overigens nog meer voor moderaties op reacties in nieuwsberichten. Mijn reservetelefoon bijvoorbeeld. In de review heb ik mijn best gedaan om alle aspecten te belichten en ook kritisch te zijn. Ik heb meerdere Androidtelefoons gehad, maar uit de +2 blijkt niet dat ik nu een "expert" ben.
Dit heeft ongetwijfeld ook te maken met de mening van de gebruiker zelf over het product. Hetzelfde wat we op de frontpage hebben: meningmodders. Het is voor sommige mensen blijkbaar erg lastig om objectief te blijven.
roland83 schreef op maandag 21 januari 2013 @ 14:08:

Ten slotte heb ik zelf niet altijd evenveel zin om over een nieuw aangeschaft product een enorme review te schrijven, die alle ins en outs belicht. Zeker dan gaat de vergelijking van score en mate van betrokkenheid (expert zijn of niet) gaat mank.
Ik ben het hier helemaal mee eens. Ik kan mij ook voorstellen dat het gros van de productreviewers geen zin/tijd hebben om een lang epistel te schrijven. Het blijft ook de vraag of de lezer er op zit te wachten. Ik vermoed zelf dat gebruikers vooral willen weten of hun eigen vermoedens over een product gevalideerd worden

Acties:
  • 0 Henk 'm!

  • Misha
  • Registratie: Augustus 2010
  • Laatst online: 05:54
Bundin schreef op dinsdag 22 januari 2013 @ 01:39:
[...]

Een 10-puntsschaal biedt verfijning die niks meer toevoegt voor mij, tenzij ik meer weet over het reviewproces en de reviewer. Als iemand een scherm reviewt en kleurweergave scoort, wat is dan de baseline?
A. Als ik mijn huidige ips-scherm vergelijk met het tn-scherm dat vervangen werd zou ik prima de hoogste score kunnen geven voor kleurweergave, het is namelijk heel veel beter dan dat tn-scherm me ooit heeft laten zien en ik ben er heel blij mee.
B. Of een iets lagere score omdat ik ook andere schermen ben gaan bekijken onder goede omstandigheden, dit niet het beste was maar wel goed betaalbaar?
C. Of geef ik een nog wat lagere score omdat ik er een calibratie-geval op losgelaten heb, het bereik heb gemeten, vergeleken heb met (resultaten van) andere panelen in dezelfde prijsklasse en concludeer dat het goed maar niet geniaal is?
D. Of geef ik een krappe voldoende omdat ik al die metingen van C gedaan heb maar niet alleen vergelijk binnen prijsklasse maar met alle ips-schermen diete koop zijn, waarbij dit scherm een niet veel meer dan een middenmoter is?

Ik denk dat de meeste reviewers type A of B zijn en ik vermoed bij veel criteria/producten vaker A dan B. Ik denk dat de score in die gevallen vooral gezien moet worden als een uiting is van tevredenheid over gescoorde feature/criterium. Een 5-puntsschaal vertelt me dan meer dan genoeg:

- zeer ontevreden (1)
- ontevreden (2)
- neutraal (3)
- tevreden (4)
- zeer tevreden (5)

Daar bovenop komt nog dat mensen verschillende eisen stellen aan producten, zoals het eerder genoemde aantal knoppen op een camera. Een 10-puntsschaal kan dan juist de score minder duidelijk maken: het verschil tussen "tevreden" en "zeer tevreden" kan ik nog wel inschatten. Maar als er twee stappen bijkomen aan de positieve kant van het spectrum... dat wordt echt nattevingerwerk. Ook voor de reviewer trouwens, kan die echt een goed onderbouwd verschil maken tussen ruim voldoende en goed?
Ik vermoed ook dat de meeste reviewers een type A of B zijn. Je zou de motivatie achter de beoordeling van de Type A Reviewer wellicht kunnen verduidelijken door ook te vragen naar zijn vergelijkingsmateriaal/materiaal waarvan hij afkomstig is. Dat kan bijvoorbeeld door een harde koppeling naar zijn huidige product en dat ook te tonen in de scorekaart, of we vragen dit expliciet bij de nuancering die een gebruiker kan toevoegen aan de score (waar we wellicht in de toekomst naar willen gaan). Als ik het proces vlug visualiseer ben ik wel bang dat het wat complex wordt en het wat reviewers zou gaan afschrikken. Dat zou best zonde zijn :). Ook kun je je dan afvragen in hoeverre een lezer zich nog kan verplaatsen in de schoenen van de reviewer; als ik al een IPS-scherm heb en twijfel over de aanschaf van dit IPS-scherm; wat heb ik aan het vergelijkingsmateriaal? Is de score nog relevant voor me?
Bundin schreef op dinsdag 22 januari 2013 @ 01:39:
[...]

Het oude product, met een duidelijke kanttekening in de tekst dat de klantenservice haar werk goed gedaan heeft. Alsnog krijgt de productlijn aftrek op de score, het is immers geen 100% succesverhaal. Als ik over een bepaald model lees dat er nogal eens pixel-problemen waren kan dat voor mij reden zijn een paar tientjes meer te betalen en 'm niet online te bestellen bij die ene webshop waar RMAs lang duren of vaak eerst 3x moeilijk gedaan wordt in de hoop dat je het wel slikt, of niet bij de MM te halen omdat ze daar pas bij 6 pixels in actie komen (of een ander model uit te zoeken natuurlijk).

In dit geval heeft Dell 3x een ander scherm laten bezorgen... Scherm 1 had dode pixel in midden van het beeld. Scherm 2 was niet nieuw maar refurbished, had geen issues met pixels, maar wit was geelgroenig en niet te corrigeren. Scherm 3 weer nieuw, maar weer met een dode pixel, deze op een onopvallende plek en die heb ik maar gehouden want liever een dode pixel dan niet-wit wit... en ik was er wel een beetje klaar mee, iedere keer thuisblijven voor een koerier.
Interessant. Ik zou het juist andersom doen; het product dat ik houdt beoordeel ik, niet het oude product. Ik zou er wel melding van maken in de review en het wellicht laten terugkomen in een score voor de service of iets dergelijks

Acties:
  • 0 Henk 'm!

  • Misha
  • Registratie: Augustus 2010
  • Laatst online: 05:54
uncle_sjohie schreef op dinsdag 22 januari 2013 @ 10:58:
Ik zou niet veel meer sterren invoeren, en hooguit van 5 tot 7 gaan, om zeg een 2,5 en 4,5 positie mogelijk te maken. Vooral met reviews die tussen de 4 en 5 uitkomen, maakt dit het reviewer-dilemma meteen duidelijk aan een lezer, zonder eerst de tekst door te hoeven lezen. Niet dat we dat moeten voorkomen, maar ik merk zelf ook dat ik niet altijd zin/tijd heb om een hele review door te lezen. Alternatief hiervoor zou een berekend getal kunnen zijn, welke wordt getoond bij de review, op basis van de som van de toegekende sterren per criterium.
Met een schaal van 7 en dan er niet voor kiezen om het mogelijk te maken om 1.5 ster te geven ben ik het niet mee eens. Het is vreemd dat je wel 4.5 kan geven, maar niet een 3.5. Je hebt dan geen lekkere schaalverdeling. Je kan dan dus wel zeggen dat het bijna een uitmuntend product is, maar niet dat hij boven gemiddeld presteert, maar niet goed bijvoorbeeld. Ik heb het zelf bij mijn mediaspeler. Het is een leuk en aardig ding. Het speelt alles in principe af, maar de interface is flink traag. Goed is het niet, maar het is ook niet gemiddeld. Het zit er net tussenin, een 3.5 zou dan ideaal zijn om te kunnen kiezen

Acties:
  • 0 Henk 'm!

  • Misha
  • Registratie: Augustus 2010
  • Laatst online: 05:54
xs4me schreef op dinsdag 22 januari 2013 @ 20:50:
Ik heb nooit echt een beperking gezien in de scorekaarten. Al kan 't ook geen kwaad om 't nog iets verfijnder te maken.

Waar ik me soms wel aan heb geërgerd is dat de waarderings onderdelen van een product niet logisch zijn. Of er goede toevoegingen te verzinnen zijn.

Bijvoorbeeld: Software bij mediaspelers (toch een belangrijk onderdeel - en specifieker dan Gebruiksgemak). Dit is ook toepasbaar op 90% andere apparatuur tegenwoordig. Denk alleen al aan randapparatuur als pen tablets, race sturen etc ... Of bijvoorbeeld bij all-in-one NAS-en (Synology e.d.) Dit ontbreekt nu.

Dit specificeren zou meer zeggen dan bijv. 't algemene onderdeel "gebruikersgemak" 2x zo breed te maken qua score.
Je doelt hiermee op de beschikbare criteria waarop je kan beoordelen? Als er echt een mist, dan kun je dat zeggen. We kunnen die in principe altijd toevoegen als het echt relevant is

Acties:
  • 0 Henk 'm!

  • Bundin
  • Registratie: Januari 2006
  • Niet online
Misha schreef op vrijdag 25 januari 2013 @ 11:34:
[...]
Ook kun je je dan afvragen in hoeverre een lezer zich nog kan verplaatsen in de schoenen van de reviewer; als ik al een IPS-scherm heb en twijfel over de aanschaf van dit IPS-scherm; wat heb ik aan het vergelijkingsmateriaal? Is de score nog relevant voor me?
Maar dat is precies wat je wil: dat duidelijk is of je je wel zou moeten verplaatsen in de schoenen van deze reviewer. Een (optionele) vraag: "Andere producten bekeken voor aanschaf" waar een paar pricewatch-links uit kunnen komen rollen lijkt me wel wat eigenlijk, dat triggert de schrijver meteen om eventueel gemaakte vergelijkingen ook te noemen in de review. Maar dat is een ander topic...
[...]

Interessant. Ik zou het juist andersom doen; het product dat ik houdt beoordeel ik, niet het oude product. Ik zou er wel melding van maken in de review en het wellicht laten terugkomen in een score voor de service of iets dergelijks
Dat zou ik onlogisch vinden. Het feit dat er maandagmorgenmodelletjes (of slechte batches) zijn is naar mijn mening iets dat anderen graag vantevoren weten. Ik zie een lagere score op de relevante hardwarecategorie dan vooral als een waarschuwing voor anderen: bij dit product is er een kans op een exemplaar met een probleem. In het geval van de Dell zou ik twee sterren scoren op pixels: één defect, ook als ik uiteindelijk een toestel zonder defecten zou hebben. Het attendeert lezers erop dat Dell geen 100% scoort op dit model. Dat het netjes opgelost is is bij de gratie van de Ultrasharp garantievoorwaarden. als het een ander scherm bij een andere webshop was geweest zou 1 defecte pixel mogelijk niet als reden voor een RMA geaccepteerd zijn. Dat het goed opgelost is zou ik zeker noemen in de review, maar dat zou eigenlijk tot uitdrukking moeten komen in een shopsurvey.

Acties:
  • 0 Henk 'm!

  • Perkouw
  • Registratie: Juli 2005
  • Laatst online: 18:21

Perkouw

Moderator General Chat
Interessant topic (dank nog Misha voor de link). Ik heb er even over na moeten denken maar blijf het lastig vinden om hier een concreet antwoord op te geven.

Ik persoonlijk kijk bijvoorbeeld eigenlijk nooit zozeer naar de score die een user geeft (wat betreft de scorekaart dus). In de reviews van Tweakers zelf (en met name de filmpjes) kijk ik hier wel naar, maar dat is puur omdat het nadrukkelijk aan bod/in beeld komt. Ook hier doe ik niet heel veel mee.

Wat voor mij echt van toegevoegde waarde is, en dit is wellicht een in kopper, maar is een goed geschreven review. Dit hoeven geen halve boekwerken te zijn, maar ook weer geen drie zinnen. Zoals gezegd kijk ik eigenlijk nooit naar een score maar naar de eindconclusie/bevindingen van een gebruiker (en dus ook Tweakers).

Maar als ik me dan even voorspiegel, wat als ik wel naar de scorekaart zou kijken? Dan zou ik een schaal verbreding welkom heten. Simpelweg omdat 1 t/m 5 wel erg beperkt is mijn ogen. Sowieso ben ik een schaal verdeling van 1 t/m 10 gewend, al vanaf de basisschool. Haha. Nee maar zonder gekheid, het voelt ook gewoon logischer aan en geeft je een stuk meer speling.

De score zou dan ook een wat grotere toegevoegde waarde hebben, met name dus bij de betere reviews omdat de score dan ook ongetwijfeld wat bewuster wordt ingevuld (als in onderbouwd).

Acties:
  • 0 Henk 'm!

  • Regeneration
  • Registratie: Februari 2006
  • Niet online
Hierbij mijn bijdrage. Allereerst ben ik voorstander van het uitbreiden van het sterrensysteem. De onderstaande schaal en labeling van Misha lijkt me een goed voorstel.
Misha schreef op maandag 21 januari 2013 @ 11:04:
- Zeer slecht (1)
- Slecht (1.5)
- Onvoldoende (2)
- Matig (2.5)
- Voldoende (3)
- Ruim voldoende (3.5)
- Goed (4)
- Zeer goed (4.5)
- Uitmuntend (5)
Als ik verder deze wiki pagina erbij pak, heb ik nog wel enkele opmerkingen. Je ziet dat bij de Nederlandse beoordeling 10 labels zijn en in dit geval 9 (de halve ster ontbreekt), maar eigenlijk vind ik de 9 schalen wel prima. Vanaf voldoende tot uitstekend/uitmuntend is alles goed. Maar daaronder is enige verschil. Het is maar een beetje anders, maar mijn voorstel is:

- Zeer slecht (1)
- Slecht (1.5)
- Ruim onvoldoende (2)
- Onvoldoende (2.5)
- Voldoende (3)
- Ruim voldoende (3.5)
- Goed (4)
- Zeer goed (4.5)
- Uitstekend / Uitmuntend (5) (Een van de twee. Beide zijn goed. Uitstekend zou volgens de wiki pagina meer Nederlands zijn en Uitmuntend meer Belgisch.)

Ik haal de matig/twijfelachtig eruit en heb vervangen deze voor onvoldoende. De 2 ster (= dus eigenlijk de cijfer 4) zou ik eerder bestempelen als ruim onvoldoende in plaats van onvoldoende.

Verder zou ik de speciale criteria zeker behouden. Ik vind het toch een stuk duidelijker in die gevallen. De labeling zoals voorstelt in de startpost lijkt me een prima voorstel. Misschien zou je acceptabel nog kunnen veranderen in "gemiddeld".

- Extreem hoog (1)
- Zeer hoog (1,5)
- Hoog (2)
- Bovengemiddeld (2,5)
- Gemiddeld (3)
- Ondergemiddeld (3,5)
- Laag (4)
- Zeer laag (4,5)
- Extreem laag (5)

Wat betreft pixeldefecten is een wat lastiger verhaal. Je zou kunnen beslissen die weg te laten dan ben je gelijk ook van de moeilijke labeling af. Een andere optie is dat je het zou laat in deze 5 schaal labeling, maar dan is het erg inconsistent zoals gezegd. Hoewel het zeker niet zo is dat het probleem er niet meer bestaat, is het zeker niet zo groot meer als het was. Mijn voorstel hier is om enkel deze speciale pixeldefecten criterium helemaal weg te laten. Je kan dergelijke problemen / defecten nog altijd apart in je review noemen of bijvoorbeeld enigszins meenemen in de beoordeling van beeldkwaliteit.

Verder ben ik het eens met wat Femme eerder had gezegd. Ik zie liever een simpele review dan geen review. Eigenlijk hecht ik zelfs best wel veel waarde aan de simpele review, zeker in grote aantallen. Als er veel simpele reviews zijn gegeven met hoge scores dan weet je eigenlijk al vrij zeker dat het een goed product is.

Acties:
  • 0 Henk 'm!

  • xs4me
  • Registratie: Maart 2002
  • Laatst online: 27-06 17:35
Misha schreef op vrijdag 25 januari 2013 @ 11:38:
[...]


Je doelt hiermee op de beschikbare criteria waarop je kan beoordelen? Als er echt een mist, dan kun je dat zeggen. We kunnen die in principe altijd toevoegen als het echt relevant is
Ja, ik vind de opdeling van waardering vaak onlogischer als de behoefte om er een 10 punts waardering van te maken. Maar ik zal 't bij toekomstige reviews gewoon aangeven als 't beter kan of niet helemaal klopt.

Acties:
  • 0 Henk 'm!

  • Misha
  • Registratie: Augustus 2010
  • Laatst online: 05:54
Guys, sorry dat ik nu pas reageer. Ik ben de afgelopen dagen wat druk geweest :). Even nog wel een update:

Voor de redactie hebben we een aanpassing aan het systeem gemaakt dat het mogelijk maakt om de schaal van negen te gebruiken. Dit zal voorlopig geen invloed hebben op de productreviews voor de gebruikers. Die behouden vooralsnog de schaal van vijf (excl. de geen mening). Ik moet wel zeggen dat ik steeds meer ga neigen naar een standaardverdeling met cijfers, zoals ook al door een van jullie gesuggereerd werd. Dat houdt het simpel en flexibel in de toekomst, plus ik heb nog een concept over een 'glijdende score' waarbij dat goed tot zijn recht kwam. Dat zou er uiteindelijk voor moeten zorgen dat tijd een factor kan gaan spelen bij een getoonde score wanneer je producten gaat vergelijken, maar daar zitten ook flink wat haken en ogen aan die eerst geplet moeten worden :+
Bundin schreef op vrijdag 25 januari 2013 @ 13:01:
[...]


Maar dat is precies wat je wil: dat duidelijk is of je je wel zou moeten verplaatsen in de schoenen van deze reviewer. Een (optionele) vraag: "Andere producten bekeken voor aanschaf" waar een paar pricewatch-links uit kunnen komen rollen lijkt me wel wat eigenlijk, dat triggert de schrijver meteen om eventueel gemaakte vergelijkingen ook te noemen in de review. Maar dat is een ander topic...
Dat 'Andere producten bekeken voor aanschaf' vind ik een erg interessante optie. Ik zie vaker dat mensen het terloops noemen. Wellicht dat we daar een mooie tool voor kunnen maken om het ook makkelijker te maken om het toe te voegen en het visueel strak kunnen weergeven.
Bundin schreef op vrijdag 25 januari 2013 @ 13:01:
[...]

Dat zou ik onlogisch vinden. Het feit dat er maandagmorgenmodelletjes (of slechte batches) zijn is naar mijn mening iets dat anderen graag vantevoren weten. Ik zie een lagere score op de relevante hardwarecategorie dan vooral als een waarschuwing voor anderen: bij dit product is er een kans op een exemplaar met een probleem. In het geval van de Dell zou ik twee sterren scoren op pixels: één defect, ook als ik uiteindelijk een toestel zonder defecten zou hebben. Het attendeert lezers erop dat Dell geen 100% scoort op dit model. Dat het netjes opgelost is is bij de gratie van de Ultrasharp garantievoorwaarden. als het een ander scherm bij een andere webshop was geweest zou 1 defecte pixel mogelijk niet als reden voor een RMA geaccepteerd zijn. Dat het goed opgelost is zou ik zeker noemen in de review, maar dat zou eigenlijk tot uitdrukking moeten komen in een shopsurvey.
Let's agree to disagree :P. Uiteindelijk vind ik voor beiden wat te zeggen.

Acties:
  • 0 Henk 'm!

  • TERW_DAN
  • Registratie: Juni 2001
  • Niet online

TERW_DAN

Met een hamer past alles.

Misha schreef op donderdag 07 februari 2013 @ 10:56:
Dat 'Andere producten bekeken voor aanschaf' vind ik een erg interessante optie. Ik zie vaker dat mensen het terloops noemen. Wellicht dat we daar een mooie tool voor kunnen maken om het ook makkelijker te maken om het toe te voegen en het visueel strak kunnen weergeven.
Als dat er gaat komen, dan mag van mij de 'vergeleken met' optie er ook wel inkomen (die naast de 'gebruikt in combinatie met' lijst mag komen).
Zoals bijv in productreview: be quiet! Dark Rock Pro C1 review door TERW_DAN (onderaan de review).

Acties:
  • 0 Henk 'm!

  • Bundin
  • Registratie: Januari 2006
  • Niet online
Wat ik eigenlijk ook wel zou willen zien in 1-2 optionele (zelf in te vullen) scoringscriteria die je zelf kan labelen. Dat geeft wat meer ruimte om je eigen draai aan je review te geven. Zo kan ik me voorstellen dat een casemodder het uiterlijk van bepaalde componenten (cpu-koeler?) mee laat wegen, terwijl dat voor diegenen zonder plexi-zijkant totaal niet relevant is. Het toch toe kunnen voegen als criterium levert een completer beeld op over hoe de reviewer tot zijn eindscore is gekomen. Het is ook te minen door Tweakers, als een bepaald criterium vaker wordt "aangemaakt" kan bekeken worden of het nuttig genoeg is om toe te voegen aan de standaardlijst voor die categorie.

Nog eens over labels: is het niet mogelijk om gebruikers gewoon een rijtje sterren voor te schotelen, waarbij ze gewoon de score aantikken/klikken? Klik op 2de ster: score is 2 sterren. Geen labels meer nodig en iedereen snapt wel dat meer sterren betekent dat het product beter presteert op dat punt (of dat nou hoger contrast of lagere geluidsproductie is). Ook op een touchscreen moet dat wel lukken lijkt me, eventueel in het geval van halve sterren het aanklik/tik-geval iets groter maken.

Wat mij betreft dus op de scorekaart:
standaardcriteria: 5-punts, users klikken 1-5 sterren aan bij maken review
1-2 optionele persoonlijke criteria. 5-punts, users vullen naam/omschrijving in en klikken 1-5 sterren aan. Gescheiden van de standaardcriteria weergegeven.
Eindscore: 9-punts, users klikken 1-5 sterren aan maar halve sterren zijn mogelijk. Minimumscore wel op 1 ster houden ipv een halve, dat ziet er beter uit.

Persoonlijke criteria lijken me niet nodig bij shopreviews trouwens.

Acties:
  • 0 Henk 'm!

  • Kid Jansen
  • Registratie: Oktober 2005
  • Niet online
Bundin schreef op donderdag 07 februari 2013 @ 14:07:
Wat ik eigenlijk ook wel zou willen zien in 1-2 optionele (zelf in te vullen) scoringscriteria die je zelf kan labelen. Dat geeft wat meer ruimte om je eigen draai aan je review te geven. Zo kan ik me voorstellen dat een casemodder het uiterlijk van bepaalde componenten (cpu-koeler?) mee laat wegen, terwijl dat voor diegenen zonder plexi-zijkant totaal niet relevant is. Het toch toe kunnen voegen als criterium levert een completer beeld op over hoe de reviewer tot zijn eindscore is gekomen. Het is ook te minen door Tweakers, als een bepaald criterium vaker wordt "aangemaakt" kan bekeken worden of het nuttig genoeg is om toe te voegen aan de standaardlijst voor die categorie.
Dat lijkt mij eigenlijk ook wel een hele goede toevoeging. Om weer even beeldschermen er bij te pakken, daar kan je dan bij bijvoorbeeld beeldschermen speciaal voor gamen criteria toevoegen over de snelheid (bijvoorbeeld inputlag) en bij schermen voor beeld- en videobewerking wat specifiekere criteria voor beeldkwaliteit (bijvoorbeeld uniformiteit, greyscale tracking, gamma response, etc.)

Beide zijn een toevoeging op respectievelijk alleen ghosting (toch heel ander soort maatstaf voor snelheid van scherm) en kleurweergave en contrast & helderheid (die samen nog lang niet alle criteria voor beeldkwaliteit afdekken).

Om dat voor alle schermen te doen zou overdreven zijn, omdat in beide gevallen het voor het grootste deel van de schermen niet relevant is, maar voor een klein deel juist zeer relevant. Daarnaast kan je het gewoon weglaten als je niet weet hoe je het moet testen of niet kan testen door gebrek aan de juiste meetapparatuur/-software. Het dwingt je dus niet nog een extra onderdeel te beoordelen en het staat ook niet stom om het leeg te laten.

Acties:
  • 0 Henk 'm!

Anoniem: 303530

Ahh. Dus eigenlijk wil je per productgroep (gaming monitoren, TV monitoren, noem maar op) aparte criteria hanteren, specifiek voor die productgroep.

Ik ben van mening dat je daarmee het doel van de scorekaart voorbij schiet. Het doel van de scorekaart is om snel een indruk te krijgen hoe goed een scherm is. Maar.. Hoe goed is een videobewerk-monitor qua gaming? Geen idee. Het is geen gaming monitor, dus volgens jouw ideaal wordt dat criteria van snelheid niet beoordeeld.

Het lijkt mij dat een scorekaart bedoeld is voor een simpele beoordeling. Als je vervolgens allerlei criteria gaat toevoegen voor 'gespecialiseerde' producten, dan schiet dat niet op. Beoordeel gewoon alle monitoren hetzelfde. Misschien zal dat ertoe leiden dat een U2713 een magere 1.5 ster ontvangt op het gebied van snelheid, maar dat lijkt mij dan terecht.




Verder, er wordt hier vooral gesproken over een schaal tussen de 1 en de 5. Maar waarom wordt er niet gekozen om 'achter de schermen' een score van 1 tot 10? het enige probleem wat je dan moet tackelen is de weergave naar sterren: bij 1 t/m 10 zijn er 10 unieke waarden mogelijk, terwijl dat er in het huidige model 9 zijn. een 6 zou dan de eerste voldoende worden, met 3 sterren

De vertaalslag tussen de 'voldoende/goed/..' en 'X aantal sterren' lijkt mij overigens lastig. Ik vul een onvoldoende in, een 5-je, ofwel 2.5 ster in termen van t.net. Maar is het voor de lezer direct duidelijk dat het om een onvoldoende gaat? Als ik 2.5 sterren zie dan denk ik 'dat is precies de helft van de schaal, dus net een voldoende'.

Overigens hanteert theverge een 10-punts schaal, voor diegenen die dat eens willen bewonderen. De lengte van het balkje vergelijken gaat in elk geval makkelijker dan het vergelijken van sterren.

Wat ook een punt is is dat alle schalen die ik kan vinden (1 t/m 10, 1 t/m 6, A t/m F) helemaal geen 'middelste getal' hebben. Aldus de klassieke cijfers is iets goed of slecht, niet gemiddeld, bij de schalen die in Regeneration in "Schaalverbreding scorekaarten" worden besproken bestaat dat middelste punt juist wel.

[ Voor 8% gewijzigd door Anoniem: 303530 op 08-02-2013 19:39 ]


Acties:
  • 0 Henk 'm!

  • Bundin
  • Registratie: Januari 2006
  • Niet online
Anoniem: 303530 schreef op vrijdag 08 februari 2013 @ 19:29:
Ahh. Dus eigenlijk wil je per productgroep (gaming monitoren, TV monitoren, noem maar op) aparte criteria hanteren, specifiek voor die productgroep.
Ik ben van mening dat je daarmee het doel van de scorekaart voorbij schiet. Het doel van de scorekaart is om snel een indruk te krijgen hoe goed een scherm is. Maar.. Hoe goed is een videobewerk-monitor qua gaming? Geen idee. Het is geen gaming monitor, dus volgens jouw ideaal wordt dat criteria van snelheid niet beoordeeld.
Nee, het gaat juist om criteria die een specifieke reviewer heeft gehanteerd bij het kiezen van dit specifieke product. De reviewer kan zelf één of twee criteria toevoegen aan de scorekaart die hij relevant vond maar die niet in de standaardlijst van die productgroep staan. Gewoon zelf een label kiezen als reviewer dus. Als ik mijn telefoon mede op "custom rom support" heb geselecteerd dan is het prettig om dat duidelijk weer te kunnen geven in de review, vooral als het een van de doorslaggevende punten was. Het is niet nodig om bij iedere telefoon "custom rom support" in de standaardlijst van criteria te hebben staan, zeker niet iedereen zal een mogelijke aankoop daarop beoordelen. Maar voor diegenen die er wel in geinteresseerd zijn kan het erg prettig zijn als ze in de lijst met reviews juist die reviews kunnen herkennen die daar dieper op ingaan.

Om op jouw voorbeeld terug te komen: je splitst "beeldschermen" dus niet op voorhand in verschillende sub-categorieën maar je laat reviewers zélf aangeven wat ze belangrijke punten vonden bij het reviewen van het product. Dus naast de standaardlijst voor beeldschermen hebben sommige reviews misschien een paar extra punten genoemd staan op de scorekaart. Scorekaarten zijn dus nog steeds prima te vergelijken binnen productgroepen, de meeste criteria komen overeen (al is de ene reviewer de andere niet wanneer het aankomt op bepalen van scores).

[ Voor 8% gewijzigd door Bundin op 09-02-2013 04:09 ]


Acties:
  • 0 Henk 'm!

  • xs4me
  • Registratie: Maart 2002
  • Laatst online: 27-06 17:35
Anoniem: 303530 schreef op vrijdag 08 februari 2013 @ 19:29:
Ahh. Dus eigenlijk wil je per productgroep (gaming monitoren, TV monitoren, noem maar op) aparte criteria hanteren, specifiek voor die productgroep.
Ik vind 't voorbeeld van een monitor dan juist wel weer sterk. Er zijn zat mensen die gewoon (vaak impulsief) zomaar wat kopen (bijv. een monitor) en dan onrealistische verwachtingen hebben. Bijv. omdat ze kleurechtheid gaan beoordelen op een game scherm en vice versa.

Het perspectief van de reviewer is bijna alles zeggend over de waarde van de review. Het geeft ons dat zelfde perspectief.

Als je zoekt naar ene IPS scherm ivm kleurechtheid. Je leest een negatieve review van iemand die erop gamed, dan lijkt me dat vrij logisch en weet je dat je er voor jouw doeleinden niet veel waarde aan hoeft te hechten.

Dus dat lijkt me een mooie toevoeging die voor veel producten veel meer perspectief geeft.

Een globale (makkelijke om mee te beginnen) zou kunnen zijn dat je aangeeft of je 't als pro of particulier gebruikt. Op die manier kun je ook al meer toetsen. Een pro vormgever die een monitor koopt zal beter geïnformeerd zijn (doorgaans) dan een particulier. Om zomaar wat te noemen.

Dus je zou op doel / doelgroep / gebruik moeten kunnen filteren eigenlijk. Allemaal zaken die echt wat toevoegen. Een 9 of 10 punt rekening. Leuk, maar je wint er op zich ook weer niet zoveel mee.

[ Voor 7% gewijzigd door xs4me op 10-02-2013 12:27 ]


Acties:
  • 0 Henk 'm!

Anoniem: 303530

xs4me schreef op zondag 10 februari 2013 @ 11:49:
[...]

Ik vind 't idee van een monitor dan juist wel weer sterk. Er zijn zat mensen die gewoon (vaak impulsief) zomaar wat kopen (bijv. een monitor) en dan onrealistische verwachtingen hebben. Bijv. omdat ze kleurechtheid gaan beoordelen op een game scherm en vice versa.
Dat kan toch? Dan krijgt 120Hz gaming monitor X een 1 ster op het gebied van kleurechtheid.

Bij de review van mijn E6520 staat ook een minpunt dat de grafische kaart zwak is. Ook al haalt niemand deze laptop voor gaming. Het heeft volgens mij geen zin om een optioneel een criteria toe te voegen voor bijvoorbeeld 'grafische prestaties'. Dat moet je doen bij alle laptops of juist niet. Een laptop als deze zou dan steenvast een laag cijfer krijgen op dat punt.

En als de reviewer dat geen belangrijk punt vind, dan kan hij dat laten meewegen in het algemene cijfer:

Op het moment dat je gebruikers zelf criteria laat invoeren verlies je een groot deel flexibiliteit: het gemiddelde van 5 reviews nemen is bijvoorbeeld niet meer mogelijk. Als je voorgedefinieerde criteria hanteert kan de reviewer ervoor kiezen om daar geen waardering te geven.
Als je zoekt naar ene IPS scherm ivm kleurechtheid. Je leest een negatieve review van iemand die erop gamed, dan lijkt me dat vrij logisch en weet je dat je er voor jouw doeleinden niet veel waarde aan hoeft te hechten.
Maar waarom zou een gamer geen oordeel mogen geven over kleurechtheid?
Een globale (makkelijke om mee te beginnen) zou kunnen zijn dat je aangeeft of je 't als pro of particulier gebruikt. Op die manier kun je ook al meer toetsen. Een pro vormgever die een monitor koopt zal beter geïnformeerd zijn (doorgaans) dan een particulier. Om zomaar wat te noemen.
Ik (persoon met het hoogste percentage posts in CSL en LAA, volgens mij met vrij ruime afstand..) review een laptop. Pro of particulier? Kid Jansen reviewt een monitor, pro of particulier? Slecht voorbeeld wat mij betreft. Of het kennisniveau van de persoon (in neem aan dat je dat bedoelt) aquedaat is lees in wel in de review en zou ik niet door de persoon zelf laten beoordelen. (mening)
Dus je zou op doel / doelgroep / gebruik moeten kunnen filteren eigenlijk.
Het volume reviews in de pricewatch is veel te klein om dat soort filters nuttig te maken. Je kan net zo goed de 3 reviews van product X openslaan en kijken voor welk doeleinde het product wordt ingezet.

Acties:
  • 0 Henk 'm!

  • xs4me
  • Registratie: Maart 2002
  • Laatst online: 27-06 17:35
Anoniem: 303530 schreef op zondag 10 februari 2013 @ 12:35:
[...]
Dat kan toch? Dan krijgt 120Hz gaming monitor X een 1 ster op het gebied van kleurechtheid.
Ja, ik doel dus op "wie" die ster(ren) geeft. Niet dat je ze kunt geven. Dat lijkt me duidelijk.
Het heeft volgens mij geen zin om een optioneel een criteria toe te voegen voor bijvoorbeeld 'grafische prestaties'.
Ik bedoelde 't ook niet als optioneel.
En als de reviewer dat geen belangrijk punt vind, dan kan hij dat laten meewegen in het algemene cijfer:

Op het moment dat je gebruikers zelf criteria laat invoeren verlies je een groot deel flexibiliteit: het gemiddelde van 5 reviews nemen is bijvoorbeeld niet meer mogelijk. Als je voorgedefinieerde criteria hanteert kan de reviewer ervoor kiezen om daar geen waardering te geven.
Je verliest geen flexibiliteit. Algemeen blijft algemeen. Gemiddeld blijft gemiddeld. Ik doel op een "mogelijke" opsplitsing naar wens, evt. in een latere (doorklik) fase.
Maar waarom zou een gamer geen oordeel mogen geven over kleurechtheid?
Dat zeg ik nergens. Ik zeg alleen "wie" geeft die waardering. Als 't iemand is die 't voor gamen gebruikt en beoordeeld dan is dat waardevol voor gamers, maar minder voor iemand die 't professioneel voor applicaties gebruikt.
Ik (persoon met het hoogste percentage posts in CSL en LAA, volgens mij met vrij ruime afstand..)
review een laptop. Pro of particulier? Kid Jansen reviewt een monitor, pro of particulier? Slecht voorbeeld wat mij betreft. Of het kennisniveau van de persoon (in neem aan dat je dat bedoelt) aquedaat is lees in wel in de review en zou ik niet door de persoon zelf laten beoordelen. (mening)
Ik werk met zat pro's - die hebben een hele andere beoordeling voor iets dan de doorsnee huis en tuin gebruiker. Dat heeft nog niet eens met kennis niveau te maken, maar puur met doel en doelgroep.
De huis en tuin gebruiker koopt gewoon een scherm met een scherpe prijs of/en omdat die er mooi uitziet.
Een pro kijkt er veel technischer naar, en bovendien gericht. Of 't Adobe aRGB ondersteunt om zomaar wat te noemen. Het gaat mij er dus niet om of de thuisgebruiker weet wat aRGB is, maar dat dit, of ze 't nou weten of niet, niet belangrijk is voor hun gebruik. Het gaat mij dus niet om de splitsing dom en slim ofzo ... Maar om de splitsing doel en doelgroep.

10 mensen die niet de kennis hebben om kleurechtheid uberhaupt te beoordelen zijn voor mij minder waardevol (misleiden zelfs) als die ene die dat daadwerkelijk meet en er de kennis ook van heeft. Checkbox erbij voor "Gemeten waarden" in de review mag dan ook weer zwaarder meetellen in 't gemiddelde.
Het volume reviews in de pricewatch is veel te klein om dat soort filters nuttig te maken. Je kan net zo goed de 3 reviews van product X openslaan en kijken voor welk doeleinde het product wordt ingezet.
Met je eens. Als denk ik dat 't vrij sterk zou zijn om juist de simpele review waar er zat van zijn (alleen sterrertjes geven - waar je werkelijk geen kont aan hebt) deze paar opties te geven. Ik zie liever +- 20% minder simpele reviews door een paar extra velden in ruil voor een beter perspectief van de reviewer.

Ik zou 't bij normale reviews veel handiger vinden om meer van dit soort opties erbij te zien en minder tekst. Dat geleuter van sommige reviewers voegt vaak weinig toe. Ik zit echt niet te wachten op een A4'tje met toelichting en uiteindelijk nog de helft niet weten, of niet 't juiste perspectief te hebben. Dat kan juist sneller en simpeler met een paar keuze velden. Zowel voor de reviewer als de lezer. Dat maakt het laagdrempeliger en krijg je juist meer reviews met bovendien een opdeling doel en doelgroep.

Ik zeg niet dat 't zo moet, of al deze opties erin moeten, ik zit alleen hardop te denken n.a.v. de vraag om hierin mee te denken van de mod en dit zou voor mij de reviews waardevoller maken.

[ Voor 13% gewijzigd door xs4me op 10-02-2013 13:08 ]


Acties:
  • 0 Henk 'm!

  • Bundin
  • Registratie: Januari 2006
  • Niet online
Het grote voordeel van optionele criteria is dat reviewers minder snel een lijst voor hun neus krijgen met allerhande criteria waar ze misschien nog nooit over nagedacht hadden. Neem bijvoorbeeld inputlag voor schermen. Alleen relevant voor gamers (en ik denk zelfs alleen voor een subset daarrvan). Dan kan je inputlag wel als extra scoringscriterium toevoegen, maar als de meerderheid van de reviewers zich er niet in verdiept heeft is de kans erg groot dat de scores niet veel zeggen. Men zal toch wat invullen als het er staat (3-4 sterren maar dan?).

Dan liever dat die ene reviewer die er wel mee bezig is geweest het als optioneel punt toevoegt: beste kans dat die scores wel onderbouwd zijn.

Dat er geen gemiddelde van genomen kan worden vind ik echt geen punt. Dat zou pas een nadeel zijn als er tientallen reviews zouden zijn per product, maar dat is niet aan de orde.
xs4me schreef op zondag 10 februari 2013 @ 13:01:
Ik zou 't bij normale reviews veel handiger vinden om meer van dit soort opties erbij te zien en minder tekst. Dat geleuter van sommige reviewers voegt vaak weinig toe. Ik zit echt niet te wachten op een A4'tje met toelichting en uiteindelijk nog de helft niet weten, of niet 't juiste perspectief te hebben. Dat kan juist sneller en simpeler met een paar keuze velden. Zowel voor de reviewer als de lezer. Dat maakt het laagdrempeliger en krijg je juist meer reviews met bovendien een opdeling doel en doelgroep.
Ik hecht juist nul komma nul waarde aan reviews zonder tekst en kijk nieteens naar de gemiddelde scores. Juist de tekst en uitleg geeft me een idee van hoe de reviewer met zijn product omgaat en (hopelijk) wat inzicht in het kennisniveau van de reviewer over het product. Dat helpt me weer met beoordelen hoeveel waarde ik aan de scores kan hechten.

[ Voor 35% gewijzigd door Bundin op 10-02-2013 21:14 ]


Acties:
  • 0 Henk 'm!

Anoniem: 303530

xs4me schreef op zondag 10 februari 2013 @ 13:01:
Je verliest geen flexibiliteit. Algemeen blijft algemeen. Gemiddeld blijft gemiddeld. Ik doel op een "mogelijke" opsplitsing naar wens, evt. in een latere (doorklik) fase.
Ahh. Op die manier. Maar dan krijg je naar mijn mening dezelfde discussie: na een aantal keer klikken krijg je (bijvoorbeeld) 7 verschillende criteria voorgeschoteld die voor belang zijn voor jouw gebruik. En bijvoorbeeld ghosting staat daar niet tussen. Dat lijkt mij volstrekt onlogisch. Dat die eigenschap niet van belang is voor gebruik X betekent nog niet dat de gebruiker daar geen oordeel over kan vellen.

Ik vind dat het aan de gebruiker zelf is om criteria niet in te vullen als het niet relevant is.
Ik werk met zat pro's - die hebben een hele andere beoordeling voor iets dan de doorsnee huis en tuin gebruiker. Dat heeft nog niet eens met kennis niveau te maken, maar puur met doel en doelgroep.
De huis en tuin gebruiker koopt gewoon een scherm met een scherpe prijs of/en omdat die er mooi uitziet.
Een pro kijkt er veel technischer naar, en bovendien gericht. Of 't Adobe aRGB ondersteunt om zomaar wat te noemen. Het gaat mij er dus niet om of de thuisgebruiker weet wat aRGB is, maar dat dit, of ze 't nou weten of niet, niet belangrijk is voor hun gebruik. Het gaat mij dus niet om de splitsing dom en slim ofzo ... Maar om de splitsing doel en doelgroep.
Wellicht is ervaring een betere term voor wat ik probeerde uit te leggen. Ik kan je bijvoorbeeld gegarranderen dat de meeste 'pro's' minder goed een mening over een monitor kunnen geven dan bijvoorbeeld particulier kid jansen. Of iemand het spul professioneel gebruikt zegt niets over het kennisniveau van dat type producten. Het zal uiteraard wel enig verband hebben.

Daarnaast, ik ben code klopper van beroep en koop een monitor. Ben ik een professional? Jazeker. Kan ik een goed oordeel geven over de kleurechtheid? Nee, dat is voor mijn werk volstrekt irrelevant.
10 mensen die niet de kennis hebben om kleurechtheid uberhaupt te beoordelen zijn voor mij minder waardevol (misleiden zelfs) als die ene die dat daadwerkelijk meet en er de kennis ook van heeft. Checkbox erbij voor "Gemeten waarden" in de review mag dan ook weer zwaarder meetellen in 't gemiddelde.
Waarom zou een mening (!) van X sterren, die voortvloeit uit een meting zwaarder wegen dan een mening op basis van een observatie zonder meting?

Ik kan observeren dat de kleurechtheid slecht is en een 1 geven. Iemand anders kan de kleurechtheid meten en concluderen dat het op basis van zijn ervaring (met een klein aantal samples) een 5 verdient. De hoeveelheid sterren die iemand geeft is nog altijd een mening. (behalve, ik meen, bij pixeldefecten).

Daarnaast krijg je dan weer het probleem dat mensen min of meer zelf kunnen beslissen hoe belangrijk hun 'aantal sterren' is. Een meting met een brakke meter (dat komt enorm vaak voor bij voeding reviews) is nog steeds brak ookal is het in feite een gemeten waaarde.
Met je eens. Als denk ik dat 't vrij sterk zou zijn om juist de simpele review waar er zat van zijn (alleen sterrertjes geven - waar je werkelijk geen kont aan hebt) deze paar opties te geven. Ik zie liever +- 20% minder simpele reviews door een paar extra velden in ruil voor een beter perspectief van de reviewer.

Ik zou 't bij normale reviews veel handiger vinden om meer van dit soort opties erbij te zien en minder tekst. Dat geleuter van sommige reviewers voegt vaak weinig toe. Ik zit echt niet te wachten op een A4'tje met toelichting en uiteindelijk nog de helft niet weten, of niet 't juiste perspectief te hebben. Dat kan juist sneller en simpeler met een paar keuze velden. Zowel voor de reviewer als de lezer. Dat maakt het laagdrempeliger en krijg je juist meer reviews met bovendien een opdeling doel en doelgroep.
Ik ben het met Bundin eens met deze. Als ik een review lees dan kijk ik in de eerste plaats naar de text, daarna naar de benchmarks, en daarna naar de score. Ik pleit zelfs voor het anandtech model waar scores uberhaubt afwezig zijn. (maar dat werkt uiteraard alleen als er in de review voldoende vergelijkingen worden getrokken).

De score op zich is namelijk waardeloos. De accuduur is zeer goed. En wat vind de reviewer dan zeer goed? Misschien vind ik dat getal in uren accuduur wel een krappe voldoende waard. Zonder de text erbij kan ik die afweging nooit maken, en is de review voor mij als iemand die het aanraden van laptops serieus neemt totaal waardeloos.
Ik zeg niet dat 't zo moet, of al deze opties erin moeten, ik zit alleen hardop te denken n.a.v. de vraag om hierin mee te denken van de mod en dit zou voor mij de reviews waardevoller maken.
Net zoals iedereen hier ;) Ik noch jij maakt de beslissing wat er uiteindelijk gaat gebeuren.

Acties:
  • 0 Henk 'm!

  • Kid Jansen
  • Registratie: Oktober 2005
  • Niet online
xs4me schreef op zondag 10 februari 2013 @ 13:01:
Ik werk met zat pro's - die hebben een hele andere beoordeling voor iets dan de doorsnee huis en tuin gebruiker. Dat heeft nog niet eens met kennis niveau te maken, maar puur met doel en doelgroep.
En dat is nou net de crux, pro zegt helemaal niets over je kennisniveau, laat staan je intelligentie... Ik heb eind september op de Photokina in Keulen met zat pro's gesproken van Quato, NEC, Eizo, X-Rite, DataColor en nog wel een paar van dat soort fabrikanten. In vrijwel alle gevallen kon ik hen meer vertellen over hun eigen producten en technologiën dan zij zelf en was ik ook een stuk beter in het leggen van verbanden tussen bepaalde vlakken.

Dat was overigens niet alleen mijn mening, maar dat werd ook door meerdere mensen met wie ik had gesproken gezegd. Toch ben ik geen pro, ik ben namelijk niet opgeleid voor een vak dat ook maar enigszins gerelateerd is aan beeldschermtechnologie, fotografie, beeldbewerking, kleurperceptie, etc. en ik heb ook geen baan in dat veld.

Ik zou mezelf eerder een "enthusiast" noemen, dat is ook wel een kreet je regelmatig voorbij ziet komen op die mini productreviews die je op websites van fabrikanten kan invullen. Soms staat het dan zelfs nog boven pro (beginner > intermediate > advanced> pro > enthusiast).
De huis en tuin gebruiker koopt gewoon een scherm met een scherpe prijs of/en omdat die er mooi uitziet. Een pro kijkt er veel technischer naar, en bovendien gericht. Of 't Adobe aRGB ondersteunt om zomaar wat te noemen. Het gaat mij er dus niet om of de thuisgebruiker weet wat aRGB is, maar dat dit, of ze 't nou weten of niet, niet belangrijk is voor hun gebruik. Het gaat mij dus niet om de splitsing dom en slim ofzo ... Maar om de splitsing doel en doelgroep.
Ik heb zat pro's voorbij zien komen in m'n leven die echt de meest debiele ondoordachte ononderbouwde productkeuzes maken die je je voor kan stellen. Er zijn volgens mij zat fotografen die het ook echt doen om er hun brood mee te verdienen die niet op gekalibreerde schermen werken, totaal geen verstand hebben van kleurruimtes, of in sommige gevallen zelfs op TN-beeldschermen hun foto's bewerken.
10 mensen die niet de kennis hebben om kleurechtheid uberhaupt te beoordelen zijn voor mij minder waardevol (misleiden zelfs) als die ene die dat daadwerkelijk meet en er de kennis ook van heeft. Checkbox erbij voor "Gemeten waarden" in de review mag dan ook weer zwaarder meetellen in 't gemiddelde.
Gemeten waarden zouden naar mijn mening ook veel zwaarder moeten wegen dan een volledig subjectief oordeel. Iemand kan wel zeggen dat de kleurechtheid goed is, maar misschien is zijn kleurperceptie wel volkomen waardeloos. Het is echt niet zo dat er alleen maar kleurenblind en niet kleurenblind is, kleurperceptie is gewoon een traploze schaalverdeling. Die naar mijn weten ook vrijwel volledig onafhankelijk is van andere oogafwijkingen. Ik heb bijvoorbeeld -4 dpt met -0.75 cilinder met m'n lenzen, maar wel een zo goed als perfecte kleurperceptie.

Acties:
  • 0 Henk 'm!

Anoniem: 303530

Kid Jansen schreef op zondag 10 februari 2013 @ 23:17:

Gemeten waarden zouden naar mijn mening ook veel zwaarder moeten wegen dan een volledig subjectief oordeel. Iemand kan wel zeggen dat de kleurechtheid goed is, maar misschien is zijn kleurperceptie wel volkomen waardeloos. Het is echt niet zo dat er alleen maar kleurenblind en niet kleurenblind is, kleurperceptie is gewoon een traploze schaalverdeling. Die naar mijn weten ook vrijwel volledig onafhankelijk is van andere oogafwijkingen. Ik heb bijvoorbeeld -4 dpt met -0.75 cilinder met m'n lenzen, maar wel een zo goed als perfecte kleurperceptie.
maar anderzijds kan die mening over dezelfde gemeten waarden ook verschillen. Als jij en ik dezelfde monitor testen en bij beide monitoren exact dezelfde delta-e meten (met, al dan niet dezelfde apparatuur, ook een punt van discussie) kan het nog voorkomen wat er hele andere conclusies worden getrokken over de kleurrechtheid. Ik kan bijvoorbeeld besluiten 5 sterren te geven terwijl jij er 3 geeft. Het is (imo) nutteloos om een bepaalde waardering zwaarder te laten wegen als het gemeten is als er slechts een indirect verband tussen meting en een 'correcte' waardering zit.

Dat soort nuances bereik je alleen door de review te lezen. En op het moment dat je dat doet heeft de scorekaart sowieso weinig waarde meer.

[ Voor 5% gewijzigd door Anoniem: 303530 op 10-02-2013 23:38 ]


Acties:
  • 0 Henk 'm!

  • Kid Jansen
  • Registratie: Oktober 2005
  • Niet online
Anoniem: 303530 schreef op zondag 10 februari 2013 @ 23:36:
maar anderzijds kan die mening over dezelfde gemeten waarden ook verschillen. Als jij en ik dezelfde monitor testen en bij beide monitoren exact dezelfde delta-e meten (met, al dan niet dezelfde apparatuur, ook een punt van discussie) kan het nog voorkomen wat er hele andere conclusies worden getrokken over de kleurrechtheid. Ik kan bijvoorbeeld besluiten 5 sterren te geven terwijl jij er 3 geeft. Het is (imo) nutteloos om een bepaalde waardering zwaarder te laten wegen als het gemeten is als er slechts een indirect verband tussen meting en een 'correcte' waardering zit.
Helemaal waar, daar had ik eerder ook al op gehint in dit topic:
Kid Jansen schreef op maandag 21 januari 2013 @ 11:52:
Wat hierboven staat slaat wat mij betreft de spijker op z'n kop. Ik vind zelf om eerlijk te zijn het sterrensysteem overbodig.

Zelfs al zou iedereen exact dezelfde criteria gebruiken voor het toekennen van een bepaalde waarde, dan nog zal je met het probleem zitten dat in veel productcategoriën de technologie nou eenmaal niet stil staat.
...

Acties:
  • 0 Henk 'm!

  • mrc4nl
  • Registratie: September 2010
  • Laatst online: 18:05

mrc4nl

Procrastinatie expert

ik weet niet of het al gebeurd, maar is warmteproductie te vergelijken in dezelfde klasse, bijv een FX8150 tegen i7. dan zou je kunnen stellen dan de i7 het beter doet dan de amd.
high end procesoren verbruiken nou eenmaal meer, maar kunnen het relatief heel koel zijn
want anders zou een atom bijv veel een lagere wamteproductie hebben maar (relatief naar rekenkracht) juist hoog.

ora et labora


Acties:
  • 0 Henk 'm!

  • MikeyMan
  • Registratie: Februari 2003
  • Laatst online: 18:06

MikeyMan

Vidi, Vici, Veni

Is het geen idee om in de losse beoordelingscriteria alleen hele sterren toe te staan (oude systeem) en in de eindbeoordeling ook halve sterren te berekenen?

Acties:
  • 0 Henk 'm!

  • xs4me
  • Registratie: Maart 2002
  • Laatst online: 27-06 17:35
Ok, lang verhaal kort zeg ik eigenlijk dit:
Doel en doelgroep. Ik heb 't dus niet over ervaring, kennis etc ... Dat ik iets duidelijk wil maken betekend niet dat al 't andere ineens van toepassing is.
Pro = een mogelijke doelgroep (iemand die betaald wordt voor 't doel)
Gamen = een mogelijk doel (kan dus prima ook een pro zijn).

Simpele review = nutteloos
Uitgebreide review = lang niet altijd inhoudvol omdat de tekst in 10 regels is, en je toelichting of de sleutel onderdelen vaak niet eens gegeven wordt.

Gemeten waarde hecht ik wel degelijk meer waarde aan. Aangeven met een lampje ofzo. Mag je zelf bepalen of je dat belangrijk vind. Ik vind gemeten waarden met een programma wat ik ook kan beoordelen objectiever dan puur wat iemand vind. En ook bij een meting mag je gewoon nog je mening geven hoor.

Ik hecht ook meer waarde aan iemand met ervaring en kennis. Snap niet dat hier iedereen zo anti op reageert. Kennis zal altijd nog onderbouwt moeten worden met kennis. Als je 40 bent, 30 monitors hebt versleten, uit kan leggen wat die ervaringen en kennis zijn, dan hecht ik daar meer waarde aan dan een student die z'n 1e scherm koopt. Echter, als die student 't ook gewoon met kennis (en/of metingen) onderbouwt dan is dat net zo waardevol.

Kennis, ervaring, een pro (iemand die ervoor betaald wordt en 't dus doorgaan wel beter zal weten), zijn toch geen vieze dingen? Is 't een diskwalificatie voor al 't andere ofzo? Wat mij betreft niet in ieder geval.

Ik zie liever 1 vorm. Simpele review met (evt meer dan huidige) bepaalde opties (met X sterren) met verplichte korte toelichting en eronder optioneel de uitbreiding door 't tekstueel toe te lichten.

De ratings zijn nu identiteitsloos. Het kan een (anti-)apple fan boy zijn of niet. We weten 't niet. Dus licht gewoon even kort toe waarom je 't vind, zonder direct een uur of meer aan tekst te hoeven tikken.

Als iemand 1 ster geeft en alleen zegt: helemaal k*t. Dan weet je meteen wat voor persoon 't is.
Dat hou je helaas niet tegen, maar zijn vaak wel met name de figuren die een rating zonder toelichting geven. Op deze manier krijg je in ieder geval al wat meer perspectief.

Maargoed, Tweakers kan meten, heeft inzicht, en kan daarop anticiperen. Die gegevens heb ik niet.

[ Voor 24% gewijzigd door xs4me op 18-02-2013 22:52 ]

Pagina: 1