Ho fatto una simulazione del sistema di voto:
Ho preso in considerazione un insieme ordinato di 4000 oggetti (diciamo siano le foto di una certa categoria), ciascuno con un indice che ne determina la qualita' 0=ciofeca, 4000= superlativo.
Ho simulato di fare 150.000 sfide prendendo 2 oggetti a caso dal mucchio ed ho attribuito un punteggio +1 a chi vinceva la sfida. Ho rigorosamente limitato le sfide a NON essere comunque piu' di 25 per ciascun oggetto.
Diagrammando le sfide vinte dai vari oggetti si ottiene il seguente andamento:
Si puo' ovviamente notare che mediamente gli oggetti di bassa qualita' vincono meno sfide, ma la dispersione dei valori e' comunque abbastanza ampia...ed il tutto e' dovuto SOLO agli accoppiamenti casuali. Il giudice in questione e' INTEGERRIMO.
Per fare un esempio c'e' qualche foto (un paio) di qualita' attorno a 3000 (che e' molto meno del massiomo pari a 4000) che hanno comunque vinto tutte le sfide solo perche' si sono scontrate sempre con avversari piu' deboli.
Quello che invece mi turba parecchio e' che quando vado a vedere quanti oggetti hanno vinto 0 sfide, quanti 1 ecc. ecc. trovo un andamento assolutamente diverso dalla curva gaussiana quasi perfetta che abbiamo qui.
Come mai c'e' questa incongruenza? Ovvero come mai i dati che troviamo dal concorso sono una gaussiama?
come mai nella simulazione trovo un andamento assolutamente diverso (sbaglio qualcosa ?) ? e poi perche' mai l'andamento dovrebbe essere gaussiano ?
C'e' qualche esperto di statistica che mi puo' aiutare ? Agnes ?