Quando ho iniziato a raccogliere i dati sul national bias dei giudici, mi sono concentrata sui giudici delle nazioni più forti. Però, man mano che scrivevo i miei commenti, e che guardavo i protocolli di gara, l’insoddisfazione per un lavoro incompleto non faceva che crescere. Perché solo quei giudici e non anche gli altri? I voti finali ottenuti dai pattinatori derivano dalla combinazione dei voti di tutti i giudici, perciò escluderne qualcuno non mi sembrava giusto. E poi c’è anche la danza, che avrà caratteristiche tutte sue ma che ha molti aspetti in comune con l’artistico – una controvenda è una controvenda, indipendentemente da chi la fa, e in tutte le discipline le skating skills sono (o dovrebbero essere) legate al modo in cui i pattinatori usano i pattini. Per non parlare dei giudici: molti di loro giudicano sia l’artistico che la danza, quindi non aveva senso guardare il loro operato in modo parziale. Così mi sono armata di pazienza e ho raccolto tutti i dati di tutti i giudici, indipendentemente dalla disciplina, nelle stagioni 2016-2017, 2017-2018, 2018-2019 e 2019-2020. Le gare che ho considerato sono Challenger Series, Grand Prix (sia junior che senior), campionato continentale, Campionato del mondo (sia junior che senior), World Team Trophy e Giochi olimpici. Questo non significa che il file contiene i dati di tutti i giudici in tutte le gare. Posso calcolare il national bias solo quando un giudice giudica un suo connazionale, ma in quasi tutte le gare ci sono giudici che valutano solo pattinatori che hanno una nazionalità diversa da quella del giudice, e magari possono esserci problemi diversi dal national bias, ma questo è qualcosa che non posso verificare.
Questo screenshot, dedicato alle prime righe del mio file, mostra quel che ho raccolto e come l’ho raccolto:
Le colonne indicano, da sinistra, stagione, gara, disciplina, nome del giudice, nazionalità, bias nel programma corto, bias nel programma libero, bias totale. La colonna U è evidenziata in modo da mostrare i dettagli in basso: il file comprende 3094 righe. È ovvio che con un file così lungo il rischio di un errore è sempre presente. Se doveste notarne vi chiedo di segnalarmeli, in modo da poter correggere il post.
Perché vi faccio vedere il numero di righe in questo modo? Per dire che non sono io a fare le somme del bias, è il computer a farle, perciò se non ho immesso dati sbagliati le cifre finali sono giuste. Quando possibile ho fatto fare il lavoro al computer, in modo da ridurre il rischio che io potessi fare un errore. Ho cerchiato un altro dato, la media. Il bias medio che i giudici di tutte le nazioni hanno avuto, nella somma dei due programmi nelle ultime quattro stagioni, è di 4.85 punti. Ricordo che io, basandomi su una decisione dell’ISU che ha sospeso un giudice per un bias di poco inferiore ai 9.00 punti, indico come bias eccessivo quello dai 9.00 punti in su. Il bias medio dei giudici corrisponde a poco più della metà di un bias ritenuto eccessivo dall’ISU, anche se più in basso farò qualche precisazione su questo valore.
Ho evidenziato in grassetto, e con un carattere lievemente più grande, i bias eccessivi, in rosso i bias negativi. Una volta raccolti tutti i dati sono passata all’analisi, procedendo come avevo fatto quando mi ero limitata ai giudici di sei nazioni.
I tre blocchi sono il programma corto, il libero, e la media, che è data dalla somma delle due medie precedenti. Bisogna tenere presente che a volte da un programma all’altro qualche giudice viene cambiato, o la gara (campionati ISU e Gochi olimpici) ha un numero massimo di partecipanti per il programma libero, perciò alcuni pattinatori disputano solo il programma corto. O anche, possono esserci infortuni, con il pattinatore che non disputa il libero. Come si vede nel primo screenshot, alcune caselle sono vuote, non contengono nessun numero. Per esempio Franco Benini ha giudicato solo il programma corto alla gara di junior Grand Prix di St. Gervais nel 2016, perciò ho potuto verificare il bias in un solo programma. Con il computer però non si ragiona, non ho potuto spiegargli come considerare quella casella vuota. La media, colonna BC, è stata fatta dal computer, che non si è preoccupato del fatto che il dato che conteggiava fosse riferito a un programma solo o a due. Perciò non è possibile sommare i bias totali e fare la media da lì. Nelle quattro stagioni considerate nel programma corto i giudici hanno assegnato ai loro connazionali 5647.27 in più rispetto a quelli che hanno assegnato ai loro pattinatori (sono punti di bias, non punti totali, vale a dire che si tratta del 5.59 del giudice turco alla prima gara + il 4.19 del giudice coreano + l’1.52 del giudice francese e così via) in 2840 programmi corti che hanno valutato. La media fra quel 5647.27 e 2840 è 1.99, il bias totale dei giudici nel programma corto (colonna AW) è di 1.99 punti. La media del libero è calcolata allo stesso modo, sono 3.47 punti. Questi valori mi dicono come si sono comportati i giudici in ciascuno dei due programmi. Se io sommo 1.99 a 3.47 ottengo 5.46, il bias totale dei giudici nella categoria che sto analizzando (colonna BA).
Il bias totale della prima stagione è stato di 5.46 punti, nella stagione successiva, la stagione olimpica, è cresciuto, sospetto perché la posta in palio era più alta. Nella stagione 2018-2019, la prima con il nuovo codice di punteggi, abbiamo il bias più basso. Mi ero chiesta se cambiare i valori che mi fanno considerare eccessivo un bias, alzandoli, perché ora i GOE sono più alti, ma, supponendo che l’onestà dei giudici non sia cambiata, il calo nel valore del bias mi fa sospettare che forse dovrei abbassare il valore che indica un bias eccessivo, non alzarlo. Nel dubbio mantengo i vecchi numeri, 3.00 punti per il programma corto, 6.00 per il libero, 9.00 per il totale.
Ho calcolato anche il bias per disciplina. La danza, la disciplina che in passato avevo trascurato, è quella in cui i giudici si dimostrano più partigiani, seguita dagli uomini, dalle coppie di artistico e dalle donne. Dopo aver guardato i valori generali, potevo esimermi dal controllare ciascuna nazione? Ovvio che più è alto il campione considerato, più le statistiche sono valide. In questo caso io non avevo scelta: ho considerato tutte le gare, ma i giudici di alcune nazioni sono più presenti rispetto ai giudici di altre. Non solo, un giudice russo quasi certamente valuterà un connazionale, a un giudice irlandese capiterà molto meno spesso. Non posso farci nulla. Per i russi (o per i canadesi, gli statunitensi o per i giudici di diverse altre nazioni) la media ha più senso che per gli irlandesi (o per i greci, o i neozelandesi…). Comunque senza un controllo sistematico come questo qualche nazione mi sarebbe potuta sfuggire, e invece è interessante vedere in quali nazioni il bias è più alto, anche perché non sempre si tratta di nazioni che hanno un atleta in lotta per una medaglia.
Sono numeri medi, legati alla nazione, ma ogni caso andrebbe indagato attentamente. Non perché tutti assegnino voti assurdi, ma per distinguere che si comporta in modo corretto da chi non lo fa. E anche sul singolo giudice le variazioni possono essere notevoli. Per esempio, lo spagnolo Daniel Delfa ha avuto un valore di bias molto alto quando ha giudicato Javier Fernandez, più basso, una delle due volte lo ha avuto addirittura negativo, quando ha giudicato competizioni junior. Guarderò alcuni giudici, ma per ovvi motivi di tempo – ho due figlie, due lavori e due blog, perché evidentemente fare una cosa sola per volta non mi piace – non li guarderò tutti.
Una spiegazione sui colori: servono a dare un colpo d’occhio rapido. Ho preso come punto di riferimento il bias medio, quello indicato in alto nel secondo screenshot: 1.99 per il programma corto, 3.47 per il libero, 5.46 per la media. Ho colorato le medie superiori a questi valori. Se le nazioni che hanno avuto un bias superiore al bias medio, lo superano di pochi centesimi, non è grave, se lo superano di tanto il discorso cambia. Ho fatto una scaletta, aggiungendo di volta in volta al bias medio 0.50 punti per il programma corto, 1.00 per il libero e 1.50 punti per il totale. A seconda di quanto è forte il bias i colori cambiano dal giallo all’arancione, al rosso e infine al viola.
Spero che le spiegazioni relative al mio modo di procedere non siano noiose. Io voglio pubblicare dati oggettivi, non legati alle mie impressioni, quindi cerco di usare un approccio matematico e di dare abbastanza informazioni in modo che chiunque voglia farlo possa verificare la correttezza di ciò che scrivo, perché solo basandoci su elementi oggettivi è possibile muovere critiche serie.
Tornando ai colori, i voti più bassi dei bias evidenziati in giallo non sono gravi, quelli più alti iniziano a esserlo. Non ho voluto inserire troppi colori altrimenti avrei perso in leggibilità, ma io sto già partendo da un bias, non da un giudizio imparziale, e più ci si discosta più i giudici andrebbero controllati. Dall’arancione in su, tutti i bias sono gravi, con il culmine raggiunto dai due giudici georgiani, Salome Chigogidze, che ha giudicato 25 gare e ha avuto un bias eccessivo – e spesso non di poco – in 21 occasioni, non capisco come l’ISU non l’abbia ancora squalificata a vita, e Yulia Levshunova, che ha giudicato solo quattro gare, tutte nella stagione 2019-2020, quindi è un giudice fresco di nomina, ma che ha già dimostrato di aver imparato bene dalla connazionale come si giudicano le gare.
[Edit: guardando da vicino i risultati mi sono accorta che Levshunova non è fresca di nomina, ha solo cambiato nazionalità. Fino alla stagione 2018-2019 era tesserata per la Bielorussia, e naturalmente il suo national bias era elevato, poi è passata alla Georgia, e ha continuato ad avere il national bias alto. Con lei probabilmente bisognerebbe guardare tutte le gare controllando il bias nei confronti sia dei pattinatori bielorussi che di quelli georgiani, indipendentemente dalla stagione, e magari non ci starebbe male un controllo pure sui russi. Levshunova non è l’unico giudice che ha cambiato federazione, dettaglio che rende più difficili i controlli].
Quando ho fatto la mia carrellata su alcuni degli episodi meno simpatici della storia del pattinaggio, ho citato anche la sospensione dell’intera federazione sovietica, che non ha potuto mandare giudici alle gare, nel 1977. Come ha spiegato Sonia Bianchetti Garbato in Crepe nel ghiaccio,
quando i giudici di una nazione, per anni, si sono dimostrati incompetenti o insoddisfacenti, nonostante la federazione sia stata avvisata, quella federazione perde il diritto di nominare giudici per i campionati dell’anno successivo. La concezione che ha ispirato questa regola (che ancora oggi è nel regolamento dell’ISU [il libro è del 2005, non so se poi le cose siano cambiate]) si basa sul principio che, dal momento che le federazioni nazionali sono responsabili dell’istruzione e della preparazione dei propri giudici, quando questi si dimostrano insoddisfacenti la responsabilità ricade sulla federazione di appartenenza. (pag. 66)
Forse ora con qualche federazione sarebbe il caso di prendere provvedimenti analoghi. Al di là del discorso di federazione, con eventuali istruzioni di essere più o meno corretti quando si giudicano le gare, io credo che ciascuno sia responsabile per le proprie azioni. Possono esserci situazioni difficili, quindi nei limiti del possibile dovremmo sempre cercare di capire cosa è accaduto in ogni singolo caso, ma come tutti dovremmo sapere un’eventuale giustificazione “noi abbiamo solo ubbidito agli ordini” non è una giustificazione.
Visto che tanto avevo già i dati di tutti i giudici, ho chiesto al computer di mettermeli in ordine decrescente di bias, secondo la colonna U del primo screenshot. Questo significa che chi ha giudicato solo uno dei due programmi si trova in una zona bassa della classifica anche se in quel programma ha avuto un bias alto. Per esempio, nel 2016 nella gara di coppie di artistico a Skate America il giudice francese Anthony Leroy, con un bias di 4.67 punti, si trova alla riga 1482 del mio file. Il giudice tedesco Elke Treitz, che ha giudicato le coppie di artistico ai Giochi olimpici, si trova alla riga 1486 con 4.64 punti. Una differenza minima per il computer, con l’ordine fatto su quella colonna, enorme nella realtà, perché Leroy ha giudicato entrambi i programmi, e con un bias di 1.93+2.74 punti le sue valutazioni sono state corrette, Treitz ha giudicato il solo programma corto, perciò il suo bias è oltre due volte tanto quello di Leroy. Non so se farò le classifiche per segmento di gara, però, pur con i suoi limiti, ho fatto quella totale, e nelle posizioni di testa è certamente corretta. Non troppo tempo fa, commentando i voti assegnati da Weiguang Chen nella gara olimpica maschile, avevo detto che non sapevo se qualche giudice aveva avuto un bias maggiore del suo. Ora, avendo fatto i controlli, lo so: in un’ipotetica classifica Chen si piazzerebbe solo sul terzo gradino del podio, il record del mondo non appartiene a lei.
A vincere non è nemmeno la già citata Chigogidze, che occupa solo la quinta posizione, ma con una gara dell’ultima stagione, segno che si sta impegnando per rimediare. A vincere è la turca Ece Essen, giudice ben noto all’ISU perché nel gennaio del 2018 l’ha sospesa per quasi sei mesi. Non che la sospensione le abbia fatto capire che forse il suo comportamento non è sempre cristallino, la gara del record è arrivata nell’ultima stagione. Quindi abbiamo il coreano Tae Ri Lee, e terzo Chen, sospeso per due anni dall’ISU proprio per come ha giudicato questa gara. L’ISU però ha sospeso due giudici cinesi, non uno. Oltre a Chen ha sospeso Feng Huang, che in questo screenshot non compare. Vogliamo vedere dove si trova? Queste sono le righe successive.
Assente anche dalla seconda schermata, vado avanti.
Nessuna traccia neppure nella terza, proseguo.
Nella quarta non pervenuto, andiamo bene…
Schermata 5, idem come sopra.
Anche nella 6 nulla, finirò col diventare ripetitiva.
E anche la 7 è passata.
Schermata 8, idem come sopra.
Assente pure nella 9.
Che bello, qui abbiamo una variante. Il giudice spagnolo David Munoz ha avuto un bias negativo nel programma corto delle coppie di artistico del Finlandia Trophy, ma nel libero ha abbondantemente recuperato, piazzandosi alla 346° posizione complessiva (ricordo che le righe sono 3094). Di Feng Huang, però, giudice sospeso dall’ISU, ancora nessuna traccia. Cioè, lo abbiamo già incontrato più volte, sempre per le coppie di artistico: Campionato del mondo 2017, bias di 13.17 punti, finale di Grand Prix junior 2018, bias di 14.52 punti, e senior, bias di 18.6a punti, ma la gara che gli è valsa la sospensione ancora non è comparsa.
E anche lo screenshot 11 è andato.
Nulla nemmeno nel 12.
Pure la schermata 13 è andata.
Schermata 14. Sto lasciando di proposito la numerazione delle righe, in modo da far sapere esattamente in quanti programmi qualche giudice ha avuto un bias eccessivo, ma ho deciso anche di contare il numero di schermate, i numeri bassi sono più semplici da ricordare e, allo stesso tempo, per me è importante ribadire che si tratta davvero di tanti giudici di tantissime nazionalità. Se i giudici di una specifica nazione sono più propensi a favorire i loro connazionali, in tutte le nazioni i cui giudici hanno giudicato più di una manciata di gare è possibile trovare qualche giudice dall’animo partigiano.
Schermata numero 15 ancora senza Feng. Mi ero accorta che sarebbero state tante, ma non avevo contato il numero prima di iniziare a farle.
Schermata 16, passiamo oltre.
Schermata 17, ecco che finalmente troviamo Feng Huang, alla riga numero 645. Da notare che ho contrassegnato in grassetto solo il programma corto, non il libero o il totale, che rimane per poco al di sotto di quei 9.00 punti che ho indicato come bias eccessivo. Forse dovrei rivedere leggermente le cifre al ribasso, perché Feng è stato sospeso quindi secondo l’ISU il suo national bias è stato eccessivo. E tutte quelle righe fra la 1 e la 644? Qualcuno di quei giudici è stato sospeso, ma credo che non si arrivi alla decina. Se qualcuno ha informazioni precise mi farebbe piacere se le condividesse con me. Ma mi farebbe ancora più piacere se l’ISU si degnasse di controllare lo svolgimento delle gare e prendesse provvedimenti seri. Considerando che Feng è stato sospeso, tutti i giudici che hanno avuto un bias superiore al suo avrebbero dovuto essere indagati e quasi certamente sospesi, a meno che non fossero riusciti a provare che erano i voti degli altri giudici a essere errati, e per i recidivi, per chi compare regolarmente in classifica, ci sarebbe dovuta essere la squalifica a vita.



















