Superamento dei limiti e incertezza analitica
di Walter FORMENTON, Mariano FARINA, Luca TONELLO, Francesco ALBRIZIO
Il superamento dei limiti allo scarico delle acque, delle emissioni in atmosfera o per il suolo e le acque sotterranee oppure per la classificazione dei rifiuti pericolosi, rappresenta l’epilogo cruciale nella gestione delle prescrizioni autorizzative per la salvaguardia dell’ambiente da parte delle imprese: i superamenti sono sanzionati severamente anche con l’arresto.
Nel caso delle imprese sottoposte ad Autorizzazione Integrata Ambientale (A.I.A.) ai sensi del comma 4 dell’art. 29 quattordecies del D. Legs. 152/2006:
…si applica la pena dell'ammenda da 5.000 euro a 26.000 euro e la pena dell'arresto fino a due anni qualora l'inosservanza sia relativa:
a) alla gestione di rifiuti pericolosi non autorizzati;
b) allo scarico di sostanze pericolose di cui alle tabelle 5 e 3/A dell'Allegato 5 alla Parte Terza;
c) a casi in cui il superamento dei valori limite di emissione determina anche il superamento dei valori limite di qualità dell'aria previsti dalla vigente normativa.
Anche le imprese sottoposte ad Autorizzazione Unica ambientale (A.U.A.) sono sanzionate penalmente per il superamento dei limiti allo scarico delle acque ai sensi dell’art. 137 comma 5 e per il superamento dei valori limiti di emissione in atmosfera ai sensi dell’art. 279 comma 2:
137, comma 5. ..chiunque, in relazione alle sostanze indicate nella tabella 5 dell'Allegato 5 alla parte terza del presente decreto, nell'effettuazione di uno scarico di acque reflue industriali, superi i valori limite fissati nella tabella 3 o, nel caso di scarico sul suolo, nella tabella 4 dell'Allegato 5 alla parte terza del presente decreto, oppure i limiti più restrittivi fissati dalle regioni o dalle province autonome o dall'Autorità competente a norma dell'articolo 107, comma 1, è punito con l'arresto fino a due anni e con l'ammenda da tremila euro a trentamila euro. Se sono superati anche i valori limite fissati per le sostanze contenute nella tabella 3/A del medesimo Allegato 5, si applica l'arresto da sei mesi a tre anni e l'ammenda da 6.000 euro a 120.000 euro.
279, comma 2 Chi, nell'esercizio di uno stabilimento, viola i valori limite di emissione stabiliti dall'autorizzazione, dagli Allegati I, II, III o V alla parte quinta del presente decreto, dai piani e dai programmi o dalla normativa di cui all'articolo 271 è punito con l'arresto fino ad un anno o con l'ammenda fino a 10.000 euroi.
Nel caso di contaminazione del suolo o delle acque sotterranee, l’art. 257, commi 1 e 2 sanziona penalmente il superamento dei limiti delle concentrazioni soglia di rischio:
1. Salvo che il fatto costituisca più grave reato, chiunque cagiona l'inquinamento del suolo, del sottosuolo, delle acque superficiali o delle acque sotterranee con il superamento delle concentrazioni soglia di rischio è punito con la pena dell'arresto da sei mesi a un anno o con l'ammenda da 2.600 euro a 26.000 euro, se non provvede alla bonifica in conformità al progetto approvato dall'autorità competente nell'ambito del procedimento di cui agli articoli 242 e seguenti. In caso di mancata effettuazione della comunicazione di cui all'articolo 242, il trasgressore è punito con la pena dell'arresto da tre mesi a un anno o con l’ammenda da 1.000 euro a 26.000 euro.
2. Si applica la pena dell'arresto da un anno a due anni e la pena dell'ammenda da 5.200 euro a 52.000 euro se l'inquinamento è provocato da sostanze pericolose.
In caso di controllo manuale discontinuo, l'accertamento del superamento dei limiti si effettua mediante campionamento della matrice interessata (acqua, emissione gassosa, rifiuto, suolo) e analisi chimica in laboratorio. Gli errori di campionamento sono in generale compensati attraverso il campionamento medio della matrice interessata
-
campionamento medio di norma riferito a tre ore per lo scarico delle acque (Allegato V alla parte III del D.Lgs. 152/2006 punto 1.2.2) oppure BAT Conclusion per gli impianti in A.I.A.
-
tre campionamenti nell’arco di un ora per le emissioni in atmosfera (allegato VI alla parte V del D. Lgs. 152/2006 punto 2.3) oppure BAT Conclusion per gli impianti in A.I.A.
-
campionamento rappresentativo secondo le norme UNI 10802 o analoghe per i rifiutiii (Linee Guida sulla classificazione dei rifiuti, SNPA delibera 105/2021).
-
Parte IV - Titolo V Allegato 2 del D. lgs. 152/2006: Criteri generali per la caratterizzazione dei siti contaminati e APAT: Manuale per le indagini ambientali nei siti contaminati.
Gli errori analitici del laboratorio sono compensati riportando nel rapporto di prova l’incertezza estesa, cioè l’errore probabile della determinazione.
Il dato di misura non è certo ma, attorno al suo valore, esiste una zona grigia di incertezza entro la quale il dato “vero” si situa. La zona grigia, detta più propriamente intervallo di confidenza, è determinata dall’incertezza estesa, errore della misura, che si estende sopra e sotto il dato misurato, una media di varie misure ripetute o anche una singola misura. Se il limite cade entro la zona grigia è dubbioso che sia stato superato, sono necessarie ulteriori indagini. Se cade al di sotto della zona grigia, il limite è superato mentre se si trova oltre la zona grigia è rispettato, con la probabilità associata all’incertezza estesa.
Figura 1.
A è certamente (>90%) sotto il limite, C è certamente (>90%) sopra il limite mentre per B il giudizio è sospeso. La zona grigia è il segmento UCL-LCL. LCL è il limite inferiore dell’intervallo di confidenza, UCL è il limite superiore. In figura sono rappresentati gli intervalli di confidenza LCL – UCL al 95% di probabilità per il valore medio, per cui la probabilità di LCL è il 90%; è la media delle misure o anche la singola misura. - LCL è l’incertezza estesa.
(Figura ripresa da EPA RCRA Waste Sampling Draft Technical Guidance Planning, Implementation, and Assessment, 2002).
La zona grigia viene determinata mediante il calcolo statisticoiii. Per tradizione risalente al secolo scorso, viene designata come “significatività statistica” nell’inferenza del ragionamento induttivo, la probabilità > 5% (p > 0,05) che un effetto ipotizzato si manifesti, cioè il giudizio ipotetico “se…allora….”sia considerato vero; regola proposta da R. A. Fisheriv nel 1925, nota come test di Fisher, che si è affermata, per l’autorità del proponente, anche contro il parere di altri grandi statistici, meno influenti, come Gosset (alias Student), Pearson e numerosi altriv.
La separazione del vero dal falso è data da una linea netta al 95% di probabilità, con spostamento della certezza dal 100% dei casi osservati (certezza logica o verità) al 95%, considerando quindi 5% trascurabile, come se fosse 0%. Regola che si è diffusa anche nel campo delle analisi chimiche, ove si utilizzano i metodi statistici. Ad esempio, nel manuale Metodi analitici per le acque dell’IRSA-CNR per il calcolo del limite di rivelabilità si usa il coefficiente t di Student con probabilità del 95%. Ciò ha ingenerato la credenza, errata, che l’applicazione della regola di Fisher sia giustificata anche normativamente per la determinazione dell’intervallo di confidenza delle misure, almeno nel campo dell’analisi delle acque. Così si è giustificato un funzionario al quale era stato contestato il fatto di utilizzare la probabilità del 95% per denunciare un lieve superamento del limite dello scarico delle acque in fognatura. Lo stesso può dirsi per l’analisi delle emissioni in atmosfera sulla base di quanto riportato nel manuale UNICHIM 158.
Questa scelta acritica è comune nel campo scientifico e tecnico quando si utilizzano i metodi statistici, come, ad esempio nel caso delle norme UNI EN, ISO, ASTMvi, a causa della tradizione fisheriana, ignorando il problema che la significatività statistica non è la significatività specifica del campo a cui viene applicata, poiché non in tutti i campi è ragionevole trascurare gli effetti con meno del 5% di probabilità di accadimento, dato che ne possono derivare conseguenze non desiderate.
Ne è risultato che l’applicazione acritica della regola di trascurare gli effetti che si manifestano in meno del 5% dei casi osservati, a campi come quello economico o medico o giuridico o chimico-fisico, ha comportato, a volte, diversi problemi, anche gravi, perché non tiene conto dell’importanza delle conseguenze della decisione associata a tale scelta, che è specifica del campo di applicazione ed è rappresentata dalla funzione di costo della decisione. Quello che ha importanza per la decisione non è l’approccio statistico al problema ma l’approccio economico, come aveva avvisato Gosset e Fisher e i suoi seguaci hanno poi costantemente ignorato. Come ha affermato il matematico de Finetti nel 1976 “L’approccio economico è il solo modo atto a distinguere nettamente quello che è o non è contraddittorio nella logica dell’incertezza.”vii
Una decisione che comporti l’uso della probabilità, intesa come credenza, dipende dal rischio che si è disposti ad accettare. Con la regola di Fisher, un rischio inferiore al 5% è accettato acriticamente senza riguardo alle conseguenze. Fisher era più preoccupato dal fatto di rifiutare una ipotesi vera, perdere un’occasione, una possibilità, una scoperta, il cosiddetto errore statistico del primo tipo e meno preoccupato di accettare una ipotesi falsa, cioè di sbagliarsi e subirne le conseguenze, il cosiddetto errore di secondo tipoviii.
Nel campo degli investimenti economici, la probabilità del 5% che un capitale di miliardi di euro possa volatilizzarsi non è trascurabile. Così’ nel campo medico, la probabilità che un 5% di casi di applicazione di un farmaco possa danneggiare seriamente le persone non è accettabile. Tuttavia applicando irragionevolmente la regola del 5% di Fisher (una incertezza sotto il 5% non è significativa, quindi è trascurabile) è successo che un farmaco sia entrato in commercio creando seri problemi prima del suo ritiroix. Per la discussione di altri casi interessanti nel campo economico e in altri campi si rimanda al testo citato nella nota 5.
Negli ultimi anni si è avuta più consapevolezza di tale problema statisticox e decisioni che un tempo sarebbero state prese con la tradizionale regola del 5% del test significatività di Fisher sono ora criticate, anche in campo giuridico, come nella sentenza Franzesexi nella quale la ricostruzione del fatto viene ancorata ad una probabilità logica e non più statistica, facendo riferimento al principio “dell’al di là di ogni ragionevole dubbio” secondo un alto grado di credibilità razionale o di una elevata probabilità logica enunciato dalla giurisprudenza anche in termini di “probabilità prossima alla - confinante con la - certezza. Anche negli Stati uniti ci sono state pronunce in tal sensoxii.
Purtroppo la regola di Fisher è ancora utilizzata acriticamente nel campo chimico analitico, indipendentemente dall’importanza degli effetti che la decisione comporta. In tutti i rapporti di prova dell’ARPA si trova scritto: “l’incertezza estesa è calcolata a livello di confidenza del 95%.” Ciò significa che la zona grigia occupa una estensione del 10% attorno al valore misurato e ciò comporta che se il limite si trova appena sotto la zona grigia, almeno in un caso su dieci, in meda, risulterà un superamento del limite che in realtà non è mai avvenuto.
La scelta dell’ampiezza della zona grigia dipende pertanto dall’importanza delle conseguenze che comporta la decisione di superamento del limite (funzione di costo della decisione). Se la sanzione per il superamento del limite fosse solamente amministrativa, in forza del principio civilistico del “più probabile che non” ci può essere una buona ragione per applicarla dato che con il 90% di probabilità vi è l’evidenza del probabile superamento. Ma se la sanzione è penale, poiché vale il principio di “oltre ogni ragionevole dubbio” dell’art. 533 del CPP, non può essere ragionevole che un innocente su dieci possa essere condannato. In tempo di guerra tale decisione si chiamava decimazione.
In statistica un accadimento con probabilità del 95% viene considerato solamente “probabile”, “molto probabile” è quello al 99% ed “estremamente probabile” al 99,9%.
Nel caso delle analisi chimiche si considera che la distribuzione dell’errore casuale di misura sia quella normale, gaussiana, e pertanto la distribuzione della curva di probabilità è descritta dall’ampiezza della deviazione standard. La zona grigia del 95% è data approssimativamente da 2 deviazioni standard attorno alla media, quella del 99%, da 3 deviazioni standard e del 99,9% da 4 deviazioni standard. I valori 2, 3 e 4 sono detti fattori di copertura. Tutti quelli che eseguono analisi chimiche utilizzano, per tradizione acritica, il fattore di copertura 2 (95%). In base a questo si procede a segnalare il superamento del limite. Nel caso della sanzione penale ciò comporta, con chiara evidenza, che non viene applicato il principio di “oltre ogni ragionevole dubbio” che richiede almeno una probabilità del 99,9%xiii, che comporta una probabilità dello 0,2% di errore, frazionaria in termini percentuali, e quindi l’incertezza estesa va calcolata con il fattore di copertura di 4 deviazioni standard e non di 2 come si fa ora.
In conclusione, quando il dato misurato, con la sua zona grigia al 95%, si trova solo poco oltre il limite è opportuno, nel caso di applicazione della sanzione penale, che la zona grigia venga estesa almeno sino alla probabilità del 99,9%, utilizzando il fattore di copertura 4 per avere la quasi certezza che la decisione sia giusta.
Inoltre, si richiama l’attenzione sul fatto che le incertezze estese utilizzate dai laboratori vengono in genere determinate mediante un calcolo e utilizzate poi per tutte le successive determinazioni. Tuttavia esse non comprendono l’errore di matrice del campionamento del laboratorio, cioè l’errore dovuto al prelievo della piccola aliquota del campione che viene analizzatoxiv. Se la matrice è eterogenea, l’errore di campionamento del laboratorio deve essere determinato in ogni campione analizzato, non una volta per tutte, eseguendo più determinazioni con diversi prelievi in laboratorio dallo stesso campione di campo. In genere sono sufficienti almeno tre campionamenti ripetuti e la determinazione dell’incertezza del campionamento di laboratorio si determinata con il metodo statistico del piccolo numero di campioni, utilizzando la distribuzione t di Student. L’incertezza del campionamento di laboratorio va aggiunta all’incertezza estesa secondo il metodo di calcolo statistico. Con matrici particolarmente complesse ed eterogenee è un errore grave affidarsi al risultato di una sola misura.
Questa procedura viene raramente applicata nei laboratori di analisi che normalmente eseguono una sola determinazione alla quale affidano l’incertezza estesa determinata una volta per tutte ma che non comprende l’incertezza della matrice relativa al piccolo campione di laboratorio prelevato. Questo metodo è accettabile se il limite si situa molto al di fuori della zona grigia ma non è accettabile se si discosta di poco dalla zona grigia e quindi una rideterminazione della stessa, per comprendere l’errore di campionamento, risulta necessaria, anche se si volesse utilizzare, acriticamente, l’incertezza al 95%.
Nella pratica, quando si verifica un lieve superamento del limite e la sanzione è penale, si consiglia di determinare l’errore di campionamento specifico della matrice analizzata con almeno tre determinazioni e con la zona grigia estesa al 99,9%. Nel caso dei rifiuti, che hanno matrici complesse, la procedura dovrebbe essere obbligatoria. Ma anche negli altri casi può essere utile, perché compensa anche altri errori di laboratorio casuali. In particolare, si ricorda che per ogni determinazione dovrebbe inoltre essere eseguita una prova in bianco per accertarsi che non ci siano errori dovuti a contaminazione incrociata in laboratorio o all’atto di prelievo del campione.
Il verbale della determinazione analitica del laboratorio dovrebbe riportare non solo il metodo analitico utilizzato ma anche quante aliquote ripetute sono state analizzate e se è stata effettuata la determinazione in bianco. In sede penale tale documento è doveroso, nel caso di lieve superamento del limite, per la trasparenza della determinazione, al fine di costituire la prova oltre ogni ragionevole dubbio del superamento.
i Per inciso, si fa osservare che la norma penalizza, sorprendentemente, maggiormente gli insediamenti in A.U.A rispetto a quelli in A.I.A. perché solo per questi ultimi l’applicazione della sanzione richiede contemporaneamente anche il superamento dei limiti di qualità dell’aria. Con evidente contraddizione, essendo gli insediamenti in A.I.A. più pericolosi, per importanza, rispetto a quelli in A.U.A.
Nel caso dell’A.I.A. il legislatore ha stabilito, per la prima volta, il principio di pericolosità sostanziale o in atto e non presunta o potenziale. Se un valore limite viene superato ma non comporta il superamento dei valori di qualità nel recettore interessato, non vi è pericolo in atto. Tale principio dovrebbe essere esteso, se il legislatore fosse coerente, a tutti i superamenti dei limiti per le varie matrici. Per ora può valere solo una interpretazione estensiva del principio, per evitare difformità di trattamento.
W. Formenton, Caratterizzazione dei rifiuti, Ecochem, 2020.
Ma prima ancora di addentrarci in questo argomento, riteniamo utile riprendere due concetti base e cioè il concetto di riproducibilità e di accuratezza di una o più misure. La riproducibilità indica la precisione di una misura, ossia la probabilità che ripetendo la stessa misura si ottengano risultati molto prossimi tra loro. L’accuratezza indica invece lo scostamento dal valore vero e essa si ricava dal numero di cifre significative. Ogni misura va espressa solo utilizzando cifre certe più un’ulteriore cifra, l’ultima, che rappresenta quella incerta. Se la lunghezza di un foglio di carta si misura con un normale righello ove si leggono i millimetri, la misura del foglio potrà essere di 15,32 cm. Il “2” rappresenta la cifra incerta sulle tre restanti cifre “certe” e l’incertezza va espressa con 15,32 ± 0,01. Poiché va ricordato che gli errori di misura si propagano nei calcoli, la misura più imprecisa condiziona il risultato. Un esempio semplice è il calcolo della densità, grandezza che spesso è misurata con grande precisione per la parte “massa” e con meno precisione per la parte “volume”. Il prodotto tra il valore calcolato (m/V) e la somma delle incertezze relative riferite alla massa ed al volume, rappresenta l’incertezza finale della densità e il numero di cifre significative dipende esclusivamente ed ovviamente dalla misura meno precisa, il volume. Capita spessissimo di vedere invece concentrazioni espresse come 3,24 ± 0,2 o, peggio, 3,24 ± 1,2. Un esempio più complesso concerne il calcolo della concentrazione di un inquinante che possa contaminare la falda al di sotto di una discarica impermeabilizzata con un determinato materiale di cui si conosce il coefficiente di permeabilità (ad esempio 10-9 cm/sec) ed il suo spessore. Il puro calcolo matematico, data la concentrazione iniziale dell’inquinante che potrebbe percolare, espressa in mg/l, porta a valori finali puramente teorici del tipo 0,000000143 o numeri similari (è solo un esempio). Ma se il dato può avere comunque un senso in termini di analisi di rischio, esso dovrebbe essere espresso col numero più piccolo di cifre certe (in questo caso basta la prima, cioè “1”) perché le altre sono totalmente prive di qualsivoglia possibilità di riscontro scientifico (F. Albrizio)
Fisher, R. A. Statistical Methods for Research Workers. New York. 1925 [1941].
“Il valore per cui p=0,05, o 1 su 20 è 1,96 o circa 2; è opportuno prendere questo punto come un limite per giudicare se una deviazione si deve considerare significativa o no. Deviazioni che eccedono due volte la deviazione standard devono essere formalmente giudicate come significative”.
Nel 1955, in Stastical methods and Scientific Induction, Fisher ha giustificato la scelta con queste parole: “In ultimo, nell’inferenza induttiva non introduciamo nessuna funzione di costo per i falsi giudizi… In fatto, il ricercatore scientifico non è impegnato per massimizzare il profitto di qualche particolare organizzazione… Non facciamo alcun tentativo per valutare le conseguenze, e non assumiamo che sia possibile valutarle in termini monetari”.
La significatività statistica non può essere misurata perché è un concetto indefinito, che dipende dalla natura dell’oggetto di studio. La regola del 5% qualche volta funziona e qualche altra no. Nel campo dell’incertezza non esiste una linea netta di separazione fra il vero e il falso, trattandosi di un concetto dialettico che si può esprimere come concetto aritmomorfo (numerico) solo in maniera contradditoria.
“La probabilità di una ipotesi (il suo grado di credenza) non può essere rivelata con il test di significatività di Fisher” (Ziliak, Stastical significance on trial, JSM Miami-Besch,2011).
Fisher ha proposto la regola per i ricercatori scientifici e non per i decisori politici. Il ricercatore scientifico è interessato solo alla scoperta e non alle sue conseguenze. Sono i decisori che utilizzano successivamente la scoperta che si devono preoccupare delle conseguenze. Purtroppo la regola è utilizzata acriticamente nei giudizi dei decisori ed è a questi che deve essere rivolta la critica più che a Fisher. L’analista chimico può anche esprimere il risultato con l’intervallo di confidenza del 95% ma è il decisore successivo che ne deve fare il corretto impiego. Meglio sarebbe che l’analista chimico, non interessato ai giudizi, esprimesse il risultato con l’incertezza riportata solo come deviazione standard, lasciando l’applicazione dei fattori di copertura al decisore poiché è una scelta politica, non tecnica. Sarebbe in effetti opportuno che fosse la legge a stabilire i fattori di copertura da utilizzare.
S. T. Ziliak, D.N. McCloskey, The cult of stastical significance How the Standard Error Costs Us Jobs, Justice, and Lives, The University of Michigan Press, Ann Arbor, 2008.
vi Ad esempio, si veda l’allegato C alla norma UNI EN 12619:2013.
Raccolta degli scritti di Bruno de Finetti, Biblioteca dell’I.N.A., Roma, 1979
Il classico errore psicologico del giocatore che ossessionato dalla possibilità di mancare una vincita, alza la posta e trascura e sminuisce le possibilità di perdita; allarga a dismisura l’errore di tipi I e sminuisce l’errore di tipo II.
Si veda il caso del Vioxx, un farmaco contro il dolore, definito come la nuova aspirina, ritirato nel 2005, riportato nel testo di cui alla nota 5. In realtà, nel caso del Vioxx, oltre ad utilizzare la regola del 5% la si è anche forzata. Certo che se invece della regola del 5% di Fisher si fosse utilizzata la regola del 1%, di Pearson con tre deviazioni standard per la significatività, non sarebbe stata possibile nemmeno la forzatura.
Il problema dell’inferenza induttiva di Hume e della fallacia del “condizionale trasposto” o fallacia ponendo ponens.
Cass. S. U. 30328/2002.
“Non è consentito dedurre automaticamente dal coefficiente di probabilità espresso dalla legge statistica la conferma, o meno, dell'ipotesi accusatoria sull'esistenza del nesso causale, poiché il giudice deve verificarne la validità nel caso concreto, sulla base delle circostanze del fatto e dell'evidenza disponibile” …
L'insufficienza, la contraddittorietà e l'incertezza del riscontro probatorio sulla ricostruzione del nesso causale, quindi il ragionevole dubbio, in base all'evidenza disponibile, comportano la neutralizzazione dell'ipotesi prospettata dall'accusa e l'esito assolutorio del giudizio.
Supreme Court of the United States, no. 09–1156, Matrixx initiatives, inc., et al., petitioners v. James Siracusano et al. on writ of certiorari to the United States Court of Appeals for the ninth circuit [march 22, 2011].
“La Corte ha concluso che gli argomenti esposti da Matrixx poggiano sulla premessa che la significatività statistica è il solo modo affidabile per determinare la causalità. Questa premessa è falsa…Concludiamo che la materialità che accada un effetto avverso non può essere ridotta alla regola di una linea netta di separazione”.
Il cosiddetto “paradigma della certezza” Non è accettabile nemmeno la probabilità di Pearson del 99% perché comporta che due persone su cento sono condannate ingiustamente e quindi non oltre ogni ragionevole dubbio. Nelle sentenze Battisti, Corte Cass. 28 settembre 2000, n. 1688, Baltrocchi; Corte Cass. 29 novembre 2000, n. 2139, Musto; Corte Cass. 28 novembre 2000, n. 2123, Di Cintio, si ritiene necessario il raggiungimento di un grado di probabilità vicino alla certezza, data la necessità di “oltre ogni ragionevole dubbio”.
A meno che il superamento dei limiti non possa essere dimostrato con altri fattori casuali alternativi che conducano ad un “elevato grado di credibilità processuale” (Cass. sez. IV, 14930/2012), come ad esempio, l’impianto di depurazione non era in funzione o funzionava male, che potrebbero fare accettare logicamente anche probabilità più basse per l’incertezza analitica.
Il campione medio prelevato in campo viene ulteriormente campionato in laboratorio per prelevare una minuscola aliquota da sottoporre al controllo analitico. Se tale campionamento non è rappresentativo dell’intera massa del campione di campo, come può succedere con campioni eterogenei e complessi, ne risulta un errore analitico non compensato se non viene determinata anche l’incertezza di tale campionamento in laboratorio, che deve essere calcolata dai risultati delle analisi di più aliquote dello stesso campione di campo e non calcolata solamente in base all’errore volumetrico di prelievo, compreso nell’incertezza estesa.