Les différentes incertitudes et leur prise en compte

Le contexte des connaissances “incomplètes”, donc comportant des incertitudes a déjà été présenté. Compte tenu de l’impératif de prendre des décisions malgré la qualité imparfaite des données, très tôt il a été reconnu qu’il fallait élaborer des démarches pour traiter les incertitudes. La Commission de l’Union Européenne le souligne clairement dans sa communication sur l’expertise : COM(2002) 713. Il existe des rapports volumineux et des guides très détaillés [1] proposés par des agences nationales ou des organismes internationaux, consacrés à ce sujet. Nous ne reprendrons ici que quelques éléments centraux.

Il existe différents types d’incertitudes, statistiques (par exemple imprécision des mesures) ou épistémiques (base de connaissance insuffisante ou incomplète).
Il existe également de très nombreuses méthodes pour traiter les incertitudes, qui vont de méthodes de type mathématique, à des conférences d’experts.
Les sources des incertitudes sont également diverses. L’imprécision de la mesure est liée à l’appareillage. D’un autre côté, si la modélisation est utilisée pour générer des données, les défauts du modèle [2] utilisé peuvent influencer grandement le résultat.
L’expression des incertitudes a également son importance. Un risque relatif peut-être fourni sous forme de moyenne et d’intervalle de confiance. D’autres incertitudes sont de type qualitatif et ne peuvent être classées que comme faibles ou élevées.
Il faut aussi réfléchir à la manière d’exprimer l’ignorance sur un point précis.
Enfin, il est impératif de se poser la question si certaines incertitudes sont susceptibles d’être réduites par un effort de recherche ou non (incertitudes dites irréductibles).

Dans le rapport de 600 pages, préparé en 1994 et intitulé “Science and Judgement”, le NRC fait des recommandations sur une série de points (en annexe), dont les incertitudes [3]. En réalité, plusieurs de ces points concernent la qualité des données et donc sont liés au caractère incertain des données. Deux nous semblent mériter un commentaire :
- Les valeurs par défaut, préconisées déjà dans le livre rouge de 1983, sont l’outil qui permet une prise de décision (ou le choix entre les options de gestion) face à toutes les incertitudes (de données ou de connaissances). Le recours aux valeurs par défaut ne se fait pas par facilité, car l’EPA[Environmental Protection Agency]] doit démontrer que tous les moyens ont été mis en œuvre pour tirer le meilleur parti des connaissances disponibles (par la mobilisation des pairs - cad les experts, mais aussi par la participation des parties prenantes et les commentaires publics). Il n’est pas non plus optionnel, car tout écart des valeurs par défaut doit être pleinement justifié.
- La variabilité individuelle, dont l’importance a été reconnu dès les origines et a donner lieu à un facteur de sécurité de 10 par défaut, témoigne encore une fois de l’attachement dans le système américain de prendre en compte les individus les plus vulnérables. C’est sans doute les Etats Unis qui consacrent le plus d’argent à l’étude des susceptibilités, avec des tentatives de les introduire dans la législation.

3 Messages de forum

Poser une question

Voir en ligne : Le texte de la communication 713 de la Commission de l’UE

Notes

[1Un bon exemple est fourni par celui publié en 2008 par l’IPCS, sous l’égide de l’OMS ; il est accessible dans l’espace documentation : plus de 150 pages, en anglais

[2Un modèle n’est qu’une représentation simplifiée de la réalité

[3Avec une définition très étroite des incertitudes

SPIP3  Mise à jour : le 29 septembre 2020 | Chartes | Mentions légales | A propos