Postavke privatnosti

MIT prévient : les intervalles de confiance classiques peuvent tromper dans les analyses spatiales d’apprentissage automatique

Des chercheurs du MIT préviennent que les méthodes statistiques courantes dans les analyses spatiales créent souvent une fausse impression de fiabilité. Une nouvelle approche scientifique permet des intervalles de confiance plus exacts lors de l’estimation des associations de variables dans les recherches environnementales, sanitaires et économiques.

MIT prévient : les intervalles de confiance classiques peuvent tromper dans les analyses spatiales d’apprentissage automatique
Photo by: Domagoj Skledar - illustration/ arhiva (vlastita)

Dans les recherches reposant sur des données cartographiques et des stations de mesure, il est souvent sous-entendu que « l’incertitude est résolue » dès qu’un modèle informatique devine bien les valeurs à prédire. Mais dans les analyses réelles, les scientifiques et les décideurs ne s'intéressent généralement pas seulement à la prévision, mais aussi à la question de la relation : une certaine exposition est-elle liée à un résultat, dans quelle direction, et quelle est la force de l’effet. C’est précisément là – dans l’estimation de l’association des variables dans l’espace – qu’une équipe de chercheurs du MIT a montré que les méthodes courantes de calcul des intervalles de confiance peuvent s’effondrer gravement dans des cadres spatiaux et produire des intervalles qui semblent convaincants, mais qui sont erronés.


Imaginons un scénario de santé publique : un scientifique de l’environnement dans un comté souhaite estimer si l’exposition à la pollution de l’air est liée à des poids de naissance plus faibles. À l’ère des grands ensembles de données, une étape naturelle consiste à entraîner un modèle d’apprentissage automatique qui capture des relations complexes et non linéaires – car de tels modèles excellent souvent dans la prédiction. Le problème survient lorsqu’on demande autre chose au modèle : non pas « combien pèsera le bébé », mais « quelle est l’association entre l’exposition et le poids de naissance » et avec quelle certitude pouvons-nous le dire.


Les méthodes standard d’apprentissage automatique peuvent fournir des estimations et, parfois, une incertitude pour la prédiction elle-même. Mais lorsque l’objectif est d’établir une association entre une variable (par ex. les particules fines dans l’air) et un résultat (par ex. le poids de naissance), les chercheurs s’appuient sur des intervalles de confiance : une plage de valeurs dont on s’attend à ce qu’elle « couvre » l’effet réel avec une certaine probabilité. Dans les problèmes spatiaux – où les données diffèrent selon l’emplacement – l’équipe du MIT prévient que cette plage peut être totalement fausse, et ce d’une manière qui conduit l’utilisateur à une conclusion erronée : la méthode peut prétendre une « haute confiance » alors que l’estimation a manqué la valeur réelle.


Pourquoi « 95 % fiable » ne vaut parfois pas


L’analyse spatiale des associations traite de la manière dont une variable et un résultat sont liés sur une zone géographique. Un exemple peut être la relation entre la couverture de la canopée des arbres et l’altitude aux États-Unis, ou le lien entre les précipitations et le rendement d’une culture. Le chercheur dispose alors souvent de données « sources » collectées à des emplacements spécifiques, et souhaite estimer la relation à un autre emplacement où les mesures n’existent pas ou sont rares. Dans un cas idéal, le modèle donne une estimation et un intervalle qui exprime de manière réaliste l’incertitude.


En pratique, préviennent les auteurs, c'est souvent le contraire qui se produit : la méthode peut prétendre être, par exemple, sûre à 95 pour cent que l’intervalle a « capturé » la vraie relation, alors que la valeur réelle n’est pas du tout à l’intérieur de cette plage. En d’autres termes, l’intervalle de confiance semble autoritaire, mais est en fait – faux. De tels intervalles « faussement sûrs » sont particulièrement risqués lorsque les résultats sont utilisés pour des politiques de protection de l’environnement, des recommandations de santé publique ou des estimations d’effets économiques sur le terrain, car les chiffres peuvent créer l’impression d’une preuve solide là où il n’y en a pas.


La cause clé réside dans les hypothèses sur lesquelles reposent les procédures classiques de construction d’intervalles. En statistique, les hypothèses fonctionnent comme des règles du jeu : si elles sont valables, les conclusions sont valides ; si elles ne sont pas valables, les chiffres peuvent tromper. Dans les données spatiales, certaines des hypothèses les plus courantes craquent à plusieurs endroits.


Trois hypothèses qui se brisent dans les données spatiales


1) hypothèse i.i.d. (indépendant et identiquement distribué)
De nombreuses méthodes partent de l’idée que les observations sont mutuellement indépendantes et issues de la « même » distribution. Dans le monde spatial, ce n’est souvent pas vrai. Un exemple souvent cité est la disposition des stations de mesure : les emplacements des capteurs de qualité de l’air ne sont pas aléatoires, mais sont choisis en fonction de l’infrastructure, de la densité de population, de l’industrie, du trafic et du réseau de mesure existant. Cela signifie que l’inclusion d’un emplacement dans les données affecte grandement quels autres emplacements sont représentés.


2) hypothèse du modèle parfaitement correct
Une partie des procédures pour les intervalles de confiance suppose implicitement que le modèle est « exact ». Mais dans les applications réelles, les modèles sont des approximations : ils omettent des variables, simplifient des processus et décrivent mal le bruit. Quand le modèle est à côté de la plaque, les intervalles qui reposent sur son exactitude peuvent être irréalistement étroits et sûrs d’eux.


3) similitude des données sources et cibles
Dans les problèmes spatiaux, il existe souvent une différence entre les données sur lesquelles le modèle a été appris et l’endroit où l’on souhaite faire des inférences. Exemple : un modèle est entraîné sur des mesures de pollution urbaines (car les capteurs sont plus fréquents dans les villes), puis est utilisé pour estimer des relations dans une zone rurale sans stations. L’urbanisation, le trafic et l’industrie changent les caractéristiques de l’air, donc la zone « cible » est systématiquement différente. Un tel décalage de distribution peut introduire un biais dans l’estimation de l’association – et annuler la fiabilité nominale de l’intervalle.


En combinaison, ces trois fissures créent un espace pour un problème sérieux : le modèle peut manquer l’effet, et l’intervalle continuer à se « comporter » comme si tout allait bien. Pour les journalistes et les institutions publiques, c’est particulièrement sensible, car dans la communication publique, les intervalles de confiance sont souvent traduits en affirmations telles que « scientifiquement prouvé » ou « avec une grande certitude », sans aperçu de la mesure dans laquelle les hypothèses sont satisfaites.


La « lissitude » comme hypothèse plus réaliste


Au lieu d’insister sur l’i.i.d. et sur le chevauchement des emplacements sources et cibles, les auteurs introduisent une hypothèse qui est plus intuitive dans de nombreux processus spatiaux : que les données changent de manière lisse à travers l’espace. En langage mathématique, cela est décrit par la condition de Lipschitz – l’idée qu’un changement dans l’espace ne peut pas produire un saut de valeur arbitrairement grand, mais qu’il existe une limite supérieure à la « vitesse » à laquelle la relation peut changer.


Pour les particules fines dans l’air, l’exemple est presque tangible : nous ne nous attendons pas à ce que le niveau de pollution sur un pâté de maisons soit radicalement différent de celui du pâté de maisons suivant. Au lieu de sauts, une image plus courante est celle d’une diminution progressive à mesure que nous nous éloignons des sources d’émissions. Dans de telles conditions, la lissitude est une hypothèse plus proche de ce qui se passe réellement dans l’environnement que l’« idéalisation » i.i.d.


Sur cette base, l’équipe du MIT propose une procédure qui prend directement en compte la possibilité de biais causé par une sélection d’emplacements non aléatoire et un décalage de distribution. L’objectif n’est pas seulement d’obtenir une estimation de l’association, mais de construire un intervalle de confiance qui a toujours une couverture (coverage) sensée – c’est-à-dire qui contient vraiment, aussi souvent qu’il le prétend, la vraie valeur du paramètre d’intérêt.


Ce qui est nouveau dans l’approche et pourquoi c’est important


Selon la description dans l’article, la nouvelle méthode construit des intervalles de confiance fréquentistes valides pour les associations spatiales avec des hypothèses supplémentaires minimales : une certaine forme de lissitude spatiale et une erreur gaussienne homoscédastique. Ce que la méthode n’exige pas est aussi crucial : les auteurs soulignent qu’ils ne s’appuient ni sur l’exactitude complète du modèle ni sur le « chevauchement des covariables » entre les emplacements où l’apprentissage a lieu et les emplacements où l’effet est estimé.


En pratique, cela signifie que la méthode peut aussi être utilisée lorsque les mesures sont entassées dans les villes, et que l’inférence est recherchée pour la périphérie ou les zones rurales – un scénario qui apparaît souvent en épidémiologie et dans les études environnementales. Lorsque le niveau de bruit est connu, les auteurs indiquent que les intervalles peuvent être valides même dans des échantillons finis ; lorsque le bruit n’est pas connu, ils offrent une procédure d’estimation de la variance qui est asymptotiquement cohérente.


Dans des comparaisons sur des simulations et sur des données réelles, les auteurs rapportent que leur procédure est la seule qui fournit systématiquement des intervalles fiables dans des situations où les approches standard peuvent échouer complètement. En d’autres termes, il ne s’agit pas d’une amélioration cosmétique, mais d’une tentative de « réparer l’instrument » qui est souvent utilisé pour tirer des conclusions sur les relations des variables dans l’espace.


De la prévision à l’explication : ce que cela signifie pour l’environnement, l’économie et la médecine


Dans le public, l’apprentissage automatique est souvent perçu comme un outil pour des « prévisions plus exactes ». Mais en science et en politique, la prévision n’est que le début. Si la santé publique estime où investir dans la prévention, si une ville planifie des politiques de transport, ou si l’on estime l’effet du reboisement sur le microclimat, la question est : quelle est la force de l’association et à quel point sommes-nous sûrs de cette estimation ?


Ici, le rôle de l’intervalle de confiance se transforme en un filtre de confiance pratique. Si l’intervalle suggère faussement une haute sécurité, les décisions peuvent être basées sur une estimation erronée de l’effet, et cela peut signifier une redirection des ressources ou des interventions erronées. D’un autre côté, un intervalle qui reflète de manière réaliste l’incertitude permet une planification plus rationnelle : à la fois quand l’effet est présent, et quand il est petit, et quand les données ne sont pas encore suffisantes pour conclure avec confiance.


Les auteurs situent leur travail dans un large éventail d’applications : des sciences de l’environnement (pollution, précipitations, gestion des forêts) en passant par l’épidémiologie, jusqu’aux analyses économiques reposant sur des données spatiales. Dans tous ces domaines, il existe un besoin commun : distinguer un « modèle qui prédit bien » d’un « modèle en qui nous pouvons avoir confiance quand il parle de relations ».


NeurIPS 2025 : de la théorie à la communauté


L’article a été présenté à la conférence NeurIPS 2025, l’une des conférences les plus influentes au monde pour l’apprentissage automatique et l’intelligence artificielle. Sur la page officielle du programme, une présentation par affiche est mentionnée sous le titre « Smooth Sailing: Lipschitz-Driven Uncertainty Quantification for Spatial Associations », avec les auteurs David Burt, Renato Berlinghieri, Stephen Bates et Tamara Broderick, tenue le 3 décembre 2025 dans le cadre du programme de la conférence.


Simultanément, une version de l’article est disponible comme préimpression sur arXiv, avec l’indication qu’il s’agit d’une référence NeurIPS 2025 et que les premières versions ont été reçues le 9 février 2025, avec des révisions ultérieures. Les auteurs ont également publié une implémentation de code de référence, ce qui est crucial dans les travaux méthodologiques afin que les résultats puissent être reproduits et vérifiés sur d’autres ensembles de données.


Plus d’informations sur l’article et les matériaux associés sont disponibles sur : la page arXiv de l’article, la carte officielle de l’affiche NeurIPS 2025 et le dépôt de code.

Trouvez un hébergement à proximité

Heure de création: 9 heures avant

Rédaction science et technologie

Notre Rédaction Science et Technologie est née d’une passion de longue date pour l’exploration, l’interprétation et la vulgarisation de sujets complexes auprès du grand public. Elle réunit des salariés et des bénévoles qui suivent depuis des décennies l’évolution de la science et de l’innovation technologique, des découvertes en laboratoire aux solutions qui transforment la vie quotidienne. Bien que nous écrivions au pluriel, chaque texte est rédigé par une personne réelle dotée d’une vaste expérience éditoriale et journalistique, ainsi que d’un profond respect pour les faits et les informations vérifiables.

Notre rédaction fonde son travail sur la conviction que la science est plus forte lorsqu’elle est accessible à tous. C’est pourquoi nous recherchons la clarté, la précision et la lisibilité, sans simplifications qui nuiraient à la qualité du contenu. Nous passons souvent des heures à étudier des recherches, des documents techniques et des sources spécialisées afin de présenter chaque sujet de manière à susciter l’intérêt du lecteur plutôt qu’à le surcharger. Dans chaque article, nous nous efforçons de relier les connaissances scientifiques à la vie réelle, en montrant comment les idées issues des centres de recherche, des universités et des laboratoires technologiques façonnent le monde qui nous entoure.

Notre longue expérience journalistique nous permet d’identifier ce qui est réellement important pour le lecteur, qu’il s’agisse de progrès dans l’intelligence artificielle, de découvertes médicales, de solutions énergétiques, de missions spatiales ou d’appareils qui entrent dans notre quotidien avant même que nous en imaginions les possibilités. Notre regard sur la technologie n’est pas uniquement technique ; nous nous intéressons aussi aux histoires humaines derrière les grandes avancées – chercheurs qui passent des années sur leurs projets, ingénieurs qui transforment des idées en systèmes fonctionnels, visionnaires qui repoussent les frontières du possible.

Un fort sentiment de responsabilité guide également notre travail. Nous voulons que le lecteur puisse avoir confiance dans les informations que nous fournissons, c’est pourquoi nous vérifions les sources, comparons les données et retardons la publication si un élément reste incertain. La confiance se construit plus lentement qu’une actualité ne s’écrit, mais nous croyons que seul un journalisme de cette rigueur a une valeur durable.

Pour nous, la technologie est plus qu’un ensemble d’appareils, et la science plus qu’une théorie. Ce sont des domaines qui stimulent le progrès, façonnent la société et offrent de nouvelles possibilités à tous ceux qui souhaitent comprendre comment le monde fonctionne aujourd’hui et où il se dirige demain. C’est pourquoi nous abordons chaque sujet avec sérieux mais aussi curiosité, car la curiosité est la porte d’entrée des meilleurs textes.

Notre mission est de rapprocher les lecteurs d’un monde qui change plus vite que jamais, avec la conviction qu’un journalisme de qualité peut servir de pont entre experts, innovateurs et tous ceux qui veulent comprendre ce qui se passe derrière les titres. Nous voyons là notre véritable tâche : transformer le complexe en compréhensible, le lointain en proche et l’inconnu en source d’inspiration.

AVIS À NOS LECTEURS
Karlobag.eu fournit des actualités, des analyses et des informations sur les événements mondiaux et les sujets d'intérêt pour les lecteurs du monde entier. Toutes les informations publiées sont fournies à titre informatif uniquement.
Nous soulignons que nous ne sommes pas des experts dans les domaines scientifique, médical, financier ou juridique. Par conséquent, avant de prendre toute décision basée sur les informations de notre portail, nous vous recommandons de consulter des experts qualifiés.
Karlobag.eu peut contenir des liens vers des sites externes de tiers, y compris des liens affiliés et des contenus sponsorisés. Si vous achetez un produit ou un service via ces liens, nous pouvons percevoir une commission. Nous n'avons aucun contrôle sur le contenu ou les politiques de ces sites et déclinons toute responsabilité quant à leur exactitude, leur disponibilité ou toute transaction effectuée via ces liens.
Si nous publions des informations sur des événements ou des ventes de billets, veuillez noter que nous ne vendons pas de billets, ni directement ni par l'intermédiaire. Notre portail informe uniquement les lecteurs des événements et des possibilités d'achat via des plateformes de vente externes. Nous mettons en relation les lecteurs avec des partenaires offrant des services de vente de billets, sans garantir leur disponibilité, leurs prix ou leurs conditions d'achat. Toutes les informations concernant les billets sont fournies par des tiers et peuvent être modifiées sans préavis. Nous vous recommandons de vérifier attentivement les conditions de vente auprès du partenaire choisi avant tout achat.
Toutes les informations sur notre portail peuvent être modifiées sans préavis. En utilisant ce portail, vous acceptez de lire le contenu à vos risques et périls.