Aller au contenu principal
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Tous les articles
  • 🗒️ S'inscrire
  • 🔑 Connexion
    • 日本語
    • English
    • 中文
    • Español
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Politique de confidentialité cookie_banner_and Politique des cookies cookie_banner_more_info

Paramètres des cookies

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Dans quelle mesure la fiabilité de l'IA évoluera-t-elle ? La garantie d'erreur à 0 % : une nouvelle théorie pour contenir l'incertitude de l'IA par des formules mathématiques.

Dans quelle mesure la fiabilité de l'IA évoluera-t-elle ? La garantie d'erreur à 0 % : une nouvelle théorie pour contenir l'incertitude de l'IA par des formules mathématiques.

2025年07月02日 01:18

Introduction : La question de la sécurité de l'IA

Derrière le boom de l'IA générative, dans des domaines où la vie est en jeu comme la médecine ou la conduite autonome,un "accident à 0,01 % de probabilité" peut entraîner le pire des scénarios. La clé réside alors dans la quantification de l'“incertitude”. Cependant, les méthodes actuelles comme l'estimation par dropout ou l'inférence bayésienne ne sont que des "approximations". Des méthodes pour **"garantir mathématiquement l'absence d'erreurs"** n'existaient pratiquement pas.


La percée de TU Wien

En juin 2025, **l'Université technique de Vienne (TU Wien)**, avec Andrey Kofnov et son équipe, a présenté une méthode qui consiste à diviser l'espace d'entrée en polytopes de haute dimension et à calculer les bornes supérieures/inférieures précises de la distribution de sortie pour chaque région. L'article est déjà publié sur arXiv et a été accepté à l'ICML 2025phys.org.


Qu'est-ce qui est nouveau ?

  1. Partitionnement géométrique

    • Mappage sur un réseau ReLU et division de l'espace d'entrée en tuiles convexes.

    • Pour chaque région de polytope, un "enfermement" est effectué par transformation linéaire et la distribution de probabilité de sortie est analysée.

  2. Calcul "précis" des bornes supérieures et inférieures

    • Au lieu d'une approximation, une preuve mathématique est fournie pour garantir que "cela ne sortira jamais de cette plage".

  3. Capacité à traiter l'ensemble de la distribution de probabilité

    • Généralisé à ReLU, tanh, softmax, etc.

  4. Limité aux petits réseaux neuronaux

    • Pour les LLM, la complexité de calcul est encore énorme (les auteurs le reconnaissent comme un défi)phys.org.


Le cœur de la technologie : rendre visible l'espace de haute dimension

  • Espace d'entrée : un "univers n-dimensionnel" avec des coordonnées telles que les valeurs de pixels, le bruit, l'éclairage, etc.

  • Division : génération de polytopes à chaque frontière où le modèle d'activation change.

  • Analyse : à l'intérieur de chaque polytope, le réseau neuronal est linéaire. Ainsi, la distribution de sortie est la distribution de probabilité après transformation linéaire.

  • Agrégation : intégration de tous les polytopes et ajout de bornes supérieures et inférieures à la fonction de distribution cumulative (CDF) de sortie.


Comparaison avec les méthodes existantes

CaractéristiquesUQ approximatif (MC Dropout, etc.)Nouvelle méthode (TU Wien)
GarantieEstimation statistique (avec erreur)Mathématiquement rigoureux
ÉchelleGrandes NN possiblesLimité aux petites NN
ComplexitéNiveau d'inférence GPUExplosion combinatoire (optimisation nécessaire)
ApplicationsLLM, CV en généralDispositifs médicaux, contrôle industriel, etc. dans des domaines où "même petit, cela peut être une question de vie ou de mort"


Scénarios d'application

  1. AI embarquée médicale : dispositifs où une erreur de diagnostic est fatale, comme les modèles de reconnaissance d'images pour robots cathéter.

  2. Fusion de capteurs pour la conduite autonome : vérification à 100 % avec preuve pour les NN mixtes ultrason/radar.

  3. Calcul des risques financiers : intégration de petites NN pour l'audit en temps réel avec garantie automatique des seuils.


Réactions sur les réseaux sociaux

  • Utilisateur Hacker News @quant_curious

    « La théorie est plus élégante que l'UQ existant qui mesure la qualité par vérification de rejet »news.ycombinator.com

  • Commentaire Hacker News @esafak

    « Les NN bayésiens peuvent également fournir une incertitude, mais la calibration est difficile. La garantie mathématique est un changement de paradigme »news.ycombinator.com

  • Fil Reddit r/MachineLearning

    « L'UQ pour le Deep Learning a toujours été à "un pas de plus". Avec une preuve, l'approbation par la FDA est envisageable »reddit.com

  • Sur X (anciennement Twitter), le compte officiel de TU Wien

    a annoncé l'acceptation à l'ICML en déclarant « Nous avons ouvert un nouveau chapitre sur la sécurité de l'IA » et a obtenu plus de 500 likes (posté le 01-07-2025)tuwien.at


Avis des experts

  • Prof. Ezio Bartocci (co-auteur)

    « Les modèles géants comme ChatGPT sont un objectif lointain, mais nous voulons instaurer une culture de la preuve de sécurité à partir de petits modèles »phys.org

  • Impressions des chercheurs externes
    Les statisticiens bayésiens commentent que « la rigueur est formidable, mais le compromis avec la réalité du déploiement est un défi » (Hacker News)news.ycombinator.com.


Défis et perspectives

  1. Réduction des coûts de calcul : contrôle de l'augmentation exponentielle du nombre de polytopes par échantillonnage/approximation.

  2. Extension aux NN de taille moyenne : évaluation de modèles de l'ordre de dizaines de milliers de paramètres en quelques minutes avec un GPU.

  3. Conformité réglementaire : intégration de preuves mathématiques dans l'évaluation des "systèmes à haut risque" de l'EU AI Act.


Conclusion

  • Signification : Ouvrir la voie à une sécurité de l'IA "non pas probabiliste, mais tranchée par les mathématiques".

  • Impact : Si elle se généralise dans des domaines "tolérance zéro" comme les dispositifs médicaux ou le contrôle aérien, l'adoption de l'IA pourrait s'accélérer.

  • Vision future : D'ici 2030, il pourrait devenir courant de "réduire d'abord l'échelle des NN pour une vérification rigoureuse, puis de distiller cela vers un modèle à grande échelle".

Articles de référence

Une approche mathématique rend l'incertitude de l'IA quantifiable
Source : https://phys.org/news/2025-06-mathematical-approach-uncertainty-ai-quantifiable.html

← Retour à la liste d'articles

Contact |  Conditions d'utilisation |  Politique de confidentialité |  Politique des cookies |  Paramètres des cookies

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Tous droits réservés.