index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Concepts Deep neural network classifiers Explainable AI Intelligence Articifielle Arcadia Method Artificial Intelligence Machine Learning Adversarial physical attack Custom search space Cryptography and Security Anomaly detection XAI Adversarial attack Anomaly Detection Data Analysis AI component evaluation methodology Neural ODEs Reliability Calibration Robustesse Adversarial Attacks Bayesian inference Explainability Data-driven reachability Realization theory Enalty Bayesian Neural Networks Computer vision Data Visualization Data Quality System Identification Explicabilité Adversarial attacks Explicability Artificial intelligence Branch-and-Bound algorithm Case-based Explanations Adversarial examples Counterfactuals AI System Characterization Trustworthiness Attributes Data Stream Conformal prediction Deep Reinforcement Learning Attack transferability AI-based systems Embarqué Mixed Integer Programming Confiance explicabilité AI-Systems Engineering Fault tolerance GPU Recurrent Neural Networks AI Decision tree Distribution based method Monitoring Fiabilité FOS Computer and information sciences Anomaly Computer Vision AI-Based Systems Sûreté Data trustworthiness Sûreté de fonctionnement Semantic segmentation Engineering Processes Embedded AI Fault detection Evaluation Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Example-based Confiance Computer Vision and Pattern Recognition Data Stream Processing Robustness Christoffel functions AI engineering Fault tolerant systems Distributed learning Neural Network Deep learning Bayesian Optimization Conformal Prediction Contextual Evaluation Long Short-Term Memory Critical systems ODD Bias Detection Adversarial Training Distributed Machine Learning Complexity Trustworthiness Assessment Federated Learning Assurance case Automated vehicle Cycle-accurate simulator Generative Models AI-Based Critical Systems Neural network