index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Autonomous system Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Cryptography and Security Automated vehicle Bayesian Optimization Deep learning Cycle-accurate simulator Generative Models AI-Based Critical Systems AI System Characterization Adversarial Attacks Intelligence Articifielle XAI Distributed Machine Learning Christoffel functions Data Stream Processing AI component evaluation methodology ODD Attack transferability Branch-and-Bound algorithm Artificial Intelligence Adversarial examples Custom search space Anomaly detection Neural ODEs Computer Vision Certification Concepts Machine Learning Sûreté Realization theory Calibration Semantic segmentation Assurance Cases Sûreté de fonctionnement Computer Vision and Pattern Recognition Adversarial attack AI engineering Neural Architecture Search Counterfactuals Case-based Confiance AI-based systems Multi-fidelity BO Confiance explicabilité Monitoring Computer vision Data-driven reachability Distribution based method ED-324/ARP6983 Deep neural network classifiers Trustworthiness Assessment Conformal Prediction AI-Based Systems Adversarial attacks Reliability Distributed learning Dempster Shafer theory Decision tree Explainability Data Analysis AI systems Bias Detection Data Visualization Edge computing AI-Systems Engineering Adversarial physical attack Assurance case Complexity Artificial intelligence AI Robustesse Bayesian inference Deep Reinforcement Learning Trustworthiness Attributes System Identification Neural network Data trustworthiness Mixed Integer Programming Deep Ensembles Deployment Bayesian optimization Explicabilité Arcadia Method Contextual Evaluation Long Short-Term Memory Critical systems Explainable AI Recurrent Neural Networks Aide à la décision Adversarial Training Neural Network Data Stream Anomaly Detection Data Quality Robustness Machine learning Collaboration Human-IA Anomaly Conformal prediction