Logo pour GIGAOM 365x70

Découvrez quelle solution de test API est arrivée en tête dans le rapport GigaOm Radar. Obtenez votre rapport d'analyse gratuit >>

Guide pratique pour l'IA dans les systèmes embarqués critiques pour la sécurité

Portrait de Ricardo Camacho, directeur de la conformité de la sûreté et de la sécurité
16 avril 2025
3 min lire

Explorez les principaux défis du déploiement de l'IA et du ML dans les systèmes embarqués. Découvrez les stratégies utilisées par les équipes de développement pour garantir la sécurité et la conformité.

L'intelligence artificielle (IA) et l'apprentissage automatique (ML) transforment les systèmes embarqués critiques pour la sécurité dans des secteurs comme l'automobile, la santé et la défense. Ils alimentent des technologies évolutives qui permettent un fonctionnement autonome et efficace des systèmes embarqués.

Cependant, l’intégration de l’IA/ML dans les systèmes embarqués critiques pour la sécurité présente des défis uniques :

  • Risques d'échec à enjeux élevés
  • Exigences de conformité strictes
  • Comportement imprévisible du modèle

Imaginez une voiture autonome prenant des décisions de freinage en une fraction de seconde ou un stimulateur cardiaque détectant des arythmies potentiellement mortelles. L'échec n'est pas une option pour ces cas-là. Systèmes embarqués alimentés par l'IA.

Pourquoi l'IA dans les systèmes critiques pour la sécurité nécessite des tests spéciaux

Les systèmes embarqués fonctionnent sous des contraintes strictes de puissance de traitement, de mémoire et d'énergie limitées. Parallèlement, ils évoluent souvent dans des environnements difficiles, notamment soumis à des températures et des vibrations extrêmes.

Les modèles d'IA, en particulier les réseaux d'apprentissage profond, nécessitent d'importantes ressources de calcul, ce qui rend leur déploiement efficace difficile. Les principaux défis auxquels sont confrontés les ingénieurs en développement sont les suivants :

  • Limitations des ressources. Les modèles d'IA consomment trop d'énergie et de mémoire, ce qui entre en conflit avec les contraintes des appareils embarqués.
  • Déterminisme. Les applications critiques pour la sécurité, comme le freinage autonome, nécessitent des réponses prévisibles en temps réel. Malheureusement, les modèles d'IA peuvent se comporter de manière imprévisible.
  • Certificat et la conformitéLes normes réglementaires, telles que ISO 26262 et IEC 62304, exigent la transparence. Or, les modèles d'IA agissent souvent comme des boîtes noires.
  • Risques de sécurité. Les attaques malveillantes peuvent manipuler les modèles d'IA, entraînant des défaillances dangereuses, comme tromper un dispositif médical et lui faire administrer un dosage incorrect.

Pour surmonter ces obstacles, les ingénieurs utilisent des techniques d’optimisation, du matériel spécialisé et des méthodologies de test rigoureuses.

Stratégies pour un déploiement fiable et sûr de l'IA/ML

1. Optimisation du modèle : élagage et quantification

Étant donné que les systèmes embarqués ne peuvent pas prendre en charge des modèles d’IA massifs, les ingénieurs les compressent sans sacrifier la précision.

  • L'élagage supprime les connexions neuronales redondantes. Par exemple, la NASA a supprimé 40 % du modèle de classification du terrain de son rover martien, réduisant ainsi le temps de traitement de 30 % sans compromettre la précision.
  • La quantification réduit la précision numérique et diminue ainsi l'utilisation de la mémoire de 75 %. Par exemple, elle convertit des valeurs 32 bits en entiers 8 bits. Fitbit a utilisé cette méthode pour prolonger l'autonomie de la batterie de ses trackers de santé tout en maintenant leurs performances.

2. Assurer le déterminisme avec des modèles figés

Les systèmes critiques pour la sécurité, comme l'assistance au maintien de voie, les pompes à insuline et les commandes de vol des avions, nécessitent un comportement cohérent. Cependant, les modèles d'IA peuvent dériver ou se comporter de manière imprévisible selon les entrées.

La solution ? Geler le modèle. Cela implique de verrouiller les pondérations après l'entraînement afin de garantir que l'IA se comporte exactement comme testée. Tesla, par exemple, utilise des réseaux neuronaux gelés dans Autopilot, les mettant à jour uniquement après une validation approfondie de la révision suivante.

3. IA explicable (XAI) pour la conformité

Les régulateurs exigent la transparence dans les décisions prises en matière d'IA. Les outils d'IA explicable (XAI) comme LIME et SHAP contribuent à :

  • Visualisez comment les modèles prennent des décisions.
  • Identifier les biais ou les vulnérabilités.
  • Répondez aux exigences de certification telles que la norme ISO 26262.

4. Robustesse et sécurité face aux adversaires

Les modèles d'IA des systèmes embarqués sont confrontés à des cybermenaces. Par exemple, la manipulation des données de capteurs peut entraîner une classification erronée. Les stratégies d'atténuation comprennent :

  • Formation antagoniste. Exposition des modèles à des données malveillantes pendant le développement.
  • Nettoyage des entrées. Filtrage des données suspectes.
  • Redondance et surveillance de l'exécution. Vérification croisée des sorties d'IA avec des solutions de secours basées sur des règles.

Le rôle du matériel spécialisé

Les processeurs à usage général ont du mal à gérer les charges de travail de l'IA, ce qui conduit à des innovations telles que :

  • Unités de traitement neuronal (NPU). Optimisées pour les tâches d'IA comme le Snapdragon de Qualcomm, les NPU permettent la photographie IA en temps réel sur les smartphones.
  • Unités de traitement tensoriel (TPU). Accélérez l'inférence d'apprentissage profond dans les appareils embarqués.

Ces avancées permettent à l’IA de fonctionner efficacement même dans des environnements où la puissance est limitée.

Vérification traditionnelle pour les systèmes basés sur l'IA

Même avec l’IA, la vérification traditionnelle reste essentielle :

MéthodeRôle dans les systèmes d'IA
Analyse statiqueInspecte la structure du modèle pour détecter les défauts de conception.
Tests unitairesValide les composants non IA, tels que les interfaces de capteurs, tandis que les modèles IA subissent une validation basée sur les données.
Couverture de codeAssure des tests exhaustifs tels que MC/DC pour la conformité ISO 26262.
TraçabilitéMappe le comportement de l'IA en fonction des exigences du système, ce qui est crucial pour les audits.
Les approches hybrides, combinant des tests classiques avec des méthodes spécifiques à l’IA, sont essentielles pour la certification.

Liste rapide des stratégies

  1. Optimiser les modèles d'IA (élagage, quantification) pour s'adapter aux contraintes intégrées.
  2. Gelez les modèles formés pour garantir un comportement déterministe et certifiable.
  3. Utilisez les outils XAI pour la transparence et la conformité.
  4. Renforcez les modèles contre les attaques adverses.
  5. Exploitez du matériel spécialisé (NPU, TPU) pour une exécution efficace de l'IA.
  6. Combiner la vérification traditionnelle (analyse statique, tests unitaires) avec des techniques basées sur l’IA.

Résumé

Bien que l'IA/ML transforme les systèmes embarqués, la sécurité et la conformité restent la priorité absolue. En conciliant innovation, tests rigoureux, optimisation des modèles et conformité réglementaire, les équipes peuvent déployer des systèmes embarqués pilotés par l'IA, sûrs et sécurisés.

Comment garantir la sécurité des systèmes embarqués basés sur l'IA/ML

Article connexe + ressources

Texte de démonstration des tests continus C & C++ à gauche avec le logo Parasoft C/C++test CT à droite
DÉMO AVEC QUESTIONS ET RÉPONSES
Inscrivez-vous maintenant : 21er mai

Tests continus C et C++

Démo de test de logiciels C et C++
DÉMO AVEC QUESTIONS ET RÉPONSES
Inscrivez-vous maintenant : 18 juin

Tests de logiciels C et C++

MISRA C 2025 : Tout ce que vous devez savoir avec les portraits des intervenants et la liste de contrôle graphique à droite
Webinaire
46 minutes à regarder

MISRA C 2025 : Tout ce que vous devez savoir