Logo Parasoft

L'IA et l'avenir du développement de logiciels de sécurité fonctionnelle : une voie pragmatique vers l'avenir

By Gareth Noyes 30 septembre 3 min de lecture

L'IA promet de révolutionner les logiciels de sécurité fonctionnelle, mais son chemin est double. Découvrez ci-dessous une feuille de route pragmatique pour exploiter l'IA en toute sécurité et accélérer son développement dès aujourd'hui, tout en gérant avec prudence les risques liés à son intégration dans des systèmes critiques.

L'IA et l'avenir du développement de logiciels de sécurité fonctionnelle : une voie pragmatique vers l'avenir

Portrait de Gareth Noyes, directeur fondateur de NoYes Consulting LLC
By Gareth Noyes 30 septembre 3 min de lecture

L'IA promet de révolutionner les logiciels de sécurité fonctionnelle, mais son chemin est double. Découvrez ci-dessous une feuille de route pragmatique pour exploiter l'IA en toute sécurité et accélérer son développement dès aujourd'hui, tout en gérant avec prudence les risques liés à son intégration dans des systèmes critiques.

L’intelligence artificielle (IA) transforme les industries à un rythme sans précédent. Développement de logiciels embarqués Les systèmes de sécurité fonctionnelle ne font pas exception. De l'automobile à l'aérospatiale, les développeurs explorent comment l'IA peut améliorer la productivité, la qualité et accélérer la mise sur le marché. Mais comme pour toute technologie transformatrice, la voie à suivre doit être tracée avec prudence, surtout lorsque la sécurité est en jeu.

Explorons deux dimensions distinctes de l’IA dans le contexte de la sécurité fonctionnelle :

  • L'IA dans le processus de développement et l'automatisation des outils
  • IA déployée dans les systèmes embarqués, par exemple, les moteurs d'inférence

Bien que tous deux soient prometteurs, ils présentent des profils de risque et des niveaux de maturité très différents. Outils et automatisation alimentés par l'IA offre une promesse à court terme pour stimuler la productivité et l'innovation dans un domaine notoirement prudent, tandis que le déploiement de modèles d'IA dans des environnements embarqués critiques pour la sécurité est émergent mais mérite une certaine prudence et une certaine conscience des risques.

L'IA dans le processus de développement : un catalyseur de productivité

Le cycle de développement logiciel des systèmes critiques pour la sécurité est notoirement rigoureux. Des normes telles que DO-178C, ISO 26262 et IEC 61508 exigent une documentation, une traçabilité et une vérification exhaustives de l'ensemble du processus de développement. Cette complexité, bien qu'essentielle pour la sécurité, freine souvent l'innovation et augmente les coûts.

C'est là que l'IA peut briller : non pas en remplaçant les ingénieurs, mais en les améliorant. Les processus de développement impliquant l'humain et dotés d'outils augmentés par l'IA promettent d'améliorer la productivité en :

  • Guider et faire respecter les processus.
  • Assurer le respect continu des normes.
  • Simplifier la création ou le référencement de la documentation pertinente.
  • Aider les développeurs et les équipes de vérification à se concentrer sur les tâches importantes à accomplir.

Opportunités clés pour le développement intégré

  • Génération de tests automatisés. L’IA peut analyser les exigences et générer des cas de test significatifs, réduisant ainsi l’effort manuel et améliorant la couverture.
  • Traçabilité des exigences. Le traitement du langage naturel (TAL) peut aider à lier les exigences au code, aux tests et à la documentation, simplifiant ainsi la conformité.
  • Amélioration de l'analyse statique et dynamique. L'IA peut aider à identifier les schémas de code susceptibles d'entraîner des défauts, améliorant ainsi la détection précoce. Par exemple, elle est particulièrement efficace pour améliorer le rapport signal/bruit, minimiser l'impact dilutif des faux positifs et suggérer des correctifs.
  • Support d'argument d'assurance. Les outils d’IA peuvent aider à rédiger des arguments de sécurité structurés, comme l’utilisation de la notation de structuration des objectifs, bien que la supervision humaine reste essentielle.

Ces applications sont déterministe, auditable et limité, ce qui les rend particulièrement adaptés aux environnements de développement critiques pour la sécurité. Ils ne prennent pas de décisions autonomes. Ils aident les humains à en prendre de meilleures. La sécurité ne peut pas être externalisée, mais les processus guidés peuvent améliorer la productivité, permettant des cycles de livraison plus rapides et davantage d'innovation.

Il est important de reconnaître que les outils utilisés dans le développement de logiciels de sécurité fonctionnelle peuvent être soumis à des normes de conformité afin de prévenir d'éventuelles défaillances involontaires pendant le processus de développement. Une qualification peut donc être requise.

Pour minimiser les exigences de qualification des outils et garantir un développement sûr des applications critiques, des organisations comme Parasoft proposent des kits de qualification pour de nombreux outils logiciels embarqués. À l'avenir, Parasoft proposera une Certificat TÜV SÜD pour le test C/C++ CT avec GoogleTest pour soutenir les organisations qui doivent se conformer à diverses normes.

L'IA dans les systèmes embarqués : une frontière de précaution

Le déploiement de modèles d’IA, en particulier de moteurs d’inférence comme les réseaux neuronaux, au sein de systèmes embarqués introduit une multitude de défis qui ne sont pas encore entièrement résolus.

Principaux obstacles

Manque de déterminisme

La sécurité fonctionnelle exige un comportement prévisible. Les modèles d'IA, en particulier les systèmes d'apprentissage profond, sont intrinsèquement probabilistes. Leurs résultats peuvent varier en fonction de subtiles modifications des entrées, ce qui les rend difficiles à valider dans les cadres de sécurité traditionnels.

Hallucinations et fausse confiance

Les grands modèles de langage (MLL) et autres systèmes d'IA génératifs peuvent produire des résultats apparemment plausibles, mais factuellement erronés. Dans les contextes critiques pour la sécurité, cela est inacceptable.

Prise de décision opaque

Les modèles d'IA fonctionnent souvent comme des boîtes noires. Contrairement aux systèmes basés sur des règles, leur logique interne est difficilement interprétable. Ce manque d'explicabilité sape la confiance et complique la certification.

Absence de normes

Si l'automatisation des outils peut être cartographiée selon les normes existantes, le déploiement de l'IA dans les systèmes embarqués manque d'un cadre réglementaire mature. Des efforts sont en cours, mais le consensus et les exigences sont à des stades de maturité variables selon les secteurs. Consultez la feuille de route de l'IA de la FAA pour l'avionique ou les normes émergentes telles que la norme ISO 8800 pour l'automobile.

Complexité de la vérification et de la validation

Les méthodes traditionnelles de V&V peinent à gérer la nature non linéaire et hautement dimensionnelle des modèles d'IA. Prouver qu'un système d'IA se comportera de manière sûre dans tous les scénarios constitue un défi colossal.

Une feuille de route pragmatique

Compte tenu de ces réalités, la stratégie à court terme des organisations travaillant dans le domaine de la sécurité fonctionnelle doit être claire :

Adopter l'IA pour l'automatisation du développement

Procédez avec prudence lors du déploiement de l'IA intégrée

  • Limitez l’utilisation de l’IA aux fonctions non critiques pour la sécurité ou aux applications étroitement délimitées.
  • Explorez des approches hybrides, telles que les systèmes basés sur des règles avec augmentation de l’IA.
  • Participer à l’élaboration de normes et à des programmes pilotes pour façonner les réglementations futures.

Réflexions finales

L'IA n'est pas une solution miracle, mais c'est un outil puissant. Dans le domaine de la sécurité fonctionnelle, sa principale valeur réside aujourd'hui dans l'amélioration du processus de développement, et non dans le remplacement de la logique déterministe des systèmes embarqués, même si des améliorations sont également en cours dans ce domaine.

En se concentrant sur l’automatisation des outils, les organisations peuvent réaliser des gains de productivité et accélérer l’innovation, sans compromettre les normes de sécurité rigoureuses qui protègent les vies.

L'avenir de l'IA dans les systèmes de sécurité embarqués est proche, mais il doit reposer sur la confiance, la transparence et une efficacité prouvée. En attendant, utilisons l'IA là où elle est la plus performante : aider les humains à construire des systèmes plus sûrs, plus rapidement.

Assurer la sécurité de l'IA/ML dans les systèmes embarqués

Regarder la vidéo