Sous l’angle le plus large, les principes de confiance zéro peuvent être appliqués à l’ensemble du cycle de développement des applications, en incluant la conception du système, les plates-formes matérielles utilisées et les procédures d’acquisition.2 Cependant, ce document traite des aspects opérationnels de la mise en œuvre de la confiance zéro dans le but de défendre les applications et les données pendant l’exécution.
De manière générale, la sécurité confiance zéro utilise des technologies pour atteindre trois objectifs distincts :
Le graphique suivant décrit ce modèle transactionnel global de sécurité confiance zéro, les sections suivantes approfondissant chaque catégorie de technologies.
Les deux premières technologies, l’authentification et le contrôle d’accès, sont étroitement liées et sont directement motivées par les principes de « vérification explicite » et de « moindre privilège », puisque ces technologies sont au cœur de l’application du principe « qui peut faire quoi ». Des implémentations plus sophistiquées de l’authentification surveillent le comportement d’un acteur en continu, selon le principe de « l’évaluation continue ».
Les technologies d’authentification ont pour but de renforcer la confiance dans une identité attestée : qui agit dans une transaction. Le processus d’authentification comporte trois éléments :
La forme la plus élémentaire d’attestation est souvent désignée par le terme « utilisateur » — un humain, ou un agent agissant au nom d’un humain, qui souhaite effectuer une transaction. Cependant, dans le cas de la confiance zéro utilisée au sein d’une application, l’acteur peut être une charge de travail (un processus, un service ou un conteneur) : le concept généralisé d’identité doit donc inclure de tels acteurs. Dans d’autres cas, la notion d’identité n’inclut pas seulement l’humain ou la charge de travail, mais des considérations ou des dimensions supplémentaires de l’identité. Dans ce contexte, les dimensions supplémentaires de l’identité peuvent inclure le dispositif ou la plate-forme de l’utilisateur/charge de travail, l’écosystème utilisé pour l’interaction ou encore l’emplacement de l’agent. Par exemple, un utilisateur « Alice » peut se trouver sur un PC étiqueté « ABC- 0001 » et utiliser une instance de navigateur spécifique à empreinte digitale, provenant de l’adresse IPv4 10.11.12.13.
Certains systèmes permettent à des utilisateurs non authentifiés, parfois appelés « invités » ou « anonymes », d’effectuer un ensemble limité de transactions. Dans ces systèmes, les étapes supplémentaires consistant à prouver l’identité et à rendre un verdict ne sont pas pertinentes. Toutefois, dans le cas d’une identité attestée, l’attestation est couramment étayée à l’aide des méthodes suivantes :
Lorsqu’il est impératif d’avoir un haut degré de confiance, on peut utiliser plusieurs méthodes simultanément. C’est ce que montre le modèle BeyondCorp de Google3, qui exige une authentification multifacteurs (AMF) avant d’autoriser des transactions de valeur élevée. Les solutions d’authentification les plus sophistiquées associent une « confiance » à chaque identité et spécifient un niveau de confiance minimum pour chaque type de transaction, en fonction de la valeur et du risque de la transaction.
Enfin, il convient de noter que certaines de ces méthodes ne sont pas des actions statiques et ponctuelles, mais peuvent et doivent être permanentes, conformément au principe de « l’évaluation continue ». Dans ce cas, le score de confiance attribué à l’attestation d’identité peut évoluer à la hausse ou à la baisse au fil du temps. Par exemple, l’empreinte digitale du navigateur ou l’adresse IP peut changer au cours d’une même session utilisateur, ce qui peut être considéré comme suspect et réduire le degré de confiance. Autre approche : au fil de la collecte de données sur le comportement de l’acteur au cours d’une session, le score de confiance peut augmenter ou diminuer, sur la base de la comparaison entre le comportement actuel et les observations antérieures.
L’authentification dynamique peut fonctionner de concert avec le contrôle d’accès dans des systèmes plus avancés. À titre de premier niveau de cette interaction, la politique de contrôle d’accès peut spécifier un score de confiance minimum pour différentes classes de transactions, comme mentionné précédemment. Le niveau suivant de l’interaction permet au sous-système de contrôle d’accès de fournir un retour d’information au sous-système d’authentification, généralement pour demander une authentification supplémentaire avant d’augmenter le score de confiance jusqu’au seuil minimum.
Après avoir utilisé des techniques d’authentification pour déterminer qui agit dans une transaction, les questions suivantes se posent : à quoi cet acteur est-il autorisé ? Et pour qui ? C’est le domaine des technologies de contrôle d’accès.
Pour faire une analogie avec la sécurité physique, imaginez que vous vouliez visiter une base militaire. Après avoir établi avec confiance si vous êtes un civil, un politicien ou un soldat, les gardes s’appuient sur cette information pour déterminer dans quels bâtiments vous pouvez entrer, et si vous pouvez introduire un appareil photo dans ces différents bâtiments. La politique régissant ces choix peut être très grossière et s’appliquer à tous les bâtiments (par exemple, « les politiciens peuvent entrer dans n’importe quel bâtiment ») ou plus fine (par exemple, « les politiciens ne peuvent entrer que dans le bâtiment et , et les appareils photo ne sont autorisées que dans »).
Appliquées au contexte de la cybersécurité, les techniques de contrôle d’accès doivent concrétiser le principe de confiance zéro du « moindre privilège ». En d’autres termes, la politique de contrôle d’accès optimale n’accorde que les privilèges dont l’acteur a besoin et le prive de tous les autres. En outre, une politique robuste idéale serait conditionnée par un niveau minimum de confiance dans l’authenticité de l’identité de l’acteur, le seuil de confiance étant défini spécifiquement pour chaque privilège autorisé.
Par conséquent, la valeur d’une solution de contrôle d’accès peut être jugée en fonction de son degré d’alignement sur ces idéaux. Plus précisément, une solution de sécurité à confiance zéro doit inclure le contrôle d’accès et doit évaluer sa technologie selon les dimensions illustrées et décrites ci-dessous.
Compte tenu du principe « évaluer (et réévaluer) en continu », la confiance dans l’authenticité de l’acteur devrait s’ajuster au fil du temps. Dans une solution simple, on peut fixer un délai de validité ; dans des systèmes plus sophistiqués, la confiance pourrait varier en fonction de l’observation du comportement de l’acteur dans le temps.
Si l’authentification et le contrôle d’accès concrétisent l’approche de « vérification systématique » et de « moindre privilège », la visibilité et l’analyse contextuelle sont à la base des principes « évaluer en continu » et « prendre l’hypothèse de la violation ».
La visibilité est le prérequis indispensable à l’analyse : un système ne peut atténuer ce qu’il ne voit pas. Ainsi, l’efficacité de la solution de sécurité à confiance zéro sera directement proportionnelle à la profondeur et à l’étendue de la télémétrie qui peut être recueillie à partir des opérations du système et du contexte extérieur. Toutefois, une infrastructure de visibilité moderne sera capable de fournir beaucoup plus de données, de métadonnées et de contexte potentiellement utiles qu’aucun être humain raisonnable et non assisté ne pourra jamais traiter en temps voulu. Face à l’envie d’obtenir toujours plus de données et de pouvoir les convertir en informations plus rapidement, l’assistance des machines devient incontournable pour les opérateurs humains.
Cette assistance est généralement mise en œuvre à l’aide d’algorithmes automatisés qui vont de l’analyse basée sur des règles aux méthodes statistiques, en passant par les algorithmes avancés d’apprentissage automatique. Ces algorithmes sont chargés de traduire le flux de données brutes en une connaissance de la situation consommable et opérationnalisée, qui sera utilisée par les opérateurs humains pour évaluer et, si nécessaire, pour remédier. C’est pourquoi l’analyse assistée par ordinateur va de pair avec la visibilité.
Le pipeline global allant des données brutes (visibilité) à l’action (remédiation) est présenté ci-dessous :
La visibilité est la mise en œuvre — le « comment » — du principe de confiance zéro « évaluer en continu ». Elle implique la tenue d’un inventaire des entrées de données disponibles (catalogue), la télémétrie en temps réel et la conservation des données historiques (collecte).
La maturité de la mise en œuvre d’une visibilité confiance zéro doit tenir compte de quatre facteurs :
La latence détermine la limite inférieure de la rapidité de réaction à une menace potentielle. La latence d’une solution de confiance zéro doit être mesurée en secondes ou moins ; sinon, il est fort probable que toute analyse, aussi précise soit-elle, arrivera trop tard pour empêcher l’impact de l’exploit — exfiltration ou chiffrement des données, indisponibilité due à l’épuisement des ressources. Des systèmes plus sophistiqués permettent d’appliquer des mesures d’atténuation synchrones et asynchrones. L’atténuation synchrone empêchera l’achèvement de la transaction jusqu’à ce qu’une visibilité complète soit obtenue et qu’une analyse ait été effectuée. L’atténuation synchrone étant susceptible d’ajouter de la latence à la transaction, ce mode de fonctionnement devra être réservé aux transactions particulièrement anormales ou risquées, tout en permettant à toutes les autres transactions d’envoyer de la télémétrie et d’être analysées de manière asynchrone.
Cette préoccupation est pertinente si les données proviennent de plusieurs sources ou types de capteurs de données, ce qui est un scénario courant. Ce facteur se décompose généralement en deux aspects.
L’une des principales valeurs dérivées d’une solution de visibilité de haute qualité est la capacité de découvrir des activités suspectes comme indicateur d’une éventuelle violation. Pour y parvenir efficacement, la solution doit recevoir des données télémétriques sur toutes les « couches » pertinentes de l’application : l’application elle-même, bien sûr, mais aussi l’infrastructure applicative, l’infrastructure du réseau, tous les services appliqués à l’application ou utilisés par elle, et même les événements sur le périphérique client. Par exemple, l’identification d’un utilisateur avec un nouvel appareil, jamais vu auparavant, peut être légèrement suspecte en soi ; mais lorsqu’elle est associée à des informations sur le réseau (comme la cartographie GeoIP d’un pays étranger), le niveau de suspicion augmente. Ce niveau de suspicion se manifeste par une baisse du score de confiance dans l’identité de l’utilisateur. Dans le contexte d’une politique de sécurité confiance zéro, lorsque cet acteur tente une transaction de grande valeur (comme un transfert de fonds vers un compte étranger), la solution de contrôle d’accès peut choisir de bloquer la transaction, sur la base du faible niveau de confiance.
Selon la philosophie confiance zéro, plus la solution de visibilité est profonde et complète, plus le système parvient efficacement à limiter les transactions de manière appropriée et détecter les violations
Enfin, toute collecte de données doit être conforme aux exigences légales et de licence relatives à la sécurité, la conservation et l’utilisation des données. Par conséquent, une solution de visibilité robuste doit répondre à chacun de ces besoins. Une solution de visibilité confiance zéro doit donc comprendre les contraintes entourant l’utilisation des données impliquées par la gouvernance. Par exemple, si l’adresse IP est considérée comme une information personnellement identifiable (PII), l’utilisation et la conservation à long terme des adresses IP à des fins d’analyse doivent être conformes à l’usage autorisé des adresses IP.
Outre la visibilité, l’autre mécanisme nécessaire à la mise en œuvre de l’« évaluation continue » est l’outillage analytique requis pour procéder à une évaluation significative, c’est-à-dire une évaluation exploitable par une solution de confiance zéro.
L’un des aspects à prendre en compte pour l’analyse est la portée et l’ampleur des données d’entrée. Les données d’entrée des algorithmes d’analyse peuvent se limiter à un seul flux provenant d’une seule source, mais elles peuvent aussi être réparties sur plusieurs flux, et provenir de diverses sources de données et de toutes les couches de l’infrastructure et de l’application
Un deuxième aspect particulièrement pertinent de l’analyse dans le cadre de la confiance zéro est le traitement du volume et du rythme des données ingérées, qui dépassent la capacité d’assimilation de tout être humain. Par conséquent, il est indispensable de recourir à l’assistance de la machine pour produire des renseignements intelligibles par l’homme. Une fois encore, la sophistication de cette assistance peut être décrite comme une progression.
Comme dans le cas de l’approche fondée sur des règles, l’assistance du ML peut servir uniquement à la détection ou être liée à la remédiation automatique. En outre, l’assistance ML peut être utilisée en conjonction avec un système basé sur des règles, où le « verdict » du ML (ou l’opinion, ou encore la confiance) peut être utilisé comme une entrée dans une règle, telle que « faire l’action si .
Le dernier principe de la philosophie confiance zéro consiste à « partir de l’hypothèse de la violation ». Pour être clair et donner une perspective, les méthodes d’authentification et de contrôle d’accès correctement mises en œuvre sont efficaces pour empêcher l’écrasante majorité des transactions malveillantes. Cependant, il faut, par excès de paranoïa, supposer que les mécanismes de mise en œuvre de l’authentification et du contrôle d’accès seront déjoués par un adversaire suffisamment motivé ou chanceux. La détection des brèches, nécessaire pour répondre à ces contournements en temps utile, requiert de la visibilité et une analyse assistée par ordinateur. Par conséquent, c’est parce que les autres mécanismes de mise en œuvre seront parfois mis en échec que les technologies de visibilité, qui alimentent l’analyse contextuelle assistée par ordinateur, sont indispensables pour soutenir la remédiation basée sur le risque par une solution de sécurité confiance zéro.
Pour les cas de « faux négatifs », dans lesquels une transaction malveillante réelle déjoue l’authentification et le contrôle d’accès, le mécanisme de remédiation automatisée basée sur le risque doit être utilisé comme filet de sécurité. Mais comme cette technologie s’applique en dernier recours à des transactions qui ont passé les contrôles antérieurs, cela accroît le risque qu’un « vrai négatif », une transaction valide et souhaitable, soit transformé en « faux positif », signalé à tort comme une transaction malveillante. Pour atténuer ce problème, toute action de remédiation déclenchée par la conviction d’une éventuelle malveillance qui n’aura pas été détectée par l’authentification ou le contrôle d’accès, doit s’appuyer sur les trois facteurs suivants4 :
La sécurité confiance zéro est une version plus moderne des approches antérieures de la sécurité, telles que la défense en profondeur, et elle étend l’état de l’art antérieur en adoptant une vision de la sécurité centrée sur les transactions : qui tente de faire quoi à qui. Cette approche permet non seulement de sécuriser l’accès externe à une application, mais aussi de protéger les éléments internes de l’application.5 Compte tenu de cette vision transactionnelle fondamentale, la sécurité confiance zéro est ancrée dans un ensemble de principes fondamentaux qui permettent de défendre les applications dans l’environnement plus complexe et plus difficile d’aujourd’hui. Ces principes sont ensuite mis en œuvre et incarnés dans un ensemble de solutions ou de méthodes au niveau des sous-systèmes. Les principes fondamentaux et les méthodes de solution correspondantes sont résumés ci-dessous
Ces outils — méthodes d’authentification, de contrôle d’accès, de visibilité, d’analyse contextuelle et de remédiation en fonction des risques — sont nécessaires et suffisants pour prévenir une grande variété de types d’attaques.
2La confiance zéro peut, et doit, être appliquée « en amont » du pipeline CI/CD. Des outils tels que l’évaluation des vulnérabilités, l’analyse statique, les bases de données CVE, les bases de données de réputation open-source et les systèmes de surveillance de l’intégrité de la chaîne d’approvisionnement sont compatibles avec l’état d’esprit de la confiance zéro.
3https://cloud.google.com/beyondcorp-enterprise/docs/quickstart
4Il convient de noter que la ligne de démarcation entre le contrôle d’accès contextuel axé sur le risque, et le thème général de la remédiation axée sur le risque est floue, et que les deux se chevauchent dans une certaine mesure.
5On parle souvent de protection « est-ouest » intra-application, par opposition à la protection « nord-sud » vers l’application.