D’un point de vue plus large, les principes de confiance zéro peuvent être appliqués à l’ensemble du cycle de vie de développement d’applications, y compris la conception du système, les plates-formes matérielles utilisées et les procédures d’approvisionnement.2 Cependant, cet article aborde les aspects opérationnels de la mise en œuvre de la confiance zéro pour la défense des applications et des données en cours d’exécution.
D'une manière générale, la sécurité Zero Trust utilise des technologies pour atteindre l'un des trois objectifs distincts suivants :
Le graphique suivant illustre ce modèle transactionnel global de sécurité Zero Trust, les sections suivantes approfondissant chaque classe de technologies.
Les deux premières technologies, l’authentification et le contrôle d’accès, sont étroitement liées et directement motivées par les principes de « vérification explicite » et de « moindre privilège », puisque ces technologies sont au cœur de l’application de la règle « Qui peut faire quoi ». Des implémentations d’authentification plus sophistiquées surveillent le comportement continu d’un acteur, capturant l’état d’esprit d’« évaluation continue ».
Les technologies d’authentification visent à renforcer la confiance dans une identité attestée : Qui agit dans une transaction. Le processus d’authentification comporte trois éléments :
La forme la plus élémentaire d’attestation est souvent appelée « utilisateur » : un être humain, ou un agent agissant au nom d’un être humain, qui souhaite effectuer une transaction. Cependant, dans le cas d'une confiance zéro utilisée dans une application, un acteur peut être une charge de travail (comme un processus, un service ou un conteneur), de sorte que le concept généralisé d'identité doit inclure ces acteurs. Dans d’autres cas, la notion de Qui inclut non seulement l’humain ou la charge de travail, mais également des considérations ou des dimensions supplémentaires de l’identité. De ce point de vue, des dimensions supplémentaires de l’identité pourraient inclure l’appareil ou la plateforme de l’utilisateur/de la charge de travail, ou l’écosystème utilisé pour l’interaction ou la localisation de l’agent. Par exemple, un utilisateur « Alice » peut être sur un PC étiqueté « ABC- 0001 » utilisant une instance de navigateur spécifique, avec empreinte digitale, provenant de l'adresse IPv4 10.11.12.13.
Certains systèmes permettent aux utilisateurs non authentifiés, parfois appelés « invités » ou utilisateurs « anonymes », d’effectuer un ensemble limité de transactions. Pour de tels systèmes, les étapes supplémentaires consistant à prouver l’identité et à rendre un verdict par le système ne sont pas pertinentes. Cependant, pour toute identité attestée spécifique, les méthodes suivantes sont couramment utilisées pour prendre en charge cette attestation :
Souvent, si un degré de confiance élevé est requis, plusieurs méthodes sont utilisées. Ceci est démontré par le modèle Google BeyondCorp,3 qui nécessite une authentification multifacteur (MFA) avant d'autoriser des transactions de valeur supérieure. Les solutions d’authentification les plus sophistiquées associent une « confiance » à chaque identité et spécifient un niveau de confiance minimum pour chaque type de transaction, en fonction de la valeur et du risque de la transaction.
Enfin, notez que certaines de ces méthodes ne sont pas des actions statiques et ponctuelles, mais peuvent et doivent être continues conformément au principe d’« évaluation continue ». Dans de tels cas, le score de confiance attribué à l’attestation d’identité peut évoluer à la hausse ou à la baisse au fil du temps. Par exemple, l’empreinte digitale du navigateur ou l’adresse IP peuvent changer au cours d’une même session utilisateur, ce qui peut être considéré comme suspect et réduire la confiance ; ou à mesure que davantage de données sont collectées sur le comportement de l’acteur au cours d’une session, le score de confiance peut augmenter ou diminuer en fonction de la façon dont le comportement actuel se compare aux observations passées.
L’authentification dynamique peut fonctionner de concert avec le contrôle d’accès dans les systèmes plus avancés. En tant que premier niveau de cette interaction, la politique de contrôle d’accès peut spécifier un score de confiance minimum pour différentes classes de transactions, comme mentionné précédemment. Le niveau suivant de l’interaction permet au sous-système de contrôle d’accès de fournir un retour d’information au sous-système d’authentification, demandant généralement une authentification supplémentaire pour augmenter le score de confiance jusqu’au seuil minimum.
Après avoir utilisé des techniques d'authentification pour déterminer qui agit dans une transaction, les questions suivantes sont : Qu'est-ce que cet acteur a le droit de faire ? Et à qui ? C’est le domaine des technologies de contrôle d’accès.
Pour prendre une analogie avec la sécurité physique, imaginez que vous vouliez visiter une base militaire. Après que les gardes aient déterminé avec certitude si vous êtes un civil, un politicien ou un soldat, ils utiliseraient cette détermination pour décider dans quels bâtiments vous pourriez entrer et si vous pourriez apporter une caméra dans chaque bâtiment dans lequel vous seriez autorisé à entrer. La politique régissant ces choix peut être très grossière et s’appliquer à tous les bâtiments (par exemple, « les politiciens peuvent entrer dans n’importe quel bâtiment ») ou peut être plus précise (comme « les politiciens ne peuvent entrer que dans les bâtiments <A> et <B> mais ne peuvent apporter des caméras que dans <A> »).
Appliquées au contexte de la cybersécurité, les techniques de contrôle d’accès devraient incarner le principe de confiance zéro du « moindre privilège ». En d’autres termes, la politique de contrôle d’accès optimale autoriserait uniquement les privilèges dont l’acteur a besoin et interdirait tous les autres privilèges. De plus, une politique robuste idéale serait conditionnée à un niveau minimum spécifique de confiance dans l’authenticité de l’identité de l’acteur, le seuil de confiance étant spécifié à la granularité de chaque privilège autorisé.
Par conséquent, la valeur d’une solution de contrôle d’accès peut être jugée en fonction de son adéquation avec ces idéaux. Plus précisément, une solution de sécurité Zero Trust doit inclure le contrôle d’accès et doit évaluer la technologie de contrôle d’accès selon les dimensions décrites ci-dessous et décrites par la suite.
Compte tenu du principe « d’évaluer (et de réévaluer) continuellement », toute croyance dans l’authenticité de l’acteur devrait s’ajuster au fil du temps. Dans une solution simple, il peut s’agir simplement d’un délai d’attente ; dans des systèmes plus sophistiqués, la confiance pourrait varier en fonction des observations du comportement de l’acteur au fil du temps.
Si l’authentification et le contrôle d’accès sont des mises en œuvre de l’état d’esprit « toujours vérifier » et « moindre privilège », alors la visibilité et l’analyse contextuelle sont fondamentales pour les principes « évaluer en permanence » et « supposer une violation ».
La visibilité est le précurseur nécessaire à l’analyse : un système ne peut pas atténuer ce qu’il ne peut pas voir. Ainsi, l’efficacité de la solution de sécurité Zero Trust sera directement proportionnelle à la profondeur et à l’étendue de la télémétrie qui peut être recueillie à partir des opérations du système et du contexte extérieur. Cependant, une infrastructure de visibilité moderne sera capable de fournir beaucoup plus de données, de métadonnées et de contexte potentiellement utiles que ce que n’importe quel humain raisonnable et non assisté sera en mesure de traiter en temps opportun. En raison du besoin de disposer de davantage de données et de la capacité à les distiller plus rapidement en informations, une exigence clé est l'assistance de la machine aux opérateurs humains.
Cette assistance est généralement mise en œuvre à l’aide d’algorithmes automatisés qui couvrent tout le spectre allant de l’analyse basée sur des règles aux méthodes statistiques en passant par les algorithmes avancés d’apprentissage automatique. Ces algorithmes sont responsables de la traduction du tuyau d'incendie des données brutes en une connaissance de la situation consommable et opérationnalisée qui peut être utilisée par les opérateurs humains pour évaluer et, si nécessaire, remédier à la situation. C’est pour cette raison que l’analyse assistée par ML va de pair avec la visibilité.
Le pipeline généralisé depuis les données brutes (visibilité) jusqu'à l'action (correction) est illustré ci-dessous :
La visibilité est la mise en œuvre – le « comment » – du principe de confiance zéro « évaluer en permanence ». Il comprend la tenue d'un inventaire des entrées de données disponibles (Catalogue) et la télémétrie en temps réel ainsi que la conservation des données historiques (Collect).
La maturité d’une mise en œuvre de visibilité Zero Trust doit prendre en compte quatre facteurs :
La latence fournit une limite inférieure à la rapidité avec laquelle une menace potentielle peut être résolue. La latence d’une solution Zero Trust doit être mesurée en secondes ou moins ; sinon, il est fort probable que toute analyse, aussi précise soit-elle, sera trop tardive pour empêcher l’impact de l’exploit, comme l’exfiltration/le chiffrement des données ou l’indisponibilité due à l’épuisement des ressources. Des systèmes plus sophistiqués peuvent permettre des atténuations synchrones et asynchrones. L’atténuation synchrone empêcherait l’achèvement de la transaction jusqu’à ce que la visibilité et l’analyse complètes soient terminées. Étant donné que l’atténuation synchrone est susceptible d’ajouter de la latence à la transaction, ce mode de fonctionnement serait réservé aux transactions particulièrement anormales ou risquées, tout en permettant à toutes les autres transactions d’envoyer de la télémétrie et d’être analysées de manière asynchrone.
Cette préoccupation est pertinente si les données proviennent de plusieurs sources ou types de capteurs de données, ce qui est un scénario courant. Ce facteur se décompose généralement en deux sous-préoccupations.
L’une des valeurs clés dérivées d’une solution de visibilité de haute qualité est la capacité à découvrir des activités suspectes comme indicateur d’une éventuelle violation. Pour ce faire efficacement, la solution doit recevoir la télémétrie sur toutes les « couches » pertinentes de la distribution d’applications : l’application elle-même, bien sûr, mais aussi l’infrastructure de l’application, l’infrastructure réseau, tous les services appliqués ou utilisés par l’application, et même les événements sur le périphérique client. Par exemple, l’identification d’un utilisateur venant d’un nouvel appareil, jamais vu auparavant, peut être légèrement suspecte en soi ; mais lorsqu’elle est combinée à des informations réseau (comme la cartographie GeoIP d’un pays étranger), le niveau de suspicion augmente davantage. Ce niveau de suspicion se manifeste par un score de confiance plus faible dans l’identité de l’utilisateur. Dans le cadre d'une politique de sécurité zero trust, lorsque cet acteur tente une transaction de grande valeur (comme un transfert de fonds vers un compte étranger), la solution de contrôle d'accès peut choisir de bloquer la transaction, en raison du faible niveau de confiance.
En ce qui concerne l'état d'esprit de confiance zéro, plus la solution de visibilité est profonde et complète, plus le système peut être efficace pour limiter de manière appropriée les transactions et détecter les violations.
Enfin, toute collecte de données doit être conforme aux exigences légales et de licence relatives à la sécurité, à la conservation et à l’utilisation des données. Par conséquent, une solution de visibilité robuste doit répondre à chacun de ces besoins. La compréhension des contraintes d’utilisation des données impliquées par la gouvernance doit être prise en compte dans une solution de visibilité Zero Trust. Par exemple, si une adresse IP est considérée comme une information personnellement identifiable (PII), l'utilisation et la conservation à long terme des adresses IP à des fins d'analyse doivent répondre à l'utilisation autorisée des adresses IP.
Outre la visibilité, l’autre mécanisme requis pour mettre en œuvre « l’évaluation continue » est l’outil analytique requis pour réaliser une évaluation significative, c’est-à-dire pour avoir une évaluation qui peut être opérationnalisée par une solution de confiance zéro.
L’un des éléments à prendre en compte lors de l’analyse est la portée et l’étendue des données d’entrée. Les entrées des algorithmes d'analyse peuvent être limitées à un seul flux de données provenant d'une seule source, ou peuvent porter sur plusieurs flux, y compris ceux provenant de diverses sources de données et de toutes les couches de l'infrastructure et de l'application.
Un deuxième aspect particulièrement pertinent de l’analyse dans le cadre du Zero Trust concerne le volume et le taux de données ingérées, qui dépasseront la capacité de digestion de tout humain. Il est donc nécessaire de recourir à une forme d’assistance mécanique pour former des informations digestes pour l’homme. Une fois de plus, la sophistication de l’assistance peut être décrite comme une progression.
Comme avec l’approche basée sur des règles, l’assistance ML peut être destinée uniquement à la détection ou peut être liée à une correction automatique. De plus, l'assistance ML peut être utilisée en conjonction avec un système basé sur des règles, où le « verdict » ML (ou l'opinion ou la confiance) peut être utilisé comme entrée dans une règle, telle que « effectuer l'action <X> si <l'évaluateur ML [bot_detector_A] signale le bot avec une confiance supérieure à 90 %> ».
Le dernier principe de l’état d’esprit « zéro rouille » est de « supposer une brèche ». Pour être clair et donner une perspective, des méthodes d’authentification et de contrôle d’accès correctement mises en œuvre sont efficaces pour empêcher l’écrasante majorité des transactions malveillantes. Cependant, il faut, par excès de paranoïa, supposer que les mécanismes d’application de l’authentification et du contrôle d’accès seront déjoués par un adversaire suffisamment motivé ou chanceux. La détection des brèches, nécessaire pour répondre à ces fuites dans les meilleurs délais, nécessite une visibilité et une analyse assistée par machine. C'est pourquoi, étant donné que les autres mécanismes d'application seront parfois déjoués, les technologies de visibilité alimentant l'analyse contextuelle assistée par ML sont un besoin essentiel pour alimenter la solution de sécurité Zero Trust de remédiation basée sur les risques.
Dans les cas de « faux négatifs » où une transaction malveillante réelle a réussi à déjouer l’authentification et le contrôle d’accès, le mécanisme de correction automatisée basée sur les risques doit être utilisé comme mesure de protection. Mais comme cette technologie est utilisée comme protection contre les transactions qui ont passé les contrôles d’application précédents, il existe une plus grande inquiétude quant à la possibilité de signaler à tort ce qui était, en réalité, un « vrai négatif » (une transaction valide et souhaitable) comme un « faux positif » (signalé à tort comme une transaction malveillante). Pour atténuer cette préoccupation, toute action corrective déclenchée par une croyance en une éventuelle malveillance, qui n’a pas été détectée par l’authentification ou le contrôle d’accès, doit être basée sur les trois facteurs suivants :4
La sécurité Zero Trust est une approche plus moderne des approches antérieures en matière de sécurité, telles que la défense en profondeur, qui étend l'état de la technique en adoptant une vision de la sécurité centrée sur les transactions : qui tente de faire quoi à qui . Cette approche permet non seulement de sécuriser l’accès externe à une application, mais s’applique également à la protection des éléments internes de l’application.5 Compte tenu de cette vision transactionnelle fondamentale, la sécurité Zero Trust repose sur un ensemble de principes fondamentaux qui sont utilisés pour défendre les applications dans l'environnement plus complexe et plus difficile d'aujourd'hui, les principes étant ensuite mappés à un ensemble de solutions au niveau du sous-système, ou de méthodes, qui incarnent ces principes. Les principes fondamentaux et la manière dont ils s’appliquent aux méthodes de résolution sont résumés ci-dessous.
Ces outils (méthodes d’authentification, de contrôle d’accès, de visibilité, d’analyse contextuelle et de correction des risques) sont nécessaires et suffisants pour prévenir une grande variété de types d’attaques.
1 https://www.f5.com/services/resources/white-papers/why-zero-trust-matters-for-more-than-just-access
2Le Zero Trust peut, et doit, être appliqué même « à gauche » du pipeline CI/CD. Des outils tels que les outils d’évaluation de la vulnérabilité, l’analyse statique, les bases de données CVE, les bases de données de réputation de code open source et les systèmes de surveillance de l’intégrité de la chaîne d’approvisionnement sont cohérents avec l’état d’esprit de confiance zéro.
3https://cloud.google.com/beyondcorp-enterprise/docs/quickstart
4Il convient de noter que la frontière entre le contrôle d’accès contextuel et sensible aux risques et le sujet général de la correction sensible aux risques est floue et qu’un certain chevauchement existe.
5Souvent appelée protection intra-application « Est-Ouest », par opposition à la protection « Nord-Sud » de l'application.