jeudi 17 octobre 2019    || Inscription
BanniereDossier
 
 
Droit d’accès et comptes à privilèges

Droit d’accès et comptes à privilèges

Equifax, Deloitte, Uber, les récentes violations de données ont souvent des techniques de piratages différentes, mais un élément commun, obtenir l’accès à des applications critiques comme les bases de données, les bases clients, les informations bancaires. En général ces programmes sont soumis à habilitation et rattachés à des comptes à privilèges. leur protection est donc une nécessité dans un monde de plus en plus ouvert et insécurisé. Dossier publié avec le concours de Kleverware.



Tout a-t-il été dit sur le ver Stuxnet ? Sans doute pas. On pourra sans doute en tirer un jour un fi lm à la « James Bond » ou « Mission Impossible ». Faut-il s’en tenir là ? Manifestement non, une telle attaque soulève de nombreuses questions qui doivent remettre en cause certaines certitudes...
Peut-être faut-il repenser nos paradigmes en matière de sécurité.

La faillite de la Barings Bank, en 1995, causée par le trader Nick Leeson avec 827 millions de livres sterling de pertes a été le thème du film « Trader – l’homme qui a fait sauter la banque de la Reine d’Angleterre » sorti en 2000 avec Erwan McGregor. Au début de l’année 2008, on découvre que la Société Générale passe de très peu à côté de la faillite avec l’affaire « Jérôme Kerviel » : 50 milliards d’euros d’exposition et près de 5 milliards d’euros de pertes(*). La tourmente financière de l’automne 2008 nous a donné un tout autre tempo : la crise américaine des « subprimes » met en jeu 500 milliards de dollars de valeur fictives ! Et les affaires ne sont pas terminées : Madoff avec 50 milliards de dollars, ou encore le renflouement des fi nances de l’Irlande avec 85 milliards d’Euros, etc. Stuxnet pourrait bien être à la SSI ce que Nick Leeson a été au système financier : le premier épisode d’une longue série dont les effets pourraient finir par être très dévastateurs. Le risque encouru par les systèmes industriels est connu depuis de nombreuses années et est régulièrement exposé au cours de grandes conférences comme la Black Hat, la RSA Conférence, ou le FIC. Mais force a été de constater que ce risque était considéré comme non avéré : l’attaque n’avait pas eu lieu...

Dès lors, la tentation de classer ce risque comme résiduel, c’est-à-dire acceptable sans vraiment apprécier son impact est fort... La médiatisation de l’attaque Stuxent aura au moins eu le mérite de provoquer une vaste campagne de sensibilisation sur la sécurité des systèmes industriels.

> Les éléments de l’attaque
Il convient naturellement de rester très prudent sur ce que nous savons des véritables objectifs de ce ver. Une tendance générale se dégage toutefois pour supposer que ce malware a été conçu afin de détruire les centrifugeuses de l’usine d’enrichissement d’uranium de Natanz, en Iran.

Des faits ont en effet été rapportés par l’AIEA sur un retard de ce programme et le gouvernement iranien a luimême reconnu l’existence de problèmes. Le code exécutable des commandes des centrifugeuses auraient été modifiées pour changer leur vitesse de rotation et les détruire. Il s’agirait donc d’une attaque sur les systèmes de supervision WinCC de Siemens, qui contrôlent, sur un ordinateur exploité sous Windows, les systèmes Scada (Supervisory Control and Data Acquisition).

L’affaire aurait donc eu un objectif, le blocage, ou au moins un sérieux ralentissement du programme nucléaire iranien. Elle aurait également eu l’appui d’un ou plusieurs états, les Etats-Unis et/ou Israël, des moyens intellectuels importants et sans doute également un travail traditionnel d’agents de terrain.

Ce genre d’attaque ne ressemble cependant pas aux vers que nous avons connus au début des années 2000 et qui se propageaient sur l’Internet.
Les équipements d’une centrale nucléaire ou d’une usine d’enrichissement ne sont en effet pas accessibles de l’Internet. Des réseaux spécifiques sont conçus, totalement cloisonnés. Il est même courant de mettre en oeuvre des « firewalls-diode » permettant à un équipement de mesures d’envoyer des données vers une salle de contrôle, sans qu’il ne soit possible d’envoyer des ordres à cet équipement pour le perturber, voire de changer son code exécutable.
Ces principes sont largement diffusés et sont précisés dans les documents du Nuclear Energy Institute américain, notamment le document NEI0404. L’attaque, dit-on, aurait été menée grâce à des clés USB.

La composante humaine a donc été employée... A quel niveau, de quelle manière ? Les choses ne sont pas claires : un agent sur place agissant délibérément ? Ou une contamination en amont de programmes exécutables pour que des techniciens autorisés compromettent ensuite, à leur insu, les commandes des équipements ?
Dans la mesure où plusieurs installations ont été infectées dans le monde, le second scénario nous semblerait plus plausible...

Selon la publication israélienne Debka spécialisée dans le renseignement militaire, le professeur iranien Majid Shahriari, chargé de lutter contre Stuxnet a été assassiné en novembre dernier. Le mode opératoire a été celui d’explosifs lancés depuis des motos et d’une fusillade depuis une voiture. Le pouvoir iranien a pour sa part immédiatement accusé les Etats-Unis et Israël, confirmant ainsi l’assassinat du scientifique...

L’analyse du ver Stuxnet a été réalisée par de nombreux experts et on a pu assister à un très important travail d’échanges entre les experts et les éditeurs de solutions anti-malwares. Un rapport très complet a notamment été réalisé par Symantec. Les experts ont identifié l’exploitation de quatre failles « 0 day ». L’exécution d’un payload rendue possible par l’exploitation de la faille LNK non corrigée permettait de compromettre le système en exécutant un code malicieux depuis une clé USB par un appel de lien .ink. Pour l’ensemble de la profession, la combinaison de 4 failles représente un travail exceptionnel et jamais vu à ce jour. Symantec explique que le système de contrôle des fréquences des moteurs entre 807 Hz et 1210 Hz étaient visées. Les experts relèvent également que l’attaque exploite l’utilisation d’un mot de passe par défaut. WinCC / PCS7 s’appuie en effet sur une base de données MS SQL qui demande un mot de passe pour établir une communication interne. La vérification ne concerne donc pas l’utilisateur du système et Siemens recommande à ses clients de ne pas changer le mot de passe pour éviter des dysfonctionnements...

L’étude du ver fait encore apparaître que deux certificats ont été volés à JMicron et Realtek. Le système vérifie en effet l’authenticité des codes exécutables auprès d’une autorité de certification : Verisign. Mais le code exécutable modifié disposait des certificats originaux et l’autorité de certification les reconnaissait comme valides ! Comment les certificats ont-ils été volés ? Infiltration, commandos, espionnage, achat de personnes... L’histoire ne le dit pas encore, mais il existe de nombreux films qui montrent cela...

Les experts estiment que ce ver a demandé un travail de 6 mois à un an à une équipe de 6 à 10 personnes. L’analyse du code montre par ailleurs des éléments plus curieux. Il comporterait un fichier nommé « Myrthus », ce qui signifie « l’arbre de Myrthe » en français. Or, on trouve dans la Bible le Myrthe comme étant un symbole de justice : « au lieu du buisson croîtra le sapin et au lieu de l’épine croîtra le Myrthe : et cela rendra glorieux le nom de l’éternel et sera un signe perpétuel, qui ne sera jamais retranché ». D’autres experts y ont vu une allusion au Livre d’Esther, et donc à la Torah : « elle s’appelait Hadassah parce qu’elle était juste et que l’on compare au Myrthe ceux qui aiment la justice ». Hadassah est l’un des noms de la reine Esther qui signifie Myrthe. Le Livre d’Esther explique comment la reine Hadassah déjoua les attaques perses destinées à anéantir le peuple juif.

Autre détail issu de l’analyse du code, le ver s’arrêtera de fonctionner le 23 juin 2012. Des experts ont relevé que c’est très exactement 100 ans, jour pour jour, après la naissance d’Alan Turing, connu pour ses travaux sur les ordinateurs, mais aussi pour avoir dirigé une équipe de cryptanalyse durant la seconde guerre mondiale dans le centre de Bletchley Park qui décodait les communications allemandes et a joué un rôle considérable dans la victoire alliée contre le régime nazi...

L’unanimité n’est cependant pas de mise entre tous les experts SSI de la planète. En Israël, on trouve des spécialistes qui dénoncent une campagne de communication hostile à leur pays et qui minimisent les capacités de Stuxnet. En France, Daniel Ventre, ingénieur au CNRS et directeur de la collection « Cyberconflits et Cybercriminalité » aux éditions Hermès-Lavoisier, se montre très circonspect vis-à-vis de nombreuses conclusions qui sembleraient avérées pour le plus grand nombre. « L’attaque n’était pas ciblée, souligne-t-il, elle a touchée l’Inde, l’Indonésie, la Russie, les Etats-Unis et la Chine ! Son origine étatique n’est pas démontrée : un travail de 10 ingénieurs pendant 10 mois est à la portée d’une entreprise, ou d’un groupe d’étudiants ! » Dans son rapport sur Stuxnet, Symantec met toutefois en évidence que le plus grand nombre d’attaques se trouve bien manifestement en Iran, très loin devant les autres pays...

> Un risque sur les centrales françaises ?
Le risque a été pris au sérieux par les autorités françaises de possibles effets sur nos centrales nucléaires, en France. L’IRSN a publié le 30 septembre une note d’analyse sur Stuxnet.(*) On y lit que seul le réacteur nucléaire EPR en construction à Flamanville utilise un système de contrôle-commande Siemens. Son éventuelle sensibilité à des logiciels tels que Stuxnet doit donc être prise en compte dans l’analyse de sûreté. La propagation du ver Stuxnet nécessite que les ordinateurs de supervision exploitent Windows et que les logiciels de supervision soient ceux de la gamme PCS 7/WinCC de Siemens.

L’IRSN poursuit en expliquant le besoin d’une démarche globale d’analyse critique de sûreté, avec une analyse technique systématique et détaillée des systèmes, dont les dysfonctionnements peuvent influencer la sûreté d’une installation nucléaire. Pour le réacteur EPR, explique encore l’IRSN, EDF a retenu la gamme « SPPA-T2000 » de Siemens, basée sur sa technologie « S5 » plus ancienne et radicalement différente de sa technologie « WinCC / S7 » visée par Stuxnet. Les ordinateurs de supervision du réacteur EPR de Flamanville ne sont pas basés sur le système d’exploitation Windows et n’utilisent pas les logiciels WinCC et PCS 7 ; le ver Stuxnet est donc sans influence sur eux.

Et l’IRSN poursuit en précisant que l’analyse de sûreté de la plateforme SPPA-T2000 de Siemens a permis de vérifier d’avance qu’elle présentait les propriétés qui garantissent, entre autres, son immunité aux logiciels malveillants, et en particulier au ver Stuxnet. Le Système de Protection de l’EPR, le plus important des systèmes de sûreté, est développé à partir d’une autre technologie nommée Teleperm XS. Cette technologie d’Areva ne comporte pas les logiciels ciblés par Stuxnet et ses automates de sûreté n’ont aucune interface qui permettrait à un logiciel malveillant de l’infecter. Voici qui est rassurant… ou très inquiétant, car rien ne dit qu’un autre malware ne pourrait, lui, aboutir à mener une attaque contre des sites français... Il faut continuer à réaliser des études de sécurité très strictes.

> Approfondir les principes des analyses de risques et les paradigmes de la sécurité
Stuxnet nous enseigne surtout qu’il est nécessaire d’approfondir nos principes d’analyse de risque. Nous sommes en effet habitués à nous interroger sur l’origine des menaces auxquelles nous devons faire face et à en écarter de nombreuses pour conserver des systèmes simples. Or, si nous retenons le scénario que Stuxnet visant les centrifugeuses iranienne, nous devons aussi reconnaître que pour réaliser sa contamination et atteindre son objectif, il a dû se répandre dans la nature et peut encore causer des dégâts sur des équipements d’autres industries. Le code utilisé par Siemens n’est-il pas aussi utilisé dans d’autres équipements industriels comme il est souvent l’usage ? Dès lors le fait de ne pas avoir identifié d’ennemis directs ne veut pas dire qu’il n’existe pas une exposition à une attaque extrêmement sophistiquée...

La notion de dégâts ou de pertes collatérales bien connues dans les opérations militaires peuvent aussi exister dans nos entreprises. Nous devons de même intégrer le fait que des attaques étatiques, même si elles ne sont pas totalement avérées, doivent être aujourd’hui considérées comme plausibles. Beaucoup d’analyses de risque se concentrent sur la disponibilité des systèmes. Il faut que l’entreprise produise, vende et se fasse payer. Des moyens importants sont mis dans les sauvegardes, la lutte anti-incendie, les plans de reprise d’activité. Dans de nombreuses grosses PME, l’analyse de risque se limite d’ailleurs souvent à ce stade. La confidentialité des informations est souvent prise en compte en raison d’enjeux commerciaux, de contraintes réglementaires, par exemple pour les données de santé, ou encore de questions de souveraineté nationale. Là aussi, les moyens sont en général mis en oeuvre sont parfois importants : chiffrement, traçage des logs, infrastructure de gestion de clés, etc. Le contrôle de l’intégrité des programmes et codes exécutables ne suscite pour sa part qu’un niveau de préoccupation assez bas.

Certes, toutes les entreprises admettent qu’il faut mettre des antivirus... encore que sur le Macintosh et les serveurs Unix / Linux la pratique soit encore exceptionnelle ! La défense en profondeur est parfois prise en compte, avec un logiciel anti-malware sur le poste de travail et un second sur la passerelle de l’entreprise, voire un troisième sur le serveur de messagerie si celui-ci est hébergé. Il est aussi souvent d’usage de contrôler l’accès à certains équipements en interdisant et en bloquant de nombreux accès : par exemple en supprimant les ports USB. Ensuite, il existe les solutions de signatures des codes par différents procédés : RSA, courbes elliptiques, etc. Le système suppose la mise en place d’une infrastructure de gestion de clé IGC, ou PKI. On trouve malheureusement parfois des contrôles d’intégrité qui ne sont basés que sur un simple hash du code. Le code est envoyé avec son empreinte MD5, ou SHA1 : à la réception le système vérifie que le code et l’empreinte sont cohérentes. Cela n’empêche pas un éventuel attaquant de modifier le code et d’envoyer une nouvelle empreinte... Ce n’est pas sérieux ! Le cas de l’attaque Stuxnet nous révèle un autre scénario : celui du vol de certificats. L’autorité de certification ne sert plus à rien et l’IGC est détruite...

Les premières traces d’une attaque ressemblant à ce qu’est devenu Stuxnet remontent, selon le rapport de Symantec, à fin 2008. La vulnérabilité permettant l’exécution de code distant dans le spooler d’imprimantes partagées date d’avril 2009. Une pré-version de Stuxnet est découverte en juin 2009. Le 25 janvier 2010, le driver Stuxnet est signé avec un certificat paraissant « valide » appartenant à RealTek Semiconductor Corp. Le 16 juillet 2010, Verisign révoque le certificat de Realtek Semiconductor Corp. Le 17 juillet 2010, ESET identifie à nouveau Stuxnet signé avec un certificat provenant de JMicron Technology Inc. Verisign ne révoquera ce certificat que le 22 juillet...

Bref, l’ICG fournie avec Verisign est restée perméable durant de longs mois... Mais ces scénarios sont-ils intégrés aujourd’hui dans nos analyses de risques ? Ne faut-il pas changer de paradigmes ? Trouver une autre façon de s’assurer de l’intégrité d’un code exécutable ? L’interdiction de toute connexion sur une machine ne tient pas toujours face aux exigences de l’exploitation. On a déjà vu des systèmes avec des ports USB noyés dans la résine, mais il reste toujours un moment où on doit mettre à jour les logiciels, et alors... Prétendre qu’un certificat ne sera jamais volé n’est pas non plus très sérieux. Ne faut-il pas aller plus loin avec d’autres mesures de sécurité et une défense en profondeur accrue ?

Le bilan Stuxnet pour les éditeurs d’antivirus

Pages: 1 de 4 Page suivante