Une dépendance mal maîtrisée à l’égard des TIC

20 h 26, mardi 26 décembre 2006, une séisme de magnitude de 7 sur l’échelle de Richter se produit au large de Taïwan et endommage six câbles sous-marins de télécommunications. Internet connaît, en Asie du sud-est, sa plus grande panne car les câbles endommagés assuraient une grande partie du trafic de cette région vers le Japon, les États-Unis et l’Europe.

17h, vendredi 2 février 2007, l’électricité est coupée sur le site parisien d’un grand laboratoire de recherche pour des travaux de maintenance et tous les serveurs doivent être mis hors service pendant le week end. Lundi 9h, la reconnexion s’avère impossible, la fermeture d’un serveur de sauvegarde ayant entraîné la chute en cascade des autres serveurs. Les équipes restent quatre jours sans mail ni internet, bloquant une très grande part de leur activité.

Ces deux événements récents, d’ampleur radicalement différente, illustrent l’extrême dépendance des organisations modernes à l’égard de la communication. Si Internet a créé une connectivité mondiale permettant de relier des millions de réseaux et des centaines de millions d’ordinateurs individuels, les systèmes d’information et de communication sont devenus, dans le même temps, de plus en plus sensibles à des événements imprévus causés par des catastrophes naturelles (le séisme de Taïwan), l’intervention d’actions extérieures (des interruptions dues à des travaux), des défaillances techniques (du matériel ou des programmes), des erreurs humaines ou de gestion (cf. les problèmes récents d’un grand fournisseur d’accès).

Une cybercriminalité le plus souvent mise en avant

La sécurité des systèmes d’information devient donc critique et suscite des préoccupations grandissantes tant elle est devenue centrale pour la marche de l’économie et le fonctionnement de nos sociétés. Pourtant les risques nouveaux associés à l’internet sont le plus souvent exclusivement envisagés sous l’angle criminel (intrusions, virus, piratage) et de la sécurisation des transactions et communications (protection des données personnelles, cryptage). La raison en est que ces risques sont les plus manifestes et les plus facilement mesurables. Des études récentes publiées par IBM et le FBI évaluent par exemple les pertes américaines associées au cybercrime à 67 milliards de dollars. Si les conséquences de ces attaques malveillantes ont une ampleur considérable, elles restent, malgré tout, en deçà de risques globaux qui menacent aujourd’hui les systèmes d’information et sont par contre beaucoup moins évoqués.


Les risques globaux : des systèmes complexes sensibles aux petits événements

Les spécialistes qualifient les risques globaux en envisageant leur effets à moyen terme selon plusieurs critères. L’échelle et l’envergure des risques doivent porter sur plusieurs continents et affecter plusieurs domaines industriels. L’importance économique et sociale des impacts doit atteindre plusieurs milliards d’euros et menacer la vie des personnes. La manière dont le risque et ses impacts surviennent doit comporter une incertitude majeure. Dans ces nouveaux risques globaux, chaque intervenant et chaque composant technique peut contribuer à l’effondrement. L’enchaînement et la “résonance” d’événements singuliers, amplifiés souvent par l’inadéquation éventuelle des réponses, créent des effets-cyclones qui peuvent provoquer la dislocation complète des systèmes sociaux. De tels risques sont le plus souvent associés aux questions sanitaires, environnementales ou aux technologies lourdes (nucléaire par exemple). Ils concernent pourtant aussi les systèmes d’information marqués par leur globalisation. Les sociétés  et les technologies de l’information connaissent en effet une complexité croissante du fait d’innovations constamment renouvelées, d’une mobilité inédite des individus, de l’interconnexion des systèmes, de la mondialisation des échanges et des transactions. Ces évolutions rapides et fréquentes disqualifient en permanence les modes de sécurisation préexistants.

L’effet cumulatif d’événements indépendants rend également particulièrement vulnérables des organisations sociales intégrées reposant totalement, pour leur gouvernance et leur fonctionnement, sur les systèmes d’information et de communication. Comme l’a montré la panne de décembre en Asie, la saturation et la rupture des systèmes d’information peut devenir particulièrement difficile à gérer quand elle s’inscrit dans des séquences d’événements partant de catastrophes naturelles.

Enfin, une part importante des communications traverse les frontières et transite par des pays tiers, sans que l’utilisateur final ne s’en rende même compte. Les problèmes de sécurité s’étendent donc rapidement à travers le monde. Quand les infrastructures de télécommunications relevaient de monopoles d’État, la sécurité restait maîtrisable : ces grandes organisations publiques contrôlaient leur réseau, d’autre part et elles constituaient un club limité d’opérateurs se connaissant et ayant l’habitude de coopérer. Les réseaux sont maintenant détenus et gérés par de multiples entreprises privées, en concurrence entre elles et moins enclines à collaborer.


Anticiper et s’assurer ?

Alors que de plus en plus d’activités dépendent désormais des réseaux de communications (système financier et bancaire, réseaux d’énergie, réseaux de transports aéronautiques, systèmes d’urgence, systèmes de sécurité), la fiabilité et la sécurité des systèmes d’information et de communication sont donc sensibles aux risques naturels (calamités de toutes sortes), aux actions humaines (terrorismes, attaques massives de virus ou de pirates) et à leur propres faiblesses (pannes ou destructions d’éléments clés de ces réseaux, bugs informatiques). Dans un tel cadre, les pouvoirs publics ont du mal à assurer une véritable régulation. Ils connaissent mal les risques. Dès lors, aucun mécanisme n’assure aujourd’hui de fortes incitations pour mettre en place des dispositifs robustes de protection. Tout comme en matière de risques environnementaux, les entreprises internalisent leurs coûts et tendent à externaliser les risques sur les pouvoirs publics et les sociétés.

La confiance en l’auto-organisation de l’internet, souvent mise en avant, n’offre pas de véritable solution car cette décentralisation reste toute relative. Les technologies de base de l’internet sont maîtrisées par un nombre limité d’entreprises telles que Cisco, Microsoft, Intel, voire Google. En outre, Internet a certes été construit, au début de l’ARPANET, comme un réseau redondant de réseaux, pour éviter justement la trop forte fragilité d’un système de communication hiérarchique. Il repose cependant sur des canaux et hubs fortement centralisés, pour la transmission comme pour le stockage des données.

Les mécanismes d’assurance ou de réassurance offrent traditionnellement des réponses pour réduire les coûts associés à des menaces mais ils se heurtent eux même à des difficultés pour répondre à l’importance et au caractère global des risques associés aux nouvelles technologies de l’information. Il n’est pas possible de mesurer la probabilité et le degré de dangers émergents en s’appuyant sur l’expérience du passé car les impacts peuvent être inconnus ou incalculables, notamment du fait de la dissémination et la corrélation des effets entre pays et entre industries touchés simultanément. Par ailleurs l’assurabilité suppose des conditions qui ne sont pas remplies : mesurabilité des pertes, capacité de couverture en relation avec les primes, mutualisation d’acteurs économiques acceptant de partager la charge du risque.


Conclusion : des facteurs d’espoir

Face aux nouveaux risques évoqués le pire n’est, heureusement, pas toujours sûr. D’une part, les limites des solutions d’assurance traditionnelles appellent de nouvelles mesures de régulation, favorisant la constitution de nouvelles communautés de risques à même de prendre collectivement en charge la responsabilité de ces risques, y compris au niveau technique et financier. D’autre part, les capacités de mises en réseaux offrent, au delà de leurs limites mêmes, des capacités accrues de résiliences et de sauvegarde des données. Une catastrophe aussi dramatique que l’attaque des tours du World Trade Center présente paradoxalement, de ce point de vue, un signe d’espoir. Cet événement avait en effet profondément affecté les infrastructures de communication américaine puisque 200 000 circuits de télécommunications, 3,6 millions de lignes de données et 40 000 entreprises avaient été déconnectées. Malgré cela, le réseau de télécommunication a rapidement été rétabli : les services prioritaires d’urgence (police, pompiers, santé) ont pu être maintenus sans interruption. L’ensemble du réseau était globalement restauré à peine deux jours plus tard et si la bourse de New York a dû fermer pendant quatre jours, c’était moins pour une raison technique que pour prévenir un crash boursier. La preuve était donnée que la maîtrise des risques financiers traditionnels était en l’occurrence plus difficile à opérer que celle de la technique.

cerveau-d-œuvre

Abonnez-vous au blog

Pour recevoir nos publications directement dans votre boite mail

Nous ne spammons pas ! Consultez notre politique de confidentialité pour plus d’informations.

Avatar photo

Pierre-Jean Benghozi

Polytechnique, Directeur de recherche au CNRS, professeur à l’École polytechnique, directeur du pôle « Recherche en économie et gestion » de l’École polytechnique, chargé de la chaire « Innovation et régulation des services numériques.