Le rôle des réseaux décentralisés dans un monde hyperconnecté et riche en données

Le rôle des réseaux décentralisés dans un monde hyperconnecté et riche en données

Cloud token crypto

En ce qui concerne le stockage de données informatiques, il peut sembler que nous manquions de chiffres. Si vous êtes assez vieux, vous vous souviendrez peut-être quand le stockage sur disquette était mesuré en kilo-octets dans les années 1980. Si vous êtes un peu plus jeune, vous êtes probablement plus familier avec les clés USB libellées en gigaoctets ou les disques durs qui contiennent des téraoctets aujourd’hui.

Empreinte de données insondable de l’humanité

Mais nous produisons maintenant des données à un rythme sans précédent. En conséquence, nous allons devoir être en mesure de saisir des nombres si grands qu’ils semblent presque au-delà de la compréhension humaine. Afin de vous faire une idée du nouveau domaine dans lequel nous entrons, considérez ceci: la société de veille commerciale IDC estime que la création et la consommation mondiales totales de données s’élevaient à 59 zettaoctets en 2020, soit 59 billions de gigaoctets en argent ancien.

Pourtant, alors que le volume total de données existantes est maintenant à une échelle presque insondable, la vitesse à laquelle il croît est encore plus frappante. En 2012, IBM a calculé que 90% des données mondiales avaient été créées au cours des deux années précédentes. Depuis lors, la croissance exponentielle du volume mondial de données s’est poursuivie à un rythme soutenu et la tendance devrait se poursuivre. En effet, IDC prévoit qu’au cours des trois prochaines années, l’humanité créera plus de données qu’au cours des trois décennies précédentes.

La question évidente est: Qu’est ce qui a changé? Pourquoi produisons-nous soudainement beaucoup plus de données que jamais? Bien sûr, les smartphones font partie de l’histoire. Chacun a désormais un ordinateur portable dans sa poche, éclipsant la puissance des ordinateurs de bureau des générations précédentes. Ces machines sont constamment connectées à Internet et reçoivent et transmettent en permanence des données, même lorsqu’elles sont inactives. L’adulte américain moyen de génération Z déverrouille son téléphone 79 fois par jour, environ une fois toutes les 13 minutes. La nature permanente de ces appareils a contribué à l’avalanche de nouvelles données produites, avec 500 millions de nouveaux tweets, 4000 téraoctets de publications Facebook et 65 milliards de nouveaux messages WhatsApp diffusés dans le cyberespace toutes les 24 heures.

Les smartphones ne sont que la pointe de l’iceberg

Les smartphones ne sont cependant que la manifestation la plus visible de la nouvelle réalité des données. Alors que vous pourriez supposer que les plates-formes vidéo telles que Netflix et YouTube constituent la part du lion des données mondiales, en fait, la part totale des consommateurs ne représente qu’environ 50%, et ce pourcentage devrait diminuer progressivement dans les années à venir. Alors, qu’est-ce qui fait le reste?

La montée en puissance de l’Internet des objets et des appareils connectés a encore élargi notre empreinte mondiale de données. En effet, la croissance la plus rapide d’une année sur l’autre se produit dans une catégorie d’informations appelées données intégrées et données de productivité. Il s’agit d’informations dérivées de capteurs, de machines connectées et de métadonnées générées automatiquement qui existent dans les coulisses, au-delà de la visibilité des utilisateurs finaux.

Prenons l’exemple des véhicules autonomes qui utilisent des technologies, telles que les caméras, le sonar, le LIDAR, le radar et le GPS, pour surveiller l’environnement de la circulation, tracer un itinéraire et éviter les dangers. Intel a calculé que le véhicule autonome moyen utilisant les technologies actuelles produira quatre téraoctets de données par jour. Pour mettre cela en perspective, un seul véhicule produira chaque jour un volume de données équivalent à près de 3 000 personnes. En outre, il sera extrêmement important que ces données soient stockées en toute sécurité.

D’une part, il sera utile pour planifier les intervalles d’entretien et diagnostiquer les problèmes techniques le plus efficacement possible. Il pourrait également être utilisé dans le cadre d’un système décentralisé pour coordonner la circulation et minimiser la consommation d’énergie dans une ville spécifique. Enfin et probablement surtout à court terme, il sera indispensable pour régler les litiges juridiques en cas de blessures ou d’accidents.

Les véhicules autonomes ne sont qu’une infime partie de l’histoire globale. Selon McKinsey & Company, le pourcentage d’entreprises utilisant la technologie IoT est passé de 13% à 25% entre 2014 et 2019, le nombre total d’appareils devant atteindre 43 milliards d’ici 2023. De l’IoT industriel aux villes intelligentes entières, la future économie aura un nombre considérablement accru d’appareils connectés produisant des données potentiellement très sensibles, voire critiques.

La fin de la loi de Moore est-elle en vue?

Il y a deux facteurs à considérer, et tous deux indiquent l’utilité croissante des réseaux décentralisés. Premièrement, bien que nous ayons plus de données que jamais pour faire face aux défis mondiaux, tels que le changement climatique, l’instabilité financière et la propagation de virus aéroportés comme le COVID-19, nous approchons peut-être d’une limite technique difficile en termes de quantité de ces informations. être traitées par des ordinateurs centralisés en temps réel. Alors que les volumes de données ont augmenté de façon exponentielle ces dernières années, la puissance de traitement n’a pas augmenté au même rythme.

Dans les années 1960, le cofondateur d’Intel, Gordon Moore, a inventé la loi de Moore, qui stipulait que lorsque le nombre de transistors sur une micropuce double tous les deux ans, la puissance de calcul augmentera à un rythme correspondant. Mais Moore lui-même a admis que ce n’était pas une loi scientifique; il s’agissait plutôt d’une observation statistique transitoire. En 2010, il a reconnu que, alors que les transistors approchent maintenant de la taille des atomes, la puissance de traitement informatique atteindra une limite technique difficile dans les décennies à venir. Après cela, plus de cœurs peuvent être ajoutés aux processeurs pour augmenter la vitesse, mais cela augmentera la taille, le coût et la consommation d’énergie de l’appareil. Pour éviter un effet de goulot d’étranglement, nous devrons donc trouver de nouvelles façons de surveiller et de répondre aux données.

Le deuxième facteur à considérer est la cybersécurité. Dans un monde de plus en plus interconnecté, des millions de nouveaux appareils sont mis en ligne. Les données qu’ils fournissent influenceront potentiellement des choses comme la façon dont les réseaux électriques sont contrôlés, la façon dont les soins de santé sont administrés et la façon dont le trafic est géré. En conséquence, la sécurité périphérique – la sécurité des données qui résident en dehors du cœur du réseau – devient primordiale. Cela représente un défi complexe pour les experts en cybersécurité, car les nombreuses combinaisons différentes de dispositifs et de protocoles offrent de nouvelles surfaces d’attaque et des opportunités pour les intrusions de l’homme du milieu.

Apprendre des réseaux dans la nature

Si le traitement centralisé est trop lent et trop peu sûr pour les économies riches en données à venir, quelle est l’alternative? Certains experts ont cherché l’inspiration dans le monde naturel, arguant que nous devrions passer d’un modèle descendant à un modèle ascendant de surveillance et de réponse aux données. Prenons l’exemple des colonies de fourmis. Bien que chaque fourmi individuelle ait une intelligence relativement modeste, collectivement, les colonies de fourmis parviennent à créer et à maintenir des réseaux complexes et dynamiques de sentiers d’alimentation qui peuvent relier plusieurs nids à des sources de nourriture transitoires. Ils le font en suivant quelques comportements simples et en répondant à des stimuli dans leur environnement local, tels que les traînées de phéromones d’autres fourmis. Au fil du temps, cependant, l’évolution a mis au jour des instincts et des comportements au niveau individuel qui produisent un système hautement efficace et robuste au niveau macro. Si un sentier est détruit par le vent ou la pluie, les fourmis trouveront un nouvel itinéraire, sans qu’aucune fourmi individuelle ne soit même consciente de l’objectif global d’entretenir le réseau.

Et si cette même logique pouvait s’appliquer à l’organisation des réseaux informatiques? À l’instar des colonies de fourmis, dans un réseau blockchain, de nombreux nœuds de puissance de traitement modeste peuvent se combiner pour produire un résultat global supérieur à la somme de ses parties. Tout comme les instincts et le comportement sont de nature cruciale, les règles régissant l’interaction des nœuds sont essentielles pour déterminer dans quelle mesure un réseau réussira à atteindre les objectifs au niveau macro.

Aligner les motivations de chaque acteur décentralisé dans un réseau mutuellement avantageux a mis des milliers d’années à maîtriser la nature. Il n’est donc pas surprenant que ce soit aussi un défi difficile pour les concepteurs humains de réseaux décentralisés. Mais alors que les mutations génétiques des animaux sont essentiellement aléatoires en termes de bénéfice potentiel, nous avons l’avantage de pouvoir modéliser et concevoir des incitations à dessein pour atteindre des objectifs généraux communs. C’était au premier plan de nos esprits: l’objectif était d’éliminer toutes les incitations perverses pour les acteurs individuels qui érodent l’utilité et la sécurité du réseau dans son ensemble.

En concevant soigneusement des structures d’incitation de cette manière, les réseaux décentralisés peuvent considérablement renforcer le degré de sécurité périphérique. Tout comme le réseau de recherche de chemin d’une colonie de fourmis continuera à fonctionner même si une seule fourmi se perd ou meurt, les réseaux décentralisés sont tout aussi robustes, permettant au réseau de rester pleinement fonctionnel même lorsque des nœuds individuels tombent en panne ou se déconnectent. De plus, pas un seul nœud n’a besoin de traiter ou de comprendre toutes les données dans sa totalité pour que le réseau dans son ensemble puisse y répondre. De cette façon, certains chercheurs pensent que nous pouvons créer une structure d’incitation économique qui détecte automatiquement et répond aux défis communs de manière décentralisée.

Conclusion

Le volume de données que nous produisons explose et notre capacité à les surveiller et à y répondre à l’aide de réseaux informatiques centralisés approche de ses limites. Pour cette raison, les réseaux décentralisés sont particulièrement adaptés aux défis à venir. Il reste encore beaucoup de recherche, d’essais et d’expérimentation à faire, mais la robustesse fondamentale et l’utilité de la technologie sous-jacente ont été démontrées. Alors que nous nous dirigeons vers un monde hyperconnecté et riche en données, les réseaux décentralisés pourraient jouer un rôle important pour tirer le maximum d’avantages économiques et sociétaux de l’Internet des objets.

Les opinions, pensées et opinions exprimées ici sont la seule de l’auteur et ne reflètent ni ne représentent nécessairement les vues et opinions de Crypto.

Stéphanie So est économiste, analyste politique et co-fondateur de Geeq, une société de sécurité blockchain. Tout au long de sa carrière, elle a appliqué la technologie dans ses disciplines spécialisées. En 2001, elle a été la première à utiliser l’apprentissage automatique sur des données de sciences sociales au National Center for Supercomputing Applications. Plus récemment, elle a fait des recherches sur l’utilisation des processus de mise en réseau distribués dans les soins de santé et la sécurité des patients dans son rôle de maître de conférences à l’Université Vanderbilt. Stephanie est diplômée de l’Université de Princeton et de l’Université de Rochester.