Fog computing : quel rôle pour l'IoT ?
Le fog computing crée une couche supplémentaire pour le stockage et le traitement de données produites par les objets connectés. Explications.
Définition du fog computing
Le fog computing, aussi appelé "informatique dans le brouillard", définit une infrastructure chargée de stocker et de traiter des données issues d’objets connectés. Concurrent direct, alternative ou solution complémentaire au cloud computing, le fog computing a comme particularité de stocker et de traiter les données via le recours à des équipements implantés à la périphérie du réseau. Il permet donc de réaliser ces deux actions en local, sans avoir à solliciter un datacenter situé à plusieurs centaines de kilomètres ou un cloud. Dans ce domaine du stockage et du traitement des données et de l’IoT, le fog computing crée une interface supplémentaire que l’on peut situer entre le Edge Computing et le Cloud Computing.
Fog VS edge computing
Le fog computing et le edge computing sont deux infrastructures assez similaires. Toutes deux sont basées sur le traitement des données produites directement par les objets connectés en périphérie de réseau. Cette proximité avec le point d'origine mène à une réduction importante du temps de latence (plus de trajet entre l'objet connecté et le cloud). La différence entre fog et edge computing se trouve les équipements informatiques impliqués : selon l'OpenFog Consortium, l'edge fait référence aux terminaux de traitement tandis que le fog computing renvoie à l'architecture IT. Par ailleurs, on parle d'edge computing quand les ressources de calcul se trouvent dans l'objet connecté, et de fog computing quand elles sont dans un nœud de réseau séparé, comme une passerelle IoT.
Le fog computing participe activement à décongestionner le trafic réseau (seules les informations les plus importantes sont transmises aux serveurs de l’entreprise) et à augmenter ses performances (en diminuant notamment la consommation de bande passante). À noter enfin que le fog computing a également vocation à renforcer la sécurité des données. En stockant ces dernières de façon sécurisée sur le plan local, il limite les éventuelles tentatives d’intrusion et évite les cyber-attaques contre le cloud ou les datacenters.
Cisco
Il est aujourd’hui accepté de dire que l’on doit le concept de fog computing à un ingénieur de chez Cisco Systems, une entreprise informatique américaine spécialisée dans les serveurs. Depuis 2015, il existe par ailleurs le consortium OpenFog (qui réunit des entreprises telles que Cisco, Dell, Microsoft ou encore ARM) chargé de définir les protocoles réseau et les standards technologiques utiles à la normalisation du marché. L’objectif : réussir à donner une définition de l’architecture distribuée qui puisse être en mesure de s’adapter au très fort développement de l’IoT. Sur le plan technique, l’infrastructure du fog computing se compose de plusieurs couches, avec le respect de la logique d’empilement que l’on retrouve déjà dans le cloud, auxquelles s'intègrent ensuite ses éléments propres, comme la collecte de données issues d’objets connectés ou des services d’interconnexion entre réseaux.