Select Page

Le Edge Computing déplace le centre de gravité des données

Gestion plus souple des données, réduction du temps de latence et de l’empreinte énergétique liée à l’infrastructure, évolution de l’entreprise vers une architecture sans serveur… C’est la promesse du Edge Computing, une alternative au Cloud Computing, qui dessine les contours d’un nouvel environnement analytique… à la périphérie du réseau.

A chaque typologie de données, son infrastructure de stockage

L’explosion du volume des données pose de plus en plus la question de leur stockage. Si les entreprises s’intéressent de près aux algorithmes de stockage, c’est parce que les données orientent les décisions stratégiques. A condition de choisir la solution de stockage la plus adaptée à la fréquence d’accès aux données.

IA et Infra : font ils bon ménage ?

Utilisée pour extraire du sens, traiter des requêtes, produire de meilleurs résultats et prendre rapidement les bonnes décisions, l’intelligence artificielle nourrit beaucoup d’espoir, et quelques craintes aussi. Pour autant elle fait de plus en plus l’unanimité dans les entreprises qui la jugent « critique » pour leurs activités. Avec l’IA se dessine un nouveau paysage des infrastructures technologiques où se rencontrent la puissance informatique et le Big Data.

Le serverless computing chamboule les infras

Mauvaise nouvelle pour les servers huggers *, le Serverless Computing ou « l’informatique sans serveur » est une tendance des plus fortes du moment, et même selon certains, plus importante que pour les containers de type Docker. En effet, selon les analystes de Reportlinker, la taille du marché, estimée à 4 milliards de dollars en 2018 devrait atteindre plus de 14 milliards d’ici 2023, avec un taux de croissance de 28% annuel.  

Pourquoi tant d’engouement ? Avec la prolifération des micro-services et l’émergence du modèle Devops, on se concentre de plus en plus sur les applications plutôt que sur le serveur. L’informatique sans serveur est cependant encore mal comprise. Une étude de Digital Ocean, un fournisseur de Cloud américain, révèle qu’un développeur sur deux ne saurait pas ce que c’est.

Le multicloud mythe ou réalité ?

L’informatique dans les nuages a le vent en poupe, c’est incontestable. De là à orchestrer des environnements multi-cloud, il reste quelques pas à franchir et certains défis à relever. De la stratégie à l’architecture et de l’ambition à la réalité, le chemin vers un environnement multi-cloud peut être semé d’embûches même si beaucoup l’ont déjà compris : une solution cloud unique ne sera pas en mesure de répondre aux besoins futurs.

Et si on osait S/4HANA dans le cloud public ?

Sécurité, réglementation, propriété des données… oubliez les derniers freins – pour la plupart infondés – qui vous empêchent d’adopter le cloud public ! Cette technologie offre désormais de réels avantages pour le nouvel ERP de SAP.

Témoignage : rationaliser 10 000 rapports avec SAP BusinessObjects

En 2018, la DSI de SCC se lance dans un projet ambitieux : harmoniser et optimiser les outils de Business Intelligence à l’échelle du groupe.

Big Data, IA… Leviers et catalyseurs de transformation

L’augmentation massive du flux d’informations couplée aux technologies analytiques transforme en profondeur les entreprises. Celles-ci s’orientent vers le pilotage de leurs activités et intègrent de nouvelles solutions et technologies portées par l’Intelligence Artificielle (IA) et dans son sillage, le Machine Learning. Même si certains marchés se cherchent encore et que l’ensemble des secteurs ne tirent pas tous parti des leviers d’innovation générés par la data, une révolution est bel et bien en cours.

Agir avec agilité, la clé pour réussir

A l’image du légo qui se construit pièce par pièce, l’entreprise à l’ère du numérique est un savant montage de briques assemblées et reliées entre elles. Piloter ses données, adapter ses process, améliorer ses outils et décloisonner ses silos requièrent une dynamique d’agilité à tous les étages. Dévoiement pour certains, déploiement pour d’autres, cette évolution devient un vecteur majeur d’innovation et de vitesse.

Everything as a service : ça donne quoi en pratique?

La gamme croissance de solutions fournies via le Cloud ne cesse de se développer. Avec elle, c’est un changement de paradigme qui redistribue les enjeux et les contraintes au niveau des architectures et impacte le mode de fourniture et d’utilisation des services informatiques. Quelle gouvernance IT adopter pour faire du système d’information une source de profit et d’innovation sur le long terme ?

Découvrez nos experts

Régis Davesne

Directeur du département Hybrid IT

Fabien Swiergel

Directeur des centres de compétences

Nuno Ventura

Responsable BU sécurité

David Da Silva

Microsoft Digital Offer Manager

Baptiste Simon

Responsable BU Cloud & Services Managés

William Saadi

Technical Manager Datacenter Automation

Sébastien Hurst

Responsable Département Avant-Vente

Franck Jordi

Team Leader Architectes – Expert Stockage

Everything as a service : ça donne quoi en pratique?

La gamme croissance de solutions fournies via le Cloud ne cesse de se développer. Avec elle, c’est un changement de paradigme qui redistribue les enjeux et les contraintes au niveau des architectures et impacte le mode de fourniture et d’utilisation des services informatiques. Quelle gouvernance IT adopter pour faire du système d’information une source de profit et d’innovation sur le long terme ?

“Everything as a Service”, oui mais jusqu’où ?

C’est une petite révolution qui gravite dans l’espace du Cloud Computing. Ou comment accéder et tirer parti de la technologie « en tant que service » ? Les secteurs sont nombreux à se projeter dans une économie où le modèle « Everything as a Service » leur promet déjà une adaptation plus rapide aux évolutions du marché et une augmentation de leurs profits.

Data Center du futur : le pilotage par l’assemblage

C’est là où l’ensemble des technologies convergent. Le Data Center s’apparente déjà aujourd’hui à un vaste système d’information IoT où tout communique. Mais à quoi ressemblera-t-il demain ? Difficile d’en dessiner les contours exacts tant la technologie évolue. Une chose est sûre : si l’infrastructure physique reste la même, la manière de l’utiliser et de la consommer, elle, va changer.

Tous acteurs de la cybersécurité !

Face aux attaques à grande échelle et aux malveillances organisées, les entreprises sont confrontées à une menace qui dépasse leur environnement IT. C’est aujourd’hui l’organisation toute entière qui doit être capable d’identifier un cas de compromission de ses données au risque de perdre en performance, en crédibilité et en confiance. Encore faut-il rester à l’affût et savoir repérer les indices.

Le réseau SD WAN libère le potentiel applicatif et booste l’expérience

Le MPLS ne tiendra plus la charge à lui tout seul encore bien longtemps si l’entreprise poursuit sa migration vers le cloud (ce qu’elle fait massivement). Place au SD WAN, le réseau étendu privé qui priorise intelligemment et dynamiquement les paquets et les applications pour garantir un service impeccable. Car in fine, l’objectif dans le viseur doit rester l’expérience utilisateur, quoi qu’il arrive.

Docker et le stockage, où en est-on ? (partie 3)

Jusqu’ici tout allait bien, car les containers Docker ne posaient pas réellement de nouvelles problématiques de stockage.
A l’origine, Docker a été pensé pour pouvoir déployer massivement des micro-services. Ces derniers ont la particularité d’être stateless (sans état) et ne nécessitent donc pas de persistance de données : par défaut, à l’arrêt d’un container, les données sont effacées. C’était assez simple à gérer.
C’était sans compter sur son succès dans les infras. Les containers ont rapidement été utilisés pour déployer des applications de plus en plus complexes. Et ce qui devait arriver arriva : les containers ont finalement eu besoin de stockage persistant.

Recevez par mail les articles et actualités de Au coeur des InfrasJe m'inscris à la Newsletter