Organisaties in de zakelijke en particuliere markt hebben tijdens het afgelopen decennium veel softwareapplicaties en dataopslag naar de cloud verplaatst. Deels om de IT-behoeften flexibeler schaalbaar te maken, maar ook om minder afhankelijk te worden van de eigen IT-afdeling.
Oplopende kosten leiden tot cloudrepatriëring
Het verplaatsen van stijgende IT-investeringen op de balans naar het ‘pay-per-use’ gebruik van applicaties en data in de cloud, kan echter ook een voorbarige en kostbare oplossing voor de langere termijn worden. Tegenwoordig gaan organisaties namelijk steeds meer applicaties en data gebruiken om concurrerend te blijven in hun markten en velen komen er pas later achter dat ze niet allemaal het meest geschikt zijn voor de publieke cloud.
Grote cloudoperators zoals AWS, Google en Microsoft hebben er hard aan gewerkt om hun platforms te positioneren als eenvoudig te implementeren en te schalen voor een redelijke prijs. De groei van AI-toepassingen voor machine learning heeft cloudaanbieders de kans geboden om zich sterker te promoten als de beste oplossing voor data-intensieve computertoepassingen. Met goedkope startcontracten voor de toegang tot een enorme capaciteit zijn veel organisaties verleid, vaak zonder terdege onderzoek te doen naar de kosten van die schaalbaarheid en hoe moeilijk het is om van leverancier te veranderen als de kosten oplopen.
Veel klanten van cloudplatforms hebben de afgelopen jaren al een harde les geleerd met als gevolg dat zij een cloudrepatriëring zijn gestart. Volgens IDC (Increased Services, Pullback From Public Clouds Huge IT Disrupters) wordt cloudrepatriëring populairder. 80% van alle geraadpleegde bedrijven is van plan om een deel van hun workloads die nu in de publieke cloud worden gehost, te repatriëren. Een belangrijke reden voor deze mentaliteitsverandering is dat workloads die data van meerdere applicaties verwerken zeer complex kunnen zijn en unieke eisen stellen aan de servers en opslagvolumes. Maar ook aan de netwerkinfrastructuur, stroomvoorziening, verwarming en koeling en niet te vergeten de fysieke locatie.
Grenzen vervangen
De grenzen tussen de cloud en datacenters zijn aan het vervagen met meer mogelijkheden voor organisaties om workloads te plaatsen waar het voordeel van dataverwerking maximaal is. Veel organisaties beschouwen een hybride benadering van computer- en opslagcapaciteit als essentieel voor hun ontwikkelingsstrategieën. Daarom investeren de colocatie-aanbieders momenteel in manieren om huurders te helpen de efficiëntie tussen publieke en private cloud-workloads te verbeteren en zowel de kosten te beheersen als aan SLA’s te voldoen.
De energiekosten voor koeling maken zo’n 37% uit van het totale stroomverbruik in datacenters. Omwille van de duurzaamheid wordt het daarom belangrijker om de energie-efficiëntie van datacenters te verbeteren. Geconvergeerde infrastructuuroplossingen verkorten de productietijd voor huurders met wel 80%, door gebruik te maken van vooraf geconfigureerde oplossingen die volledig zijn getest, gevalideerd en snel te implementeren. Automatische omgevingsbewaking binnen de technische ruimtes, vaak geïmplementeerd bij geconvergeerde infrastructuren, helpt de efficiëntie van koeling en apparatuur verder te verbeteren en de operationele effectiviteit te vergroten. Met deze aanpak zijn de overheadkosten van datacenters vaak flink te verlagen.
Connecties met ecosystemen van partners
De nog steeds voortdurende wereldwijde pandemie heeft bij directies en hun technische teams aangetoond dat virtueel samenwerken effectief kan zijn. Colo-huurders en -providers zijn er de afgelopen anderhalf jaar snel bij geweest om dit te faciliteren en hebben ook nieuwe manieren ontwikkeld om in elke fase van de relatiecyclus betrokken te raken.
Colo is hard op weg dé oplossing te worden voor het verbinden van bedrijven, dienstverleners en cloudplatforms. Interconnectiediensten zijn de fysieke verbindingen die datacommunicatie tussen twee of meer partners met de hoogst beschikbare snelheden mogelijk maken, door krachtige netwerken te combineren met fysieke nabijheid. Toonaangevende colo-operators bieden huurders nu interconnectiediensten aan om de migratie en communicatie tussen alle faciliteiten te stroomlijnen en eenvoudig toegang te bieden tot de ecosystemen van partners.
Voor latency-gevoelige toepassingen biedt een gedistribueerde architectuur meer flexibiliteit om de hoogste klanteisen te ondersteunen. Dit connectiviteitsniveau betekent dat het inzetten van computer- en opslagcapaciteit op meerdere locaties, die het beste passen bij de applicatie en het budget, niet alleen mogelijk is maar zelfs essentieel.
Het toekomstige succes van colo-aanbieders ligt in het vinden van manieren om huurders te helpen de efficiëntie tussen publieke en private cloudworkloads te verbeteren en tegelijkertijd zowel de kosten te beheersen als aan SLA’s te voldoen. Hybride cloud-architecturen bieden de flexibiliteit die organisaties nodig hebben om op basis van de eisen van applicatieworkloads te bepalen waar deze moeten draaien.
Onvermijdelijk duurzaam
Tenslotte is duurzaamheid een belangrijk toetsingscriterium geworden in bestuurskamers over de hele wereld, maar ook bij klanten, investeerders, overheden en consumenten. Klanten willen geassocieerd worden met leveranciers die een positief milieubeleid en acties kunnen aantonen. Veel datacenters hebben al contracten afgesloten met nutsbedrijven voor duurzame energie en andere compenserende maatregelen genomen om de netto CO2-uitstoot te reduceren.
De fysieke netwerkinfrastructuur is een strategisch fundament dat colo’s toekomstbestendig maakt in een hybride computer- en opslagomgeving. Het biedt de oplossingen die zorgen voor slimme, schaalbare en efficiënte connectiviteit, als het platform voor colo’s en hun klanten om succesvol te kunnen blijven concurreren in een hybride wereldmarkt.
Auteur: Michael Akinla, Business Development Manager, Panduit North Europe