Artificiell intelligens har äntligen sitt ögonblick, och den förändrar dramatiskt datacentrets fastighetslandskap.
ChatGPT – det webbaserade AI-gränssnittet som svarar på användarfrågor med ofta slående mänskliga skrivna svar – har fångat allmänhetens fantasi sedan det släpptes av OpenAI i november.
Faktum är att tillgång till en teknik som omedelbart kan skapa både e-postmeddelanden om fastighetsmarknadsföring och en biblisk vers som förklarar hur man tar bort en jordnötssmör smörgås från en videobandspelare verkar som ett enormt steg mot en framtid som föreställs i science fiction-romaner.
Även om “generativ” AI som ChatGPT och OpenAI:s bildskapande DALL-E kan vara lite mer än högteknologiska leksaker i sina nuvarande former, är de framkanten av en våg av AI-centrerad digital transformation som ledare i datacenterbranschen säger är redan på god väg. Den utbredda användningen av AI kan vara den viktigaste kraften som omformar den digitala infrastrukturkartan under de kommande månaderna och åren, och förändrar både var och hur datacenter byggs.
“Ni ser tillbaka, de senaste 20 eller 30 åren har datacenter byggts utifrån behoven hos de videoströmningsapplikationer som driver efterfrågan, det är vad all infrastruktur byggdes för”, säger Wes Cummins, VD för specialdatacenterleverantören Applied Digital . “Apparna som driver efterfrågan framöver kommer att handla om artificiell intelligens. Den här typen av beräkning kommer att vara där efterfrågan kommer att vara under de kommande 10 eller 20 åren.”
Världens största teknikföretag satsar sina digitala infrastrukturdollar på en AI-driven framtid.
Tidigare denna månad tillkännagav Microsoft en investering på 10 miljarder dollar i OpenAI för den fortsatta utvecklingen och expansionen av ChatGPT, utöver en tidigare investering på 1 miljard dollar i företaget. Google har också gjort stora investeringar i AI-utveckling, medan Meta förra månaden pausade uppbyggnaden av datacenter runt om i världen för att göra om dem för att vara optimerade för AI-applikationer.
Branschinsiders säger att de senaste månaderna har varit en viktig brytpunkt för AI-innovation, med användningskurvan för dessa tekniker som är redo att bli mycket brantare inom en snar framtid.
Utvecklingar som tillägget av OpenAI:s verktyg och tjänster till Microsofts Azure-plattform sänker kostnadshinder för att skapa nya AI-produkter. Experter säger att detta driver en våg av innovation och skapar efterfrågan på de enorma mängder datorkraft som behövs för att bygga och driva dessa teknologier.
“Du kommer att se många applikationer, och från en risksynpunkt ser du redan det här nya landskapet utvecklas i termer av dessa mer generativa teknologier,” säger Ari Kamlani, senior AI-teknikstrateg och systemarkitekt på Beyond Limits, en utvecklare av kommersiella AI-applikationer. “Det finns en explosion av det generativa landskapet, såväl som i hur människor interagerar med dessa teknologier.”
Mer AI innebär ett växande behov av datorkraft, och det innebär fler datacenter. Men utrustningen och infrastrukturen som krävs för de flesta AI-applikationer skiljer sig markant från de servrar som de flesta datacenterleverantörer har varit värd för i årtionden.
I allmänhet kräver AI snabbare, kraftfullare processorer än de som finns i de flesta traditionella datacenterservrar. Det har faktiskt varit utvecklingen av dessa högpresterande chips som till stor del har möjliggjort denna våg av AI-innovation. Men medan dessa så kallade GPU-processorer är bättre på att utföra de beräkningar som krävs snabbt, använder de mycket mer ström och skapar betydligt mer värme än den utrustning som de flesta datacenter är designade för.
Som ett resultat av detta ändrar många leverantörer redan sina anläggningsdesigner för att komma ut inför den växande vågen av efterfrågan på AI-datorkapacitet.
Enligt Flexentials Chief Innovation Officer Jason Carolan innebär det att man måste designa om allt från reservkraftsystem och generatorer till vätskebaserade kylsystem och att ändra byggnadslägen för att vara närmare närliggande transformatorstationer.
“Det börjar verkligen förändra designkraven för nästa generations datacenter,” sa Carolan.
AI förändrar inte bara hur datacenter byggs, det förändrar också var de byggs.
Bland datacenterexperterna som pratat med Bisnow, det rådde enighet: en utbredd användning av AI kommer att påskynda decentraliseringen av datacenterlandskapet, driva utvecklingen på nya marknader och bort från branschens traditionella nav som Silicon Valley och Northern Virginia.
En viktig faktor är de enorma effektkraven för AI-beräkningar. Stigande energikostnader och brist på ström i branschens traditionella nav driver redan datacenter in på nya territorier, där utvecklare i allt högre grad prioriterar platser där de har tillgång till billig och helst förnybar el. AI kan mycket väl påskynda denna trend eftersom dess användning ökar hur mycket kraft varje anläggning behöver.
Samtidigt säger experter att det är absolut nödvändigt att sänka priset på beräkningar för AI genom lägre energikostnader om AI-applikationer ska vara ekonomiskt lönsamma. För närvarande är den enorma kostnaden för att komma åt nödvändig datorkraft genom molnet eller direkt från ett datacenter i stort sett oöverkomlig. ChatGPT fungerar med en betydande förlust och spenderar över 100 000 USD dagligen på enbart datorer.
Men AI:s omvandling av datacenterlandskapet är mer komplicerad än bara jakten på billig kraft. Experter säger att den distinkta arkitekturen hos AI-system kommer att skapa två distinkta efterfrågan på datacenterutrymme.
En bild skapad av Bisnow med OpenAI:s DALL-E med prompten “Data Center On Plains Of North Dakota.”
De sammankopplade datorsystemen som utgör en AI-applikation kan i allmänhet delas upp i två delar med olika infrastrukturkrav – i praktiken två halvklot av en enda hjärna.
I en del används en enorm mängd datorkraft för vad som kallas “träning”: att ge en AI-modell tillgång till en enorm mängd information – i fallet med ChatGPT, hela internet – från vilken den kan utveckla ett beslut- skapa ramar som kan tillämpas på andra ställen.
När detta ramverk för beslutsfattande har skapats kan det köras på en annan uppsättning infrastruktur för användare att interagera med i realtid. Detta senare steg, där AI faktiskt tillämpas, är känt som “inferens”.
“Du tar 300 miljarder datapunkter, du krossar dem, och du tränar en modell som sedan fattar beslut baserat på alla datapunkter, och sedan förfinar du hela tiden den modellen,” sa Applied Digitals Cummins. “Du tränar modellen i en miljö och sedan kan du ladda upp den modellen till en driftsmiljö i realtid för beslutsfattande.”
Behovet av datacenterutrymme för att vara värd för båda dessa datormiljöer omformar datacenterkartan, menar experter, men på väldigt olika sätt.
AI-utbildning – som kräver större mängder beräkningskraft men lite behov av blixtsnabb anslutning till slutanvändare eller andra faciliteter – kommer att driva efterfrågan på marknader med låga energikostnader och förnybar energi, även om de inte har den typen av anslutningar till fiber nätverk som skulle krävas i ett traditionellt datacenter, säger experter.
Applied Digital är specialiserat på just denna typ av anläggning, med sin huvudsakliga AI-fokuserade anläggning under utveckling i North Dakota. Den primära faktorn, sa Applied’s Cummins, är att tillhandahålla lägsta möjliga kostnad för beräkning. Även om detta i första hand innebär billig ström, kan kostnaderna också hållas nere genom att bygga anläggningar utan de redundanser som behövs i traditionella uppdragskritiska datacenter, och genom att placera dem på kalla platser där mindre ström behöver användas för kylning.
“De flesta datacenter är typ av schweiziska arméknivar – de byggdes för allt, oavsett om du kör video, Microsoft-appar för ditt företag eller vad det nu kan vara,” sa Cummins. “Vi bygger det specifikt för dessa användningsfall, så det gör det mycket billigare.”
Medan AI-utbildning driver efterfrågan på datacenter på avlägsna marknader, hjälper behovet av datorkraft för att distribuera dessa tekniker för slutanvändare att driva efterfrågan på datacenter i närheten av större befolknings- och affärscentra på vad datacenterindustrin kallar ” kanten.”
Flexentials Carolan pekar på AI-användningsfall som självkörande bilar eller ett kundtjänstsamtal som använder språkbearbetning AI i realtid. Den typen av applikationer kräver massor av beräkningar för slutledning, och det måste ske nästan omedelbart. För att uppnå den typen av latens krävs att den datorkapaciteten – och de datacenter den bor i – placeras nära slutanvändaren. Det innebär också att bygga ut de täta fibernätverk som behövs för att säkerställa att data kan flyttas snabbt.
Carolan sa att hyperskalare redan gör betydande investeringar i både Edge AI-datorinfrastruktur och de nätverk som behövs för att stödja dem. Han sa att skapandet av dessa fiberaccesspunkter innebär att andra datacenteroperatörer följer tätt efter, eftersom AI leder till skapandet av nya mini digitala infrastrukturnav bort från traditionella platser som Northern Virginia.
“Det växer datacenterverksamheten, inte bara för att hyperskalarna vill vara i nya regioner, utan det gör också att andra datacenter ligger nära hyperskalarna för anslutningen”, sa Carolan. “Det finns den här växande arkitekturen av kant till medelstora till stora bearbetningscenter där de har en tendens att locka andra datacenter runt sig, för att människor vill vara nära dessa anläggningar, till stor del för att de vill ha ett supersnabbt rör mellan sin infrastruktur i moln för att kunna flytta runt bearbetningen.”