Datacenterinfrastrukturen som byggts ut under de senaste åren för att stödja explosionen av molnberäkningar, videoströmning och 5G-nätverk kommer inte att räcka för att stödja nästa nivå digitala transformation som har börjat på allvar med den utbredda adoptionen av artificiell intelligens.
Faktum är att AI kommer att kräva ett annat molnberäkningsramverk för sin digitala infrastruktur – ett som kommer att omdefiniera nuvarande datacenternätverk, i termer av var vissa datacenterkluster finns och vilken specifik funktionalitet dessa faciliteter har.
ChatGPT, den verbala synthesizern för AI som nu har mer än 1 miljon användare och 10 miljarder dollar i stöd från Microsoft – låt oss kalla det Microsoft Word Salad och se om den ställer upp sina hertigar – är bara början på framväxten av maskininlärningsskolorna -mänskliga appar som är på väg vår väg.
I november bildade Amazon Web Services, den globala ledaren inom cloud computing, ett partnerskap med Stability AI; Google har ett system av ChatGPT-typ som heter Lamda – sökmotorjätten har tagit tillbaka grundarna Larry Page och Sergey Brin för att vägleda lanseringen, enligt en rapport i Bloomberg.
Förra månaden meddelade Meta att de pausar sina datacenterbyggen runt om i världen för att omkonfigurera dessa serverfarmar för att optimera dem för databehandlingskraven för artificiell intelligens (som kommer mycket snabbare än metaversen), GlobeSt. rapporterad.
Dataknäppningsbehoven för AI-plattformar är så stora att OpenAI – skaparen av ChatGPT, som det introducerade i november – inte skulle kunna fortsätta köra den smarta ord-meistern utan att haka på med Microsofts snart uppgraderade Azure-moln plattform.
ChatGPT skulle förmodligen kunna göra ett mycket bättre jobb med att förklara detta, men det visar sig att mikrobearbetnings-”hjärnan” hos plattformar för artificiell intelligens – i det här fallet datacenterinfrastrukturen som kommer att stödja denna digitala transformation – kommer att, precis som mänskliga hjärnor, vara organiserad i två halvklot, eller lober. Och ja, den ena loben måste vara mycket starkare än den andra.
En halvklot av AI digital infrastruktur kommer att betjäna vad som kallas en “träningslob”: den beräkningseldkraft som behövs för att knäcka upp till 300B datapunkter för att skapa ordet sallad som ChatGPT genererar. I ChatGPT är det varje pixel som någonsin har dykt upp på Internet sedan Al Gore uppfann den.
Träningsloben får i sig datapunkter och omorganiserar dem i en modell – tänk på synapserna i din hjärna. Det är en upprepande process där den digitala enheten fortsätter att förfina sin “förståelse”, i princip lär sig att absorbera ett universum av information och att kommunicera kärnan i den kunskapen i exakt mänsklig syntax.
Träningsloben kräver massiv datorkraft och de mest avancerade GPU-halvledarna, men lite av den anslutning som nu är nödvändig i datacenterkluster som stöder molntjänster och 5G-nätverk.
Infrastrukturen fokuserad på att “träna” varje AI-plattform kommer att ha en glupsk aptit på kraft, vilket kräver placering av datacenter nära gigawatt förnybar energi och installation av nya vätskebaserade kylsystem samt omdesignade reservkraft- och generatorsystem, bland annat andra nya designfunktioner.
Den andra halvklotet av en AI-plattforms hjärna, den digitala infrastrukturen för högre funktioner – känd som “inferens” -läget – stöder interaktiva “generativa” plattformar som ställer dina frågor, utnyttjar den modellerade databasen och svarar på dig i en övertygande mänsklig syntax sekunder efter att du har skrivit in dina frågor eller instruktioner.
Dagens hyperanslutna datacenternätverk – som det största sådana klustret i Nordamerika, Northern Virginias “Data Center Alley”, som också har landets mest omfattande fiberoptiska nätverk – kan anpassas för att möta nästa nivås anslutningsbehov hos “inferens” lob av AI-hjärnan, men dessa anläggningar kommer också att behöva uppgraderingar för den enorma bearbetningskapacitet som kommer att krävas – och de kommer att behöva vara närmare kraftstationer.
De största leverantörerna av molndatorer erbjuder datakrossande kraft till AI-startups som är hungriga efter det eftersom startups har potential att bli långsiktiga kunder. En VC-spelare som investerar i AI liknade det vid ett “proxy-krig” bland supermakter för AI-hegemoni.
“Det pågår något av ett proxykrig mellan de stora molnföretagen,” sa Matt McIlwain, vd på Seattles Madrona Venture Group LLC, till Bloomberg. ”De är verkligen de enda som har råd att bygga det riktigt stora [AI platforms] med mängder av parametrar.”
De framväxande AI-chattbotarna är “läskigt bra”, som Elon Musk uttryckte det, men de är inte riktigt kännande varelser som kan matcha de miljoner år av evolution som producerade den exakta sekvensen av miljarder synapser som avfyrades på samma millisekund i din frontal lob som säger åt dig att lukta på kaffet innan det är för sent. Inte än.