Microsoft, som har tagit sig in i täten inom artificiell intelligens med sin investering på 10 miljarder dollar i ChatGPT och Open AI, tar en ledande position när det gäller att bygga den nya och utökade datacenterinfrastrukturen som kommer att behövas för att stödja artificiell intelligens.
Den Redmond, WA-baserade teknikjätten avslöjade denna vecka att den planerar ett nytt 750K SF hyperskala datacentercampus i Quincy, WA, cirka 32 mil från Microsofts centrala datacenternav i Washington.
Känt som Malaga-projektet kommer det 102,5 tunnland stora campuset att omfatta tre 250 000 SF-serverfarmar på en plats som Microsoft förvärvade för 9,2 miljoner dollar i april förra året. Bygget börjar i juni, med leverans av den första byggnaden på 18 månader; campus förväntas stå färdigt 2027.
De kraftfulla mikroprocessorerna som används i infrastrukturen för artificiell intelligens kommer att kräva ett kylsystem vid Quincy-komplexet som pumpar vatten direkt från Columbia River till datacentren.
Microsoft planerar att bygga en 2,3 miljoner dollar vattenverksinstallation för att pumpa vatten från floden för att kyla de avancerade mikroprocessorerna på campus – företaget uppskattar att var och en av de tre byggnaderna på campus kommer att kräva minst 121 000 liter vatten varje dag.
Tidigare denna månad tillkännagav Microsoft en utbyggnad på 176 miljoner dollar av sitt datacenternav i San Antonio. Cloud computing-jätten köpte också för 42 miljoner dollar en 30 hektar stor industrianläggning i Hoffman Estates-området i Chicago för utveckling av datacenter.
Datacenterinfrastrukturen som byggts ut under de senaste åren för att stödja explosionen av molnberäkningar, videoströmning och 5G-nätverk kommer inte att räcka för att stödja nästa nivå digitala transformation som har börjat på allvar med den utbredda adoptionen av artificiell intelligens.
Faktum är att AI kommer att kräva ett annat molnberäkningsramverk för sin digitala infrastruktur – ett som kommer att omdefiniera nuvarande datacenternätverk, i termer av var vissa datacenterkluster finns och vilken specifik funktionalitet dessa faciliteter har.
Dataknäppningsbehoven för AI-plattformar är så stora att OpenAI – skaparen av ChatGPT, som det introducerade i november – inte skulle kunna fortsätta köra den smarta ord-meistern utan att haka på med Microsofts snart uppgraderade Azure-moln plattform.
Mikrobearbetnings-”hjärnan” hos plattformar för artificiell intelligens – i det här fallet datacenterinfrastrukturen som kommer att stödja denna digitala transformation – kommer, precis som mänskliga hjärnor, att organiseras i två hemisfärer, eller lober. Och ja, den ena loben måste vara mycket starkare än den andra.
En halvklot av AI digital infrastruktur kommer att betjäna vad som kallas en “träningslob”: den beräkningseldkraft som behövs för att knäcka upp till 300B datapunkter för att skapa ordet sallad som ChatGPT genererar. Träningsloben intar datapunkter och omorganiserar dem i en modell, en upprepande process där den digitala enheten fortsätter att förfina sin “förståelse”, i princip lär sig att absorbera ett universum av information och att kommunicera essensen av den kunskapen i exakt mänsklig syntax .
Träningsloben kräver massiv datorkraft och de mest avancerade GPU-halvledarna, men lite av den anslutning som nu är nödvändig i datacenterkluster som stöder molntjänster och 5G-nätverk.
Infrastrukturen fokuserad på att “träna” varje AI-plattform kommer att ha en glupsk aptit på kraft, vilket kräver placering av datacenter nära gigawatt förnybar energi och installation av nya vätskebaserade kylsystem samt omdesignade reservkraft- och generatorsystem, bland annat andra nya designfunktioner.
Den andra halvklotet av en AI-plattforms hjärna, den digitala infrastrukturen för högre funktioner – känd som “inferens” -läget – stöder interaktiva “generativa” plattformar som ställer dina frågor, utnyttjar den modellerade databasen och svarar på dig i en övertygande mänsklig syntax sekunder efter att du har skrivit in dina frågor eller instruktioner.