Emerj gjennomførte en samtaleserie med ledere fra blant andre Pure Storage, Generac og Lexmark om hvordan datalagring og energibruk påvirker skalering av kunstlig intelligens (KI).
I serien deltok representanter som Shawn Rosemarin (Pure Storage), Neil Bhandar (Generac), Bryan Willett (Lexmark), Amit Gupta (Danaher), Joe Lang (Comfort Systems), Norma Scagnoli (Illinois Institute of Technology), Greg Ratcliff (Vertiv) og Julian Tang (BlackRock). Deltakerne pekte på at datafragmentering svekker tilgang og analyse, et funn som underbygges av referanser til en MIT-studie og en britisk offentlig sektor-undersøkelse om manglende interoperabilitet. Sentrale anbefalinger fra samtalene var å kartlegge og sentralisere eksisterende data nær systemene som trenger dem («data gravity»), bygge en lagdelt og løs koblet dataarkitektur, skjerme trening av modeller med internt, pålitelig data, samt involvere juridisk, compliance og InfoSec tidlig. Shawn Rosemarin advarte spesielt mot energibegrensninger: GPUs kan bruke ti ganger mer strøm enn CPUs, nye datasentre kan bli begrenset ved hetebølger, og organisasjoner må beregne sin «bridge to running out of power» (f.eks. 12, 24 eller 36 måneder) og vurdere alternative energikilder eller effektiviseringer før store AI-investeringer.
For AI Norge er dette relevant fordi norske virksomheter også møter utfordringer med datakvalitet, lagring og energiforvaltning når de skalerer KI; temaene fra serien vil være av interesse i AI-nyheter.
Kilde: https://emerj.com/scaling-ai-storage-efficiency-leaders-from-pure-storage-generac-lexmark-comfort-systems-usa-danaher-alcon | Sammendraget er KI-generert med OpenAI API av Ainy.no
