Pulsrapport for tech-interesserte. Oppdatert basert på ferske signaler (siste 3–6 måneder).
Cloud 3.0 representerer en fundamental skifte vekk fra den sentrale, monolittiske public cloud-modellen. Sektoren er nå preget av et heterogent økosystem med hybrid, private og suveren cloud-løsninger som gir organisasjoner kontroll, datatasjeneste og unngåelse av vendor lock-in. Sjøl AI-infrastrukturen er i ferd med å demokratiseres: edge-datasentre nærmer seg brukerne, og «suveren AI» blir en reell forretningskritisk demografi. Leverandørene konkurrerer ikke lenger primært på skala, men på suvrenitet, kostnadsoptimalisering og fleksibilitet. Denne sektor modnes raskt drevet av regulering (GDPR, EU AI Act), geopolitiske spenninger og desperat behov for bedre styring av AI-infrastruktur kostnader.
| Navn | Type | Momentum | Hvorfor interessant akkurat nå |
|---|---|---|---|
| CoreWeave | Startup / GPU Cloud | 🔥 Varmt | Nylig børsnotering (mars 2025), $2.6B gjeldfinansiering, $6.5B avtale med OpenAI utvidet. Har 250k GPUs og er den første til å deploye NVIDIA Rubin i 2026. Ekspanderer med 5 GW AI-fabrikker. |
| Databricks | Startup / Multi-Cloud Platform | 🔥 Varmt | Serie L på $5B ved $134B verdsettelse (feb 2026). 65% YoY-vekst, $5.4B revenue run-rate. Lanserer Lakebase som «system of record» for AI. Fokuserer på multi-cloud agentisk infrastruktur. |
| CNCF / Kubernetes-økosystemet | OSS / Standard | 📈 Stigende | 15.6 millioner cloud-native utviklere globalt. KubeCon Europe 2026 (Amsterdam, mars) fokuserer på multi-cloud, AI-integrasjon og kostnadsoptimalisering. Kubernetes er standard for hybrid/multi-cloud. |
| Ray + vLLM (PyTorch Foundation) | OSS / Distributed AI | 📈 Stigende | Ray overføres til PyTorch Foundation, dannet en unified open-source stack med PyTorch + Ray + vLLM. Nye Ray Serve LLM APIs og ray symmetric-run for multi-node LLM serving. Kritisk for distribuert AI across multi-cloud. |
| Proxmox | OSS / Hypervisor | 📈 Stigende | Lanserer Datacenter Manager 1.0 (des 2025) for sentralisert admin av multiple Proxmox-miljøer. Styrker posisjonen som åpen alternativ til VMware/Nutanix. Vinner terreng grunnet VMware-migrering. |
| Prosjekt | Kjernefunksjon | GitHub-stjerner | Hvorfor spennende |
|---|---|---|---|
| LiteLLM | Unified LLM proxy med multi-provider routing | ~13k | Abstraherer 100+ LLM-leverandører bak OpenAI API. Enabler eksperimentering med hybrid local/cloud LLMs uten applikasjons-endring. Kritisk for multi-cloud AI. |
| Ollama | Local LLM runtime | ~80k | Democratizes edge AI ved å kjøre open LLMs lokalt (Llama 3, Mistral, Phi). Fungerer sammen med LiteLLM for managed routing. Høy adoption blant edge-infrastruktur enthusiaster. |
| LocalAI | Comprehensive local AI stack | ~25k | Beyond LLMs: multimodal support (tekst, bilde, lyd), autonomous agents (LocalAGI), semantic search (LocalRecall), P2P distribuert inference. Sterkeste kandidat for «offline-first» enterprise AI. |
| Teknologi / begrep | Hype-nivå (1–5) | Substans-nivå (1–5) | Vurdering |
|---|---|---|---|
| Suveren cloud / Digital sovereignty | 4 | 4 | Reell substans: regulering (GDPR, AI Act), geopolitikk driver etterspørsel. Gaia-X slo an, men EuroStack viser markedet vil differentiated løsninger. |
| Multi-cloud og «cloud arbitrage» | 5 | 4 | Høyt hyped, solid grunnlag. 77% av backend-devs bruker cloud-native tech. Automatisert «shopping» av compute across clouds er reelt nå med verktøy som Databricks. |
| Edge AI og distributed LLMs | 4 | 3 | Stor hype rundt inferens på edge. Substans er der for inference (Ollama, vLLM), men training distribuert across edge er fremdeles hard. Vekst på 30–35% årlig. |
| AI Agentic infrastructure (agent bricks, autonomous systems) | 5 | 2 | Ekstrem hype. Databricks snakker «agent bricks», men faktisk kapabilitet for multi-agent coordination across clouds er immature. Venter på 2026-2027 modning. |
| GPU cloud og «AI factories» | 4 | 5 | Høy hype, men fundamental realitet. NVIDIA, Microsoft, Meta investerer hundre mrd i GPU-infrastruktur. CoreWeave/Anyscale gjør det reelt. Flaskehals er strøm og kjøling, ikke teknologi. |
| Zero-trust og hybrid cloud governance | 3 | 4 | Moderat hype, solid substans. DORA og EU Data Act tvinger implementering. Likevel kompleks og ofte sub-optimal i praksis. |
De beste ingeniørene migrerer mot edge-compute, distributed AI, og suveren cloud-løsninger. CoreWeave, Databricks og Anyscale rekrutterer aggressivt fra Google Cloud og AWS. Ray-prosjektets move til PyTorch Foundation signaliserer at open-source distributed AI er der talenten og ressursene går. CNCF-økosystemet (Kubernetes, service mesh, observability) absorber ingeniørene som flykter VMware-monopolet.
Akademia fokuserer på federated learning, differential privacy, og edge inference — fundament for suveren AI. Berkeley, CMU og Mila (Montreal) fører forskningen innen distributed systems for AI. Gleichzeitig trekker store AI-labs (Meta, OpenAI, Anthropic) talenter vekk fra tradisjonelle cloud-leverandører.
Tegn til talent-drain fra AWS er rar; AWS AI-divisjon styrkes. Microsoft ser migrering på hybrid-fronten da Azure Stack får prioritet. GCP sliter litt på hiring for multi-cloud, men sterkt på open-source (Kubernetes, TensorFlow).
Inspirert av ThoughtWorks Technology Radar.
ADOPT — bruk nå
|
TRY — eksperimenter
|
|
ASSESS — følg med
|
HOLD — avvent
|
Rapport generert 4. mars 2026 · Klarsyn Analyse
DOC-20260304-tbd43v