Nye AI‑løsninger fra Google og OpenAI i 2025

2025 har vært et år med gjennombrudd for kunstig intelligens. Både Google og OpenAI har brukt våren og sommeren på å lansere nye verktøy, modeller og tjenester som gjør AI mer tilgjengelig og nyttig i hverdagen. Dette nyhetsinnlegget oppsummerer de viktigste kunngjøringene fra første halvår 2025 og forklarer hvorfor de har betydning.

Google: Nytt i Gemini og generative verktøy

I mai gikk Google I/O av stabelen med et sterkt AI‑fokus. Under konferansen ble flere nye funksjoner for AI Mode i søket presentert, blant annet dypere søk med Deep Search, en «Canvas»‑funksjon for planlegging, live video i søket og mulighet til å laste opp PDF‑er og bilder. AI‑modusen fikk også agent‑lignende egenskaper: brukere kan stille oppfølgingsspørsmål om resultater og be assistenten gjennomføre handlinger, for eksempel bestille billetter eller analysere regneark.

Google oppdaterte samtidig Gemini‑appen med interaktive quizer, kommende integrasjon med dokumenter og e‑post, støtte for kamera og skjermdeling og et nytt Create‑meny i Canvas som lar brukere lage infografikker eller transformere lyd og bilder. Appen fikk også «Agent Mode», en eksperimentell funksjon der Gemini kan utføre handlinger på vegne av brukeren; selskapet opplyste at appen har passert 400 millioner månedlige brukere.

På modelsiden kom Gemini 2.5 Pro og Gemini 2.5 Flash, som bygger på samme grunnlag som GPT‑4o men er mer energieffektive. Pro‑versjonen fikk en Deep Think‑modus for mer komplekse oppgaver, mens Flash er en mindre modell med svært lav forsinkelse. Google annonserte også Gemini Diffusion, en tekst‑diffusjonsmodell som skal generere sammenhengende tekst og kode, og la til nye sikkerhetsfunksjoner som blokkerer unøyaktige svar. Selskapet lanserte to abonnementer – Google AI Pro og Google AI Ultra – der Pro gir tilgang til Gemini 2.5 Pro og Flow, mens Ultra inkluderer de kraftigste modellene og større lagringsplass.

Innen generativ AI ble videomodellen Veo 3 lansert. Den kan generere 1080p‑videoer med lyd og støtter ulike formatforhold. Samtidig kom Imagen 4, Googles nye bildemodell som gir bedre oppløsning og naturtro tekstgjengivelse. Google presenterte også Flow, et AI‑verktøy for filmskapere bygget på Veo 3. Flow kombinerer prompt‑styrt video‑generering med kamerakontroller, scenebygging og ressurshåndtering, og er tilgjengelig for abonnenter av Google AI Pro og Ultra.

Sommeroppdateringer

I juli publiserte Google et sammendrag av sine AI‑nyheter. AI Mode fikk flere funksjoner rettet mot skole og visuell søk: Canvas for planlegging, Search Live med video, mulighet til å laste opp PDF‑er og AI‑støtte i Circle to Search og Lens. Selskapet oppdaterte også forskningsassistenten NotebookLM med video‑oversikter og et kraftigere Studio‑panel. Google Photos fikk en Remix‑funksjon som forvandler bilder til anime eller 3D‑kunst, og Veo 3 ble rullet ut til over 150 land gjennom Gemini. Videre integrerte Google Veo 3 i Flow, slik at brukere kunne legge til lyd og talende bilder i videoene sine.

Som del av satsingen på forskning lanserte Google DeepMind modellen Aeneas, som hjelper historikere med å tolke og restaurere fragmentariske latinske tekster ved å sammenligne lignende formuleringer og fylle inn hull. Selskapet introduserte også AlphaEarth Foundations, en modell som fungerer som et virtuelt satelittsystem og kombinerer jordobservasjonsdata for å lage detaljerte kart av land og kystområder.

Nye tjenester og investeringer

Google investerte tungt i infrastruktur. I juli kunngjorde konsernet en avtale verdt 3 milliarder dollar med Brookfield for å modernisere hydrokraftverk og planer om å investere over 25 milliarder dollar i datasentre og AI‑infrastruktur i USA. Selskapet demonstrerte også hvordan en AI‑agent ble brukt til å avverge en cybersårbarhet i det fri, noe som viser potensialet for AI i cybersikkerhet.

OpenAI: En parade av modeller og agenter

OpenAI innledet 2025 med GPT‑4.5, en forskningsversjon av deres største modell til da. GPT‑4.5 er trent med skalerte metoder og gir mer naturlige interaksjoner, bredere kunnskapsbase og forbedret mønstergjenkjenning; den reduserer også halusinasjoner.

I april fulgte OpenAI opp med OpenAI o3 og o4‑mini, modeller i o‑serien trent til å tenke lenger før de svarer. Disse modellene kombinerer bruk av verktøy (web‑søk, Python, bildeanalyse og bildegenerering) for å løse komplekse oppgaver på under ett minutt. o3 er den mest kraftfulle modellen i serien og setter nye rekorder på kodings- og matematikk‑benchmarker, mens o4-mini er en mindre modell optimalisert for raske og rimelige svar.

I juli lanserte OpenAI ChatGPT‑agent, et verktøy som lar ChatGPT både tenke og handle. Agenten kombinerer tidligere funksjoner som Operator (web‑interaksjon) og deep research (dyp analyse) slik at den kan navigere nettsider, filtrere resultater, logge deg inn der det trengs og generere rapporter eller lysbilder. Brukere kan be agenten planlegge møter ut fra kalenderen, handle ingredienser til middager eller analysere konkurrenter og produsere presentasjoner. Funksjonen er tilgjengelig for Plus‑, Pro‑ og Team‑abonnenter.

August ble en milepæl med lanseringen av GPT‑5, som OpenAI omtaler som sin smarteste, raskeste og mest nyttige modell. GPT‑5 er et enhetlig system der en effektiv modell håndterer de fleste spørsmål, mens en dypere resoneringsmodell – GPT‑5 Thinking – trår til på kompliserte problemer. Et sanntidsruter avgjør når den skal bytte, basert på oppgaven. Resultatet er færre halusinasjoner, bedre instruksjonsfølge og høyere ytelse i skriving, koding og helsefag. Pro‑abonnenter får tilgang til GPT‑5 Pro, som har utvidet resonnementsevne.

Bare to dager før GPT‑5 slapp, presenterte OpenAI gpt‑oss‑120b og gpt‑oss‑20b, to åpne modeller under Apache 2.0‑lisens. Disse modellene leverer sterk resonnementsevne og kan kjøres på en enkelt GPU eller til og med på kant‑enheter, noe som åpner for lokal bruk og rask iterasjon. Modellene gir full tilgang til resonneringskjeden (chain‑of‑thought) og overgår andre åpne modeller i verktøybruk og funksjonskalling.

I april lanserte OpenAI et API for bilde­generering basert på gpt‑image‑1. Den multimodale modellen, som først ble introdusert i ChatGPT, er nå tilgjengelig for utviklere og kan generere høyoppløselige bilder på tvers av stilarter og nøyaktig gjengi tekst.

OpenAI har også vist hvordan AI kan forbedre helsetjenester. Et studie utført sammen med Penda Health i Kenya undersøkte en AI‑assistent for klinikere. Assistenter basert på GPT‑4o ga anbefalinger under konsultasjoner og reduserte diagnostiske feil med 16 % og behandlingsfeil med 13 % sammenlignet med kontroller. Studien viser at korrekt implementering og opplæring er nødvendig for at AI‑verktøy skal tas i bruk i klinisk praksis.

Hva betyr dette?

Konkurransen mellom Google og OpenAI har ført til en flom av nye AI‑løsninger i 2025. Google satser på å integrere AI i eksisterende tjenester som søk, bilder og videoer, samtidig som de tilbyr nye verktøy for skapere og forskere. OpenAI fokuserer på stadig kraftigere modeller og agent‑funksjoner som lar ChatGPT handle i den virkelige verden.

For brukerne betyr dette mer avanserte generative verktøy, bedre multimodal støtte og mer personaliserte opplevelser. Samtidig reiser det spørsmål om personvern, sikkerhet og etisk bruk. De kommende månedene vil vise hvordan disse løsningene tas imot og hvilke nye innovasjoner som venter.

Legg igjen en kommentar