Zoeken

Anthropic haalt 30 miljard $ op, GPT-5.3-Codex-Spark op Cerebras, Gemini 3 Deep Think

Anthropic haalt 30 miljard $ op, GPT-5.3-Codex-Spark op Cerebras, Gemini 3 Deep Think

Uitzonderlijke dag in AI: Anthropic kondigt een fondsenwerving aan van 30 miljard dollar waardoor de waardering stijgt naar 380 miljard, OpenAI rolt een real-time coding model uit met 1000+ tokens/seconde op Cerebras, en Google duwt Gemini 3 Deep Think naar nieuwe records in wetenschappen. Aan de ecosysteemkant herstructureert xAI zijn teams rond 4 producten, investeert Mistral 1,2 miljard euro in Zweden, en schort GitHub tijdelijk GPT-5.3-Codex op vanwege betrouwbaarheidsredenen.


Anthropic haalt 30 miljard $ op in Series G

12 februari — Anthropic kondigt een Series G fondsenwerving aan van 30 miljard dollar, wat de post-money waardering van het bedrijf op 380 miljard dollar brengt. De ronde wordt mede geleid door GIC en Coatue, met deelname van D. E. Shaw Ventures, Dragoneer, Founders Fund, ICONIQ en MGX. De lijst met extra investeerders omvat onder andere Sequoia Capital, BlackRock, Goldman Sachs, Fidelity, Microsoft en NVIDIA.

MetriekWaarde
Opgehaald bedrag30 miljard $
Post-money waardering380 miljard $
Geannualiseerde omzet (run-rate)14 miljard $
Jaarlijkse groei10x per jaar (laatste 3 jaar)
Klanten >100k$/jaarGroei van 7x in één jaar
Enterprise klanten >1M$/jaarMeer dan 500 (vs 12 twee jaar geleden)
Fortune 10 klanten8 van de 10
Run-rate Claude Code2,5 miljard $ (verdubbeld sinds januari 2026)
Wekelijkse gebruikers Claude Code2x sinds 1 januari 2026
GitHub commits via Claude Code4% (verdubbeld in 1 maand)
Business abonnementen Claude Code4x sinds begin 2026
Zakelijk aandeel Claude Code>50% van de Claude Code omzet

De fondsen zullen worden gebruikt voor fundamenteel onderzoek, productontwikkeling en uitbreiding van de infrastructuur. Claude blijft het enige frontier AI-model dat beschikbaar is op de drie grote cloudplatforms: AWS (Bedrock), Google Cloud (Vertex AI) en Microsoft Azure (Foundry). Anthropic traint en draait Claude op een divers scala aan AI-hardware (AWS Trainium, Google TPUs, NVIDIA GPUs).

This fundraising reflects the incredible demand we are seeing from these customers, and we will use this investment to continue building the enterprise-grade products and models they have come to depend on.

🇳🇱 Deze fondsenwerving weerspiegelt de ongelooflijke vraag die we van deze klanten zien, en we zullen deze investering gebruiken om door te gaan met het bouwen van de enterprise-grade producten en modellen waarvan ze afhankelijk zijn geworden. — Krishna Rao, CFO van Anthropic (@AnthropicAI op X)

🔗 Officiële aankondiging


GPT-5.3-Codex-Spark: real-time model op Cerebras

12 februari — OpenAI lanceert GPT-5.3-Codex-Spark in research preview, een real-time coding model geoptimaliseerd voor ultrasnelle inferentie op de Cerebras Wafer-Scale Engine 3. Dit is het eerste OpenAI-model dat wordt ingezet op niet-NVIDIA hardware.

Codex-Spark is een compacte versie van GPT-5.3-Codex, ontworpen voor interactief werk waarbij latentie net zo belangrijk is als intelligentie: gerichte bewerkingen, logica refactoring, aanpassing van interfaces met onmiddellijke feedback.

SpecificatieDetail
Tokens/seconde> 1.000 (vs 50-100 voor standaardmodellen)
Contextvenster128k tokens
FormaatAlleen tekst (multimodaal later gepland)
Reductie overhead client/server80% (Persistente WebSocket)
Reductie overhead per token30%
Reductie time-to-first-token50%

Het model draait op de Cerebras Wafer-Scale Engine 3, een monolithische processor die rekenkracht nauw gekoppeld houdt voor high-throughput inferentie. Deze lancering markeert de eerste stap van de OpenAI-Cerebras samenwerking aangekondigd in januari 2026.

Codex-Spark is beschikbaar in research preview voor ChatGPT Pro abonnees, in de nieuwste versies van de Codex app, CLI en VS Code extensie. API-toegang is beperkt tot geselecteerde partners, met bredere uitrol gepland.

Op SWE-Bench Pro en Terminal-Bench 2.0 toont het model solide prestaties door taken te voltooien in een fractie van de tijd vergeleken met GPT-5.3-Codex. Aparte snelheidslimieten zijn van toepassing tijdens de research preview fase.

Op termijn zal Codex twee complementaire modi bieden: lange-horizon redeneren (autonome taken van meerdere uren/dagen) en real-time samenwerking (snelle iteratie). Beide modi kunnen worden gecombineerd, met delegatie van lange taken aan sub-agenten op de achtergrond.

🔗 Officiële aankondiging


Gemini 3 Deep Think: recordscores in wetenschappen

12 februari — Google kondigt een grote update aan voor Gemini 3 Deep Think, zijn gespecialiseerde redeneermodus. Het model is nu ontworpen om concrete uitdagingen in wetenschap, onderzoek en engineering op te lossen, voorbij abstracte theorie.

Deep Think is bijgewerkt in nauwe samenwerking met wetenschappers en onderzoekers. Het doel is om complexe onderzoeksproblemen aan te pakken, waar data vaak rommelig of onvolledig zijn en waar geen enkele oplossing bestaat. Het model combineert diepe wetenschappelijke kennis en nut in engineering.

Record Benchmarks

BenchmarkScoreOpmerking
Humanity’s Last Exam48,4% (zonder tools)Nieuwe standaard voor frontier modellen
ARC-AGI-284,6%Geverifieerd door de ARC Prize Foundation
CodeforcesElo 3455Competitief programmeren
IMO 2025Gouden MedailleInternationale Wiskunde Olympiade
IPhO 2025 (schriftelijk)Gouden MedailleInternationale Natuurkunde Olympiade
IChO 2025 (schriftelijk)Gouden MedailleInternationale Scheikunde Olympiade
CMT-Benchmark50,5%Geavanceerde Theoretische Natuurkunde

Real-world Use Cases

  • Wiskunde (Lisa Carbone, Rutgers University): Deep Think identificeerde een subtiele logische fout in een zeer technisch wiskundig artikel, die aan menselijke peer review was ontsnapt. Ze werkt aan wiskundige structuren die nodig zijn voor hoge-energiefysica.
  • Materiaalwetenschap (Wang Lab, Duke University): Optimalisatie van productiemethoden voor de groei van complexe kristallen, kandidaten voor halfgeleidermaterialen. Deep Think ontwierp een recept om dunne films van meer dan 100 micrometer te laten groeien.
  • Werktuigbouwkunde (Anupam Pathak, Google Platforms & Devices): Iteratie op fysieke prototypes met de snelheid van software. Mogelijkheid om een schets om te zetten in een 3D-printbaar object (STL-bestandsgeneratie).

Gemini 3 Deep Think is vanaf vandaag beschikbaar voor Google AI Ultra abonnees in de Gemini app, en voor het eerst via de API in early access voor onderzoekers, ingenieurs en bedrijven.

🔗 Officiële aankondiging


xAI herstructurering: 4 teams en Macrohard

11 februari — xAI publiceert een 45 minuten durende all-hands op X, waarin een grote herstructurering van het bedrijf wordt onthuld na het vertrek van de helft van de mede-oprichters (6 van de 12). De laatste vertrekken zijn die van Tony Wu en Jimmy Ba.

Elon Musk kondigt de reorganisatie van xAI aan in 4 hoofdteams:

TeamFocusLeider
GrokChatbot + stem-
CodingApplicatiecode systeem-
ImagineVideo generatie-
MacrohardComputersimulatie → bedrijvenToby Pohlen

Macrohard is het meest ambitieuze project: volgens Toby Pohlen is het systeem “in staat om alles te doen wat een computer op een computer kan doen”. De ambitie reikt tot het ontwerp van raketmotoren door AI.

Belangrijke aangekondigde metrieken

  • X heeft 1 miljard USD aan jaarlijkse terugkerende inkomsten (abonnementen) overschreden
  • Imagine genereert 50 miljoen video’s per dag
  • Meer dan 6 miljard afbeeldingen in de laatste 30 dagen

Musk’s interplanetaire visie reikt van orbitale datacenters tot maanbases. Deze aankondigingen komen na de overname van xAI door SpaceX (2 februari) en het vertrek van 6 mede-oprichters van de 12 in het afgelopen jaar (Kyle Kosic naar OpenAI, Christian Szegedy, Igor Babuschkin, Greg Yang, Tony Wu, Jimmy Ba).

🔗 TechCrunch Artikel


Mistral investeert 1,2 miljard EUR in Zweden

11 februari — Mistral AI kondigt een investering aan van 1,2 miljard euro (1,4 miljard USD) om AI-infrastructuur te bouwen in Zweden, in samenwerking met EcoDataCenter. Dit is Mistral’s eerste AI-infrastructuurinvestering buiten Frankrijk.

Het datacenter zal gevestigd zijn in Borlänge (Zweden) op de EcoDataCenter-site, met een geplande opening in 2027. De faciliteit zal 23 megawatt aan rekenkracht leveren en de nieuwste generatie NVIDIA Vera Rubin GPU’s huisvesten.

DetailWaarde
Bedrag1,2 mld EUR / 1,4 mld USD
PartnerEcoDataCenter
LocatieBorlänge, Zweden
Opening2027
Capaciteit23 MW
GPUNVIDIA Vera Rubin
Geprojecteerde omzet2 mld EUR over 5 jaar

Arthur Mensch, CEO van Mistral AI, verklaarde dat deze investering “een concrete stap is naar het bouwen van onafhankelijke capaciteiten in Europa, toegewijd aan AI”. De keuze voor Zweden wordt verklaard door de toegang tot schone en relatief goedkope energie. Het doel is om een volledig Europese AI-stack te leveren — ontworpen, gebouwd en beheerd over de hele AI-waardeketen, met data lokaal verwerkt en opgeslagen in Europa.

🔗 Tech.eu Artikel


Qwen-Image-2.0: verenigde beeldgeneratie en -bewerking

10 februari — Alibaba lanceert Qwen-Image-2.0, een next-generation foundation model voor beeldgeneratie dat text-to-image generatie en beeldbewerking verenigt in één architectuur.

Belangrijke wijzigingen ten opzichte van v1:

  • Verenigde architectuur generatie + bewerking (voorheen aparte modellen)
  • Compacter model: 7B parameters (tegen 20B voor v1)
  • Verbeterde tekstweergave met prompt ondersteuning tot 1K tokens
  • Native 2K resolutie (2048x2048)
BenchmarkQwen-Image-2.0FLUX.1
DPG-Bench88,3283,84
AI Arena (blind eval)#1-

Het model blinkt uit in het weergeven van tekst in Chinees en Engels over verschillende formaten: infographics, posters, kalligrafie, bewegwijzering. Qwen-Image-2.0 is beschikbaar in API-test op het Alibaba Cloud BaiLian platform en gratis via Qwen Chat (chat.qwen.ai).

🔗 Officiële aankondiging


Deep Research gaat over naar GPT-5.2

10 februari — OpenAI update ChatGPT Deep Research met het GPT-5.2 model, ter vervanging van de vorige o3 en o4-mini versies. De update brengt app-verbindingen, zoeken op specifieke sites en real-time controles.

FunctionaliteitDetail
ModelGPT-5.2 (vervangt o3 / o4-mini)
App-verbindingenGmail, Google Calendar, Google Contacts + elke MCP
Gerichte zoekopdrachtBeperking tot specifieke sites en vertrouwde bronnen
Real-time controlesVoortgangsmonitoring, onderbreking en omleiding tijdens uitvoering
OnderzoeksplanAan te maken en te bewerken voor start
InterfaceVernieuwde zijbalk + volledig scherm rapportweergave
ExportPDF en DOCX

Gebruikers kunnen nu Deep Research verbinden met elke MCP-server of applicatie, en webzoekopdrachten beperken tot vertrouwde sites voor nauwkeurigere en geloofwaardigere rapporten. Apps werken in alleen-lezen modus als betrouwbare bronnen.

De uitrol begon op 10 februari voor Plus en Pro gebruikers, met Free en Go gebruikers volgend in de komende dagen.

🔗 Officiële aankondiging


ChatGPT sluit zich aan bij Pentagon’s GenAI.mil

10 februari — OpenAI kondigt de uitrol aan van een aangepaste versie van ChatGPT op GenAI.mil, het enterprise AI-platform van het Amerikaanse Ministerie van Defensie. ChatGPT voegt zich bij Google Gemini (gelanceerd in december 2025) en xAI Grok (toegevoegd eind december 2025) op het platform.

DetailWaarde
PlatformGenAI.mil (DoD)
Potentiële gebruikers~3 miljoen (militairen, burgers, aannemers)
Actieve platformgebruikers1,1 miljoen uniek sinds lancering
ClassificatieAlleen niet-geclassificeerde data
InfrastructuurGeautoriseerde overheidscloud
Data-isolatieData geïsoleerd, niet gebruikt om OpenAI-modellen te trainen

De use cases omvatten synthese en analyse van beleidsdocumenten, opstellen van inkoopmateriaal, genereren van interne rapporten en compliance checklists, en assistentie bij onderzoek en planning.

🔗 Officiële aankondiging


ElevenLabs for Government

11 februari — ElevenLabs lanceert ElevenLabs for Government, een initiatief gewijd aan de publieke sector aangekondigd op de ElevenLabs Summit in Londen. Dit platform biedt spraak- en chat AI-agenten ontworpen voor overheidsorganisaties, 24/7 beschikbaar, in meerdere talen, via telefoon, chat, e-mail en WhatsApp.

Het platform richt zich op drie doelen:

  • Toegankelijkheid en inclusie: meertalige omnichannel agenten in staat om verzoeken van burgers direct op te lossen
  • Efficiëntie en productiviteit: automatisering van contacten met hoog volume en vermindering van doorverbindingen tussen diensten
  • Vertrouwen en betrokkenheid: verbetering van de toegang tot communicatie in lijn met openbaar beleid
ImplementatieDetails
TsjechiëNationale hotlines werkgelegenheid en uitkeringen, ~5.000 oproepen/dag, 85% autonome oplossing
OekraïneDigitale tweeling van een hoge functionaris + openbare diensten, in samenwerking met het Ministerie van Digitale Transformatie
Midland, Texas (VS)Burgerlijke spraakconciërge “Jacky”, geschatte vermindering van 7.000 gemiste oproepen/maand

Het platform is SOC 2 Type 2, GDPR, CPRA en HIPAA gecertificeerd om te voldoen aan de beveiligingseisen van de publieke sector.

🔗 Officiële aankondiging


Anthropic dekt elektriciteitsprijsstijgingen

11 februari — Anthropic kondigt aan dat het elektriciteitsprijsstijgingen voor consumenten veroorzaakt door zijn datacenters zal dekken. Het bedrijf doet vier concrete toezeggingen:

ToezeggingDetail
NetinfrastructuurkostenDekking van 100% van de kosten voor aansluiting op het net
Nieuwe energieproductieInbedrijfstelling van nieuwe opwekkingscapaciteiten aangepast aan de behoeften
Vermindering netdrukInvestering in systemen voor vermindering van verbruik tijdens pieken
GemeenschapsinvesteringCreatie van honderden permanente banen en duizenden bouwbanen

🔗 Officiële aankondiging


Anthropic doneert 20 miljoen $ voor AI-regulering

12 februari — Anthropic kondigt een donatie aan van 20 miljoen dollar aan Public First Action, een nieuwe tweepartijdige 501(c)(4) organisatie in de VS. Het doel is om burgers en beleidsmakers te mobiliseren rond AI-kwesties in het algemeen belang.

De tweet van Anthropic benadrukt dat AI sneller wordt geadopteerd dan enige technologie in de geschiedenis, en dat het venster om openbaar beleid goed te krijgen sluit.

🔗 Aankondiging op X


Claude Code Desktop: lokale plugins en marketplace

11 februari — Boris Cherny (lead Claude Code bij Anthropic) publiceert een thread waarin wordt gedetailleerd wat ingenieurs geweldig vinden aan Claude Code: de aanpasbaarheid. Hij noemt hooks, plugins, LSPs, MCPs, skills, inspanning, custom agents, statusregels, outputstijlen als aanpassingsmechanismen.

Tegelijkertijd kondigt Lydia Hallie aan dat Claude Code op desktop nu lokale plugins ondersteunt. Gebruikers kunnen aangepaste slash-commando’s, skills en MCP-servers installeren vanaf de marketplace, met automatische synchronisatie tussen desktop en CLI.

🔗 Thread Boris Cherny


GitHub Mobile: Model Picker voor Copilot

11 februari — GitHub voegt een modelkeuze toe aan de Copilot Coding Agent in de GitHub Mobile app, op iOS en Android.

Copilot Pro en Pro+ gebruikers kunnen nu het AI-model kiezen dat hun coding agent sessies aandrijft direct vanaf hun telefoon, zonder naar de desktop te hoeven overschakelen.

Beschikbaar ModelUitgever
Auto (standaard — optimaliseert snelheid en prestaties)GitHub
Claude Opus 4.5Anthropic
Claude Opus 4.6Anthropic
Claude Sonnet 4.5Anthropic
GPT-5.1-Codex-MaxOpenAI
GPT-5.2-CodexOpenAI

De Auto modus selecteert automatisch een model om snelheid en prestaties te optimaliseren op basis van beschikbaarheid. De functionaliteit is vanaf nu beschikbaar voor Copilot Pro en Pro+ abonnees. Business en Enterprise ondersteuning komt binnenkort. Let op: GPT-5.3-Codex, GA gemaakt op 9 februari, staat nog niet in de mobiele lijst.

🔗 GitHub Changelog


GitHub schort GPT-5.3-Codex op (betrouwbaarheid)

10 februari — GitHub kondigt de tijdelijke opschorting aan van de uitrol van GPT-5.3-Codex in GitHub Copilot vanwege redenen van systeembetrouwbaarheid, slechts één dag na de aankondiging van de algemene beschikbaarheid.

De tweet, die in reactie de aankondiging van 9 februari over de GPT-5.3-Codex GA citeert, genereerde 357.500 weergaven en 1.000 likes, wat getuigt van de impact op de ontwikkelaarsgemeenschap. Verschillende gebruikers meldden problemen met de beschikbaarheid van de dienst in de reacties.

Het feit dat het model nog niet voorkomt in de lijst van de Mobile Model Picker (aangekondigd op 11 februari) zou verband kunnen houden met deze opschorting.

🔗 Aankondiging op X


Manus lanceert Project Skills

12 februari — Manus (nu onder Meta) lanceert Project Skills, een functionaliteit waarmee toegewijde vaardigheidsbibliotheken per project kunnen worden gecreëerd.

Elk project kan een set vaardigheden samenstellen die zijn geselecteerd uit “Team Skills” pools of persoonlijke collecties. Het idee: een standaard projectmap transformeren in een intelligente en autonome werkruimte.

FunctionaliteitBeschrijving
Bibliotheken per projectSamenstelling van aangepaste toolkits uit team- of persoonlijke pools
Ingesloten workflowsAlleen vaardigheden die expliciet aan het project zijn toegevoegd kunnen worden geactiveerd
Vergrendelde workflowsBeheerders kunnen de vaardighedenset vergrendelen om processen te standaardiseren

De benadrukte voordelen: snellere onboarding, schalen van individuele expertise naar de organisatie, en opbouwen van “institutionele kennis” die in de loop van de tijd verbetert. Onmiddellijk beschikbaar voor alle Manus gebruikers.

🔗 Officiële aankondiging


Gemini CLI v0.28.0 + Extension Settings

10-11 februari — Google brengt versie 0.28.0 van Gemini CLI uit en kondigt Extension Settings aan, een nieuwe functionaliteit om de configuratie van extensies te vereenvoudigen.

Gemini CLI v0.28.0 (10 februari)

NieuwigheidDetail
Commando /prompt-suggestNieuw slash commando voor prompt suggesties
Automatisch themaAanpassing gebaseerd op terminal achtergrond
IDE compatibiliteitOndersteuning toegevoegd voor Positron IDE
Verbeterde OAuthInteractieve en niet-interactieve OAuth toestemming
Checklist componentComponent voor gestructureerd taakbeheer in plan modus
Sub-agentenDynamische beleidsregistratie voor sub-agenten
Uitvoering op achtergrondShell commando’s op achtergrond

Extension Settings (11 februari)

Gemini CLI extensies kunnen nu configuratieparameters definiëren die gebruikers opgeven bij installatie. Automatische setup met interactieve prompts, ingebouwde beveiliging (gevoelige data zoals API-sleutels worden opgeslagen in de systeem keychain), en centraal beheer via gemini extensions config. Data Cloud extensies (BigQuery, Cloud SQL, Firestore, Looker, Spanner) implementeren deze functionaliteit al.

🔗 Officiële aankondiging


AI Shopping in Google Search en Gemini

11 februari — Google kondigt de integratie aan van winkelfuncties direct in zijn AI-producten — Search AI Mode en de Gemini chatbot.

Gebruikers kunnen nu Etsy en Wayfair artikelen direct in de Gemini chatbot kopen. Direct Offers, een nieuwe functie in AI Mode, stelt merken in staat om kortingen aan te bieden aan potentiële kopers. Nieuwe advertentieformaten worden getest in AI Mode van Search voor retailers.

Google werkt samen met Walmart, Target en Shopify aan een checkout protocol waarmee consumenten hun aankopen direct binnen de AI-producten van Google kunnen afronden.

🔗 PYMNTS Artikel


GTIG Rapport: Distillatie-aanvallen op Gemini

12 februari — De Google Threat Intelligence Group (GTIG) publiceert een rapport waarin wordt onthuld dat Gemini doelwit is geweest van distillatie-aanvallen — massale kloonpogingen via herhaalde prompts.

Een campagne diende meer dan 100.000 prompts in bij Gemini voordat deze werd gedetecteerd. De aanvallen waren specifiek gericht op de redeneeralgoritmen van Gemini. De aanvallers zijn voornamelijk particuliere bedrijven en onderzoekers die op zoek zijn naar een concurrentievoordeel.

Google’s systemen detecteerden de activiteit in real-time en pasten de beschermingen aan. Google beschouwt distillatie als diefstal van intellectueel eigendom.

🔗 NBC News Artikel


Codex CLI v0.99.0: gelijktijdige shell uitvoering

11 februari — OpenAI brengt Codex CLI v0.99.0 uit met gelijktijdige shell uitvoering, een configureerbare statusregel, en toegewijde app-server API’s.

FunctionaliteitDetail
Gelijktijdige shell uitvoeringDirecte shell commando’s blokkeren niet langer een lopende beurt
/statuslineInteractieve metadata configuratie in de TUI voettekst
Adaptieve resume pickerNieuwe selectie om sessies te hervatten
App-server API’sToegewijde API’s voor applicatie-integratie
Admin controlsAdmin controles voor web search en netwerken
AfbeeldingenGIF/WebP ondersteuning
SnapshottingOmgeving snapshotting
Steer modeStabiel en actief als standaard (Enter verzendt, Tab zet in wachtrij)

De npm verpakking is herzien: platform-specifieke binaries worden gedistribueerd via @openai/codex dist-tags, wat de pakketgrootte vermindert.

🔗 Codex CLI Changelog


Qwen Chat AI Slides

12 februari — Qwen kondigt de aanstaande komst aan van AI Slides in Qwen Chat. De functionaliteit maakt het mogelijk om verschillende soorten documenten om te zetten in presentaties: project docs → meeting slides, paper → oral deck, product info → sales deck, topic → teaching deck.

De functionaliteit is gebouwd met Qwen Agent + Qwen-Image 2.0 (het beeldmodel dat enkele dagen eerder werd gelanceerd). Chen Cheng demonstreerde het vermogen om academische papers in enkele minuten om te zetten in mondelinge presentaties, met een geïntegreerde zoekagent.

🔗 Aankondiging op X


Wat dit betekent

De fondsenwerving van 30 miljard dollar van Anthropic tegen een waardering van 380 miljard bevestigt de dominantie van frontier modellen in de AI-economie. De jaarlijkse run-rate van 14 miljard dollar en het aandeel van 2,5 miljard gegenereerd door Claude Code laten zien dat AI-ondersteund coderen een kritieke infrastructuur is geworden voor ontwikkelaars en bedrijven.

De komst van GPT-5.3-Codex-Spark op Cerebras markeert een keerpunt in de diversificatie van AI-hardware buiten NVIDIA. Inferentie met 1000+ tokens/seconde verandert de aard van de interactie met codemodellen, waardoor vloeiende real-time samenwerking mogelijk wordt.

Gemini 3 Deep Think met zijn gouden medailles op wetenschapsolympiades en zijn score van 84,6% op ARC-AGI-2 toont aan dat frontier modellen een niveau van wetenschappelijk redeneren beginnen te bereiken dat vergelijkbaar is met de beste mensen in gespecialiseerde velden.

De herstructurering van xAI in 4 teams met Macrohard — gericht op het doen van “alles wat een computer kan doen” — en de enorme investering van Mistral in Europa laten zien dat de race om AI-infrastructuur wereldwijd versnelt. De opschorting van GPT-5.3-Codex door GitHub herinnert er echter aan dat betrouwbaarheid een grote uitdaging blijft voor grootschalige uitrol.


Bronnen