OpenAI ritira GPT-4o. Tre giorni fa, il 13 febbraio, OpenAI ha ritirato definitivamente GPT-4o da ChatGPT, mettendo fine al percorso di uno dei modelli più utilizzati — e più discussi — della sua storia recente. L’annuncio era arrivato poche settimane prima: a fine gennaio l’azienda aveva comunicato che il sistema sarebbe stato dismesso dall’interfaccia del prodotto insieme ad altre versioni considerate ormai superate, tra cui GPT-4.1, GPT-4.1 mini e o4-mini.

E così, il 13 febbraio GPT-4o ha smesso di comparire tra le opzioni selezionabili dagli utenti ChatGPT. Nessun cambiamento, invece, sul fronte API: il ritiro riguarda l’esperienza d’uso consumer e conversazionale, non l’impiego del modello in contesti di sviluppo e integrazione.

La decisione arriva al termine di un percorso già avviato nei mesi precedenti. OpenAI aveva tentato una prima dismissione nel 2025, salvo poi ripristinare rapidamente l’accesso dopo le proteste degli utenti più affezionati. Da allora il modello era rimasto disponibile, ma sempre meno centrale rispetto alle nuove generazioni.

È in questo quadro che si inserisce la scelta definitiva: la chiusura di una fase che aveva visto GPT-4o contribuire in modo significativo alla crescita di ChatGPT, ma anche accumulare nel tempo criticità tecniche, comportamentali e regolatorie destinate a pesare sulle strategie future della società.

Ma che cos’era, esattamente, GPT-4o?

Rilasciato da OpenAI nel 2024, GPT-4o — dove la “o” stava per omni — era il primo modello progettato fin dall’origine per un’interazione nativamente multimodale. Non solo testo, ma voce, immagini e video potevano essere gestiti all’interno dello stesso flusso conversazionale, con tempi di risposta significativamente più rapidi rispetto alle generazioni precedenti.

Il modello aveva segnato un passaggio importante nell’evoluzione di ChatGPT per tre ragioni. La prima riguardava la latenza: GPT-4o era stato ottimizzato per dialoghi in tempo reale, rendendo più fluida l’interazione vocale. La seconda era la convergenza delle modalità: anziché integrare modelli separati per testo, visione e audio, 4o operava su un’unica architettura. La terza era il posizionamento prodotto: per mesi è stato il modello di riferimento nell’esperienza standard di ChatGPT, utilizzato tanto in ambito consumer quanto in scenari professionali leggeri.

Questa combinazione di accessibilità, velocità e capacità conversazionale lo aveva reso uno dei modelli più popolari della piattaforma, contribuendo in modo significativo alla crescita della base utenti tra il 2024 e il 2025 — ed è anche ciò che spiega l’impatto del suo ritiro. 

OpenAI ritira GPT-4o: i perché di un abbandono

Ma proprio su questo passaggio — la rimozione di un modello che per molti utenti era diventato uno standard di interazione —si innesta il resto di una storia un po’ più complessa. Da un lato, il ritiro riflette la trasformazione strutturale dell’industria dell’AI generativa: meno sperimentazione relazionale, più pressione economica, maggiore attenzione regolatoria e un confronto sempre più serrato sul terreno del capitale e dell’infrastruttura. Dall’altro, la decisione arriva dopo mesi di polemiche e tentativi di deprecazione già sperimentati e poi ricalibrati, in un contesto segnato da criticità etiche, cause legali, tensioni crescenti con partner di riferimento, Microsoft in primis, e competizione in accelerazione da parte di Anthropic. 

Va detto che la motivazione ufficiale è di natura evolutiva: concentrare le risorse sui modelli più recenti.

Come si legge nel comunicato ufficiale, “Retiring models is never easy, but it allows us to focus on improving the models most people use today.” “Mandare in pensione i modelli non è mai facile, ma consente di concentrarsi su quelli che la maggior parte delle persone utilizza oggi.”
Nella nota OpenAI spiega anche che GPT-4o era ormai utilizzato in modo continuativo da una quota marginale della base utenti — circa lo 0,1%.

Tuttavia, la bassa adozione non basta a spiegare il ritiro. 
E in molti, a partire da Wall Street Journal, sottolineano che il modello era diventato controverso proprio per la sua natura relazionale:
ChatGPT’s 4o model was beloved by many users, but controversial for its sycophancy and real-world harms linked to some conversations.” “Il modello 4o era amato da molti utenti, ma controverso per la sua adulazione e per i danni reali correlati ad alcune conversazioni.”

OpenAI ritira GPT-4o: il nodo della “sycophancy” e i rischi psico-comportamentali

GPT-4o era stato progettato per essere più empatico e coinvolgente rispetto ai modelli precedenti. Una scelta che aveva contribuito ad accelerare la crescita consumer di ChatGPT, rendendo l’interazione più naturale e relazionale, ma che nel tempo ha aperto anche interrogativi di natura etica e comportamentale.
Come osserva sempre Wall Street Journal: “At the core, 4o’s popularity and its potential for harm appear to stem from the same quality: its humanlike propensity to build emotional connections with users.” “Alla base della sua popolarità — e del suo potenziale dannoso — c’è la propensione a costruire connessioni emotive con gli utenti.”
Proprio questa capacità di costruire un legame conversazionale stretto tendeva, in molti casi, a tradursi in risposte fortemente allineate all’interlocutore, con una marcata tendenza a validarne opinioni e stati emotivi, a rafforzarne convinzioni già espresse e a prolungare l’interazione nel tempo. Una dinamica che, se da un lato aumentava il livello di engagement, dall’altro esponeva il modello al rischio di derive relazionali eccessive o difficili da governare.

Con il tempo, la questione ha superato il piano puramente teorico. Diversi ricercatori e osservatori del settore hanno iniziato a segnalare come la forte capacità di coinvolgimento conversazionale del modello potesse tradursi in forme di dipendenza relazionale, soprattutto tra gli utenti che ne facevano un uso continuativo o emotivamente orientato. La facilità con cui GPT-4o riusciva a mantenere viva l’interazione — adattandosi al tono, allo stato d’animo e alle convinzioni dell’interlocutore — è stata letta da alcuni esperti come un fattore di rischio, in grado di rafforzare dinamiche di isolamento o di validazione acritica.

Nel frattempo, il tema è entrato anche nel perimetro legale. Negli Stati Uniti sono state avviate diverse azioni giudiziarie che chiamano in causa OpenAI in relazione a conversazioni avute con il chatbot, in casi che includono crisi psicologiche, tentativi di suicidio o episodi di grave instabilità mentale. Alcune di queste cause sono state accorpate in sede federale, contribuendo ad alzare il livello di attenzione pubblica e regolatoria attorno all’impatto comportamentale dei sistemi generativi.

E probabilmente proprio in ragione di tutte queste criticità, all’interno dell’azienda si è progressivamente consolidata la convinzione che il modello fosse complesso da governare sotto il profilo della sicurezza conversazionale. La difficoltà non riguardava solo i singoli output, ma la dinamica relazionale complessiva che GPT-4o tendeva a instaurare con una parte della sua utenza — un elemento che ha pesato nella decisione di accelerarne il ritiro.

OpenAI ritira GPT-4o: tra dipendenza emotiva e responsabilità della piattaforma

Tuttavia, va detto che nonostante le criticità emerse nel tempo, GPT-4o aveva sviluppato una base di utenti estremamente fidelizzata. Per molti, il modello non era soltanto uno strumento di produttività o di ricerca informativa, ma uno spazio conversazionale continuativo, utilizzato per riflessioni personali, elaborazione emotiva e attività creative. La qualità del dialogo, la memoria contestuale e la capacità di adattarsi al tono dell’interlocutore avevano contribuito a trasformarlo, per una parte della sua utenza, in un interlocutore stabile più che in un semplice assistente digitale.

È proprio questa dimensione relazionale ad aver alimentato le critiche più forti nei confronti di OpenAI. Alcuni osservatori hanno parlato di un rilascio tecnologico troppo rapido rispetto alla maturità dei presidi di sicurezza, mentre altri hanno evidenziato come l’architettura conversazionale del modello fosse progettata per massimizzare il coinvolgimento, con il rischio di privilegiare la continuità dell’interazione rispetto alla gestione dei casi più sensibili.

Il risultato è stato un dibattito crescente sulla responsabilità delle piattaforme generative nel momento in cui l’uso esce dal perimetro funzionale — scrittura, coding, ricerca — per entrare in quello emotivo e psicologico, molto più complesso da governare.

OpenAI ritira GPT-4o: ma la vera questione è il costo industriale dell’AI

Va detto anche che dietro quella che possiamo definire narrativa comportamentale si muove una questione ancora più strutturale: la sostenibilità economica dei foundation model. Allenare e gestire sistemi di frontiera richiede oggi livelli di investimento infrastrutturale senza precedenti. L’addestramento avviene su cluster di GPU operanti su scala hyperscale, con volumi di calcolo che implicano l’elaborazione di trilioni di token e cicli di training estremamente prolungati. A questo si aggiungono i costi energetici, le architetture di networking ad alta banda, i sistemi di raffreddamento e la costruzione — o l’affitto — di data center progettati specificamente per workload di intelligenza artificiale.

OpenAI ha intrapreso negli ultimi anni una traiettoria di espansione computazionale tra le più aggressive del settore, assumendo impegni infrastrutturali di lunghissimo periodo necessari a sostenere l’evoluzione dei propri modelli. In questo scenario, il confronto competitivo non si gioca più soltanto sulla qualità degli output, ma sulla capacità di assicurarsi risorse critiche: accesso prioritario ai chip di ultima generazione, potenza di calcolo concentrata in cluster di training sempre più estesi, partnership cloud strategiche e un flusso continuo di capitali in grado di finanziare cicli di sviluppo sempre più costosi.

Ed è qui che entrano in gioco partner come Microsoft e competitor come Anthropic.

OpenAI e le tensioni crescenti con Microsoft

Microsoft resta, almeno formalmente, il principale partner industriale di OpenAI: i modelli della società guidata da Sam Altman continuano ad alimentare gran parte dell’offerta AI del gruppo di Redmond, dai Copilot integrati in Microsoft 365 fino agli strumenti sviluppatore. Negli ultimi mesi, però, l’equilibrio della relazione ha iniziato a cambiare.

Un segnale esplicito è arrivato da Mustafa Suleyman, responsabile della divisione Microsoft AI, che in un’intervista rilasciata al Financial Times ha delineato con chiarezza la traiettoria strategica dell’azienda. Microsoft, ha spiegato, sta lavorando alla costruzione di modelli proprietari di nuova generazione, sviluppati internamente e addestrati su infrastrutture su larga scala, con l’obiettivo di ridurre nel tempo la dipendenza tecnologica da partner esterni.

We have to develop our own foundation models, which are at the absolute frontier.” “Dobbiamo sviluppare i nostri foundation model, all’assoluta frontiera tecnologica.”

Queste dichiarazioni si inseriscono in una fase di ridefinizione degli accordi tra le due società, che negli ultimi anni hanno allentato alcuni vincoli di esclusività. Da un lato OpenAI ha ottenuto maggiore libertà nel reperire capacità computazionale anche presso altri fornitori cloud; dall’altro Microsoft ha iniziato a diversificare le proprie scommesse, investendo in laboratori alternativi e accelerando lo sviluppo di tecnologie interne. Un riequilibrio che non interrompe la partnership, ma che di fatto trasforma l’alleato storico in un potenziale concorrente diretto sul terreno dei foundation model.

La dimensione finanziaria dell’impegno di Microsoft

La stessa intervista consente di leggere anche la dimensione economica dello sforzo in atto. Microsoft ha infatti previsto per l’anno fiscale in corso un livello di investimenti in conto capitale senza precedenti, destinato in larga parte alla costruzione e all’espansione dell’infrastruttura necessaria a sostenere i carichi di lavoro dell’intelligenza artificiale. Si parla di decine di miliardi di dollari destinati a data center, capacità di calcolo, networking e sistemi energetici, in una corsa infrastrutturale che coinvolge ormai tutti i grandi hyperscaler.

Una scala di spesa che riflette l’aumento esponenziale dei costi di training e inferenza dei modelli di nuova generazione, ma che al tempo stesso alimenta interrogativi tra investitori e analisti sulla sostenibilità dei ritorni economici nel medio periodo. Il mercato osserva con attenzione la velocità con cui questi investimenti riusciranno a tradursi in ricavi effettivi, mentre prende forma il dibattito su una possibile sovra-capacità infrastrutturale legata all’AI, con il rischio che l’attuale ciclo espansivo anticipi la domanda reale.

Anthropic: il concorrente che cresce mentre OpenAI ristruttura

Se il ritiro di GPT-4o racconta una fase di transizione interna a OpenAI, è osservando i movimenti dei concorrenti che si misura la portata industriale di questo passaggio. Tra questi, Anthropic è probabilmente il player che più chiaramente incrocia la traiettoria della società guidata da Sam Altman — sia sul piano tecnologico, sia su quello finanziario.

Fondata da ex ricercatori OpenAI, l’azienda ha progressivamente rafforzato il proprio posizionamento come alternativa credibile nello sviluppo di foundation model, puntando su un approccio più orientato al mercato enterprise e meno esposto alla dimensione consumer-relazionale che aveva caratterizzato l’espansione iniziale di ChatGPT.

Negli ultimi mesi questa strategia ha trovato una conferma anche sul piano finanziario. Secondo quanto riportato da Financial Times, Anthropic ha chiuso un round di finanziamento da circa 30 miliardi di dollari, raggiungendo una valutazione nell’ordine dei 350 miliardi. Risorse che saranno destinate in larga parte all’espansione dell’infrastruttura computazionale, al rafforzamento delle attività di ricerca e al reclutamento di talenti altamente specializzati, in una fase in cui la competizione globale sull’intelligenza artificiale si gioca sempre più sulla disponibilità di capitale e capacità di calcolo.

A distinguere ulteriormente il modello di crescita di Anthropic è la composizione dei ricavi. La quota predominante del fatturato deriva infatti da clienti enterprise, segno di una strategia focalizzata su piattaforme di produttività, coding e automazione dei workflow aziendali. Strumenti come Claude Code — progettati per leggere basi di codice, pianificare task e supportare lo sviluppo software — stanno contribuendo a rafforzarne la presenza nei contesti professionali, alimentando una competizione diretta con OpenAI su uno dei segmenti economicamente più promettenti del mercato AI.

LEGGI ANCHE: ChatGPT Atlas: così OpenAI riaccende la ”guerra” dei browser

Governance, difesa e uso militare: il posizionamento di Anthropic

Un elemento interessante per comprendere il posizionamento industriale e culturale di Anthropic riguarda il tema della governance tecnologica e, in particolare, il rapporto con il settore della difesa. Negli ultimi mesi sono emerse tensioni tra l’azienda e il Dipartimento della Difesa statunitense sull’eventuale utilizzo dei modelli Claude in ambito militare, all’interno di programmi legati all’intelligenza artificiale applicata alle operazioni governative.

Secondo quanto riportato da TechCrunch, Anthropic avrebbe assunto la posizione più prudente tra i grandi laboratori AI coinvolti nel confronto con Washington, mostrando una maggiore resistenza rispetto alle richieste di estendere l’impiego dei propri sistemi a una gamma ampia di scenari operativi.

“Hard limits around fully autonomous weapons and mass domestic surveillance.”

Il punto di frizione riguarda in particolare la possibilità di utilizzare modelli generativi in contesti sensibili come armi autonome o programmi di sorveglianza su larga scala, ambiti sui quali l’azienda ha fissato limiti espliciti nelle proprie policy di utilizzo. Una scelta che non è soltanto regolatoria, ma strategica: contribuisce a rafforzare l’immagine di Anthropic come laboratorio orientato alla sicurezza, alla responsabilità e alla governance dell’AI, in contrapposizione a una narrativa più sperimentale che ha accompagnato, almeno nelle fasi iniziali, l’espansione di altri player del settore.

In questo senso, anche il confronto con il comparto militare diventa un indicatore utile per leggere le differenze di posizionamento tra i principali sviluppatori di foundation model — non solo sul piano tecnologico o finanziario, ma su quello, sempre più rilevante, della legittimazione istituzionale e dell’accettabilità politica delle loro piattaforme.

I nuovi entranti e la pressione dal basso sull’industria dei foundation model

Un ultimo elemento utile per leggere il cambio di fase dell’industria, e il ritiro di GPT-4o da parte di OpenAI, riguarda l’emergere di nuovi entranti, spesso nati fuori dai grandi laboratori e poi rapidamente entrati nel radar dei big tech. È il caso, ad esempio, di OpenClaw, progetto open source sviluppato dall’ingegnere austriaco Peter Steinberger, che nelle ultime settimane ha attirato l’interesse diretto di player come OpenAI e Meta, entrambi impegnati a valutare possibili forme di collaborazione.

Il caso è interessante non tanto per le dimensioni attuali del progetto, quanto per ciò che rappresenta sul piano tecnologico. OpenClaw si colloca infatti nella nuova generazione di agenti AI autonomi, progettati per operare in modo continuativo sui sistemi dell’utente, coordinare modelli diversi e portare a termine task complessi senza input costante. Un paradigma che sposta l’attenzione dall’interazione conversazionale — il terreno su cui si è giocata la prima fase di ChatGPT — verso logiche di automazione proattiva e orchestrazione di servizi.

Il fatto che laboratori come OpenAI guardino con interesse a iniziative di questo tipo segnala quanto il fronte competitivo si stia ampliando: non più soltanto una sfida tra foundation model proprietari, ma un ecosistema in cui open source, agent framework e community di sviluppatori indipendenti diventano serbatoi di innovazione e, al tempo stesso, potenziali asset strategici da integrare o acquisire.

È anche in questa prospettiva che il ritiro di modelli come GPT-4o assume un significato più ampio: non soltanto la chiusura di una stagione tecnologica, ma la riallocazione di risorse e priorità verso le architetture che definiranno la prossima fase evolutiva dell’intelligenza artificiale.

LEGGI ANCHE: Pubblicità su ChatGPT, partito il test negli Stati Uniti: annunci separati dalle risposte e solo per i piani Free e Go

OpenAI ritira GPT-4o: cosa racconta davvero la fine del modello che ha umanizzato ChatGPT ultima modifica: 2026-02-16T16:29:54+01:00 da Miti Della Mura

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui