Dopo mesi di attesa e trattative regolatorie, Meta ha avviato il rollout della sua intelligenza artificiale generativa anche in Europa. Dallo scorso 20 marzo, Meta AI è attiva – seppur in versione limitata – in sei lingue, tra cui l’italiano, e integrata nelle principali app del gruppo: Facebook, Instagram, WhatsApp e Messenger. Un rollout graduale, che sta gradualmente interessando gli utenti nei diversi Paesi, incluso il nostro.
Se per l’azienda questa fase di rilascio rappresenta un momento importante, per gli organismi regolatori solleva numerosi interrogativi in materia di trattamento dei dati, trasparenza e compatibilità con il quadro normativo europeo.
Una versione ridotta per aggirare lo scontro con il GDPR
Va detto che l’assistente Meta AI è già disponibile da oltre un anno negli Stati Uniti, dove ha raggiunto una maturità funzionale significativa: multimodalità, personalizzazione, memoria, generazione di immagini e interazione con dispositivi come i Ray-Ban Meta.
Ma è nel Vecchio Continente che Meta ha dovuto rivedere i propri piani, per comprendere come rispondere ai vincoli imposti dal GDPR e dalle autorità garanti.
Nel giugno dello scorso anno, la Data Protection Commission irlandese – autorità capofila per il gruppo Meta in Europa – ha imposto all’azienda la sospensione dell’utilizzo dei dati degli utenti europei per l’addestramento dei modelli AI, giudicando inadeguata la base giuridica dell’“interesse legittimo” invocata per il trattamento di post pubblici, foto e commenti.
Questo intervento ha di fatto congelato il rollout e imposto un cambio di rotta: la versione oggi attiva in UE non è stata addestrata su dati locali e, proprio per questo motivo, non include molte delle funzionalità avanzate disponibili altrove.
L’esperienza per gli utenti europei, dunque, è ridotta all’interazione testuale: domande, risposte rapide, brevi sintesi e assistenza nelle chat. Nulla che implichi un’elaborazione sofisticata o che attinga a riferimenti culturali e linguistici europei. Il risultato è un’intelligenza artificiale poco contestualizzata, funzionale ma priva di reale personalizzazione.

Il ritorno dell’“interesse legittimo”: la nuova notifica di Meta AI
Il “vero” rollout però potrebbe arrivare però a breve.
Alcuni utenti, già da qualche settimana, hanno ricevuto notifiche che preannunciano una modifica dei termini di servizio.
A quanto sembra, dal prossimo 26 giugno 2025 Meta intenderebbe nuovamente utilizzare i dati pubblici degli utenti europei per addestrare i propri modelli linguistici generativi. La base giuridica resterebbe l’“interesse legittimo” e l’azienda si sarebbe attivata per rendere disponibile un modulo di “opposizione” (right to object), come previsto dal GDPR.
Nella documentazione aggiornata si specifica che verranno utilizzati post, immagini, commenti e contenuti pubblici pubblicati dagli utenti europei.
La questione è meno lineare di quanto potrebbe a prima vista sembrare.
In effetti, anche chi si oppone formalmente – ovvero compilando l’apposito modulo – all’uso dei propri dati non è del tutto “al sicuro”: Meta si riserva infatti la possibilità di trattare dati che lo riguardano se questi appaiono, ad esempio, in contenuti pubblici condivisi da altri. Lo stesso vale per le conversazioni con Meta AI: queste potranno essere utilizzate per addestrare nuovi modelli, con l’unica eccezione delle chat su WhatsApp, che rimangono escluse.
Il punto dirimente, del quale non può non tener conto, è che l’informativa non richiede un consenso esplicito (opt-in), ma si basa sull’opposizione ex post. Un’impostazione che, secondo associazioni a tutela della privacy dei consumatori, aggirerebbe lo spirito del GDPR e non garantirebbe un controllo reale da parte dell’utente.
Una partita aperta tra GDPR e AI Act
L’approccio scelto da Meta riflette una tensione sempre più evidente tra le ambizioni delle big tech e l’architettura normativa europea. Il GDPR, in vigore dal 2018, resta il punto di riferimento per la protezione dei dati personali, ma con l’entrata in vigore dell’AI Act dal 1° agosto 2024, il quadro si è ulteriormente complicato. Le nuove regole impongono vincoli stringenti per i cosiddetti modelli “general-purpose AI” (GPAI), come Llama 3 – la base tecnologica di Meta AI – a partire da agosto 2025.
Tra gli obblighi previsti: documentazione tecnica dettagliata, sistemi di gestione del rischio, tracciabilità delle fonti dati e trasparenza per gli utenti. Inoltre, il Codice di condotta volontario per i GPAI, atteso per l’approvazione definitiva ad aprile 2025, introduce ulteriori misure. Meta ha già fatto sapere di non voler aderire, definendo le richieste “inapplicabili” e potenzialmente dannose per l’innovazione.
Meta AI: Rischi concreti e implicazioni per il mondo business
Per aziende europee e professionisti che utilizzano quotidianamente i prodotti Meta per comunicazione, marketing o customer service, le scelte dell’azienda hanno un impatto concreto. Mentre le controparti statunitensi possono già accedere a strumenti AI generativi evoluti, chi opera nel perimetro UE è vincolato da un ecosistema chiaramente regolato.
E a tutt’oggi, la gestione del consenso e la trasparenza nel trattamento dei dati restano aspetti critici. Per molte aziende, l’integrazione con le funzioni AI di Meta comporta una riflessione più ampia sui rischi di co-responsabilità nel trattamento dei dati – soprattutto se tali funzioni vengono integrate in processi di assistenza clienti, raccolta dati o analisi predittive. Senza contare le implicazioni reputazionali: un uso disinvolto di strumenti basati su modelli addestrati in modo opaco potrebbe esporre le imprese a critiche o perfino a sanzioni.