Linguaggio e Attualità

La Cina impone le qualifiche agli influencer: può questa legge salvare la qualità dei contenuti (e dei dati per l’IA)?

L’era del contenuto senza filtro

Internet è diventato un enorme archivio di contenuti, prodotti ogni giorno da miliardi di utenti e – sempre più spesso – da intelligenze artificiali. Questa rivoluzione ha reso l’informazione accessibile come mai prima, ma ha portato con sé un effetto collaterale: la progressiva perdita di qualità dei contenuti online.

L’assenza di filtri, la corsa alla viralità e la produzione automatica di testi hanno creato un ecosistema dove opinioni personali, fake news e contenuti generati da IA convivono con materiale scientificamente accurato, senza che l’utente medio possa distinguere l’uno dall’altro.

Questa deriva non riguarda solo la società o l’educazione: ha conseguenze dirette anche sull’evoluzione dell’intelligenza artificiale, che si nutre proprio di ciò che trova sul web.

Per affrontare questa sfida, la Cina ha introdotto una normativa che ha fatto discutere: chi parla online di medicina, diritto, finanza o istruzione dovrà dimostrare di avere qualifiche reali e verificabili. Una misura che, sebbene pensata per combattere la disinformazione, potrebbe diventare anche uno strumento prezioso per migliorare i dati su cui si addestrano i modelli di IA.

Cosa prevede la normativa cinese: non una laurea per tutti, ma competenze certificate

È importante chiarire un punto spesso frainteso: la Cina non obbliga tutti gli influencer ad avere una laurea, ma richiede qualifiche certificate per chi tratta temi professionali come medicina, diritto, finanza o istruzione.

La normativa emanata dalla Cyberspace Administration of China (CAC), introdotta nel 2022 e aggiornata nel 2023, è stata ulteriormente rafforzata nel 2025 con l’introduzione delle ‘patenti digitali’ per gli influencer, che rendono obbligatoria la verifica delle competenze in specifici ambiti professionali come la medicina, il diritto, la finanza o l’istruzione.

In questi ambiti, chi produce contenuti – specialmente tramite live streaming – deve dimostrare di possedere le qualifiche o le licenze professionali necessarie per esercitare quell’attività. Non basta quindi essere appassionati di medicina per dare consigli sanitari online: occorre una qualifica professionale riconosciuta, come una licenza medica o un titolo abilitante. Lo stesso vale per avvocati, consulenti finanziari e insegnanti.

La legge impone inoltre alle piattaforme digitali di verificare e registrare le credenziali degli utenti, con l’obbligo di sospendere o bloccare chi fornisce informazioni false o prive di fondamento. Persino gli avatar generati da intelligenza artificiale – utilizzati sempre più spesso per presentare contenuti – devono rispettare queste regole, se parlano di materie regolamentate.

Dal 2025, inoltre, tutti i contenuti generati da intelligenza artificiale devono essere etichettati come tali, in modo da garantire la trasparenza sull’origine del messaggio.

L’obiettivo dichiarato è duplice: proteggere il pubblico dalla disinformazione e aumentare il livello medio di competenza nei contenuti professionali. Ma le implicazioni vanno ben oltre il semplice controllo dell’influencer marketing.

Molti osservatori sottolineano che dietro l’intento di garantire la qualità si cela anche una forma di controllo sociale sull’informazione digitale, in linea con la più ampia strategia di governance tecnologica cinese.

Perché la legge cinese interessa direttamente l’intelligenza artificiale

I modelli linguistici di intelligenza artificiale (LLM), come GPT, Claude o Gemini, apprendono il linguaggio e la conoscenza analizzando enormi quantità di testi disponibili online. Questo significa che la qualità dei modelli dipende direttamente dalla qualità dei dati di partenza.

Se il web è inquinato da informazioni imprecise, da opinioni travestite da fatti o da contenuti sintetici generati da altri modelli, anche l’intelligenza artificiale imparerà e repllicherà gli stessi errori. Questo fenomeno, noto come data contamination, è oggi una delle principali minacce alla ricerca sull’IA.

La normativa cinese, imponendo una verifica delle competenze in alcuni ambiti critici, introduce un elemento prezioso per il futuro dell’IA: la possibilità di distinguere i contenuti autorevoli e affidabili da quelli inconsistenti o fuorvianti.

Un documento medico firmato da un professionista abilitato, per esempio, ha un valore enormemente maggiore per l’addestramento di un modello rispetto a un articolo generico scritto da un utente qualunque.

In altre parole, questa legge crea un filtro semantico a monte, aumentando la qualità dei dati a cui gli algoritmi possono accedere. È un approccio che, se applicato su larga scala, potrebbe rallentare il fenomeno di degenerazione progressiva dei dataset – il cosiddetto model collapse – e migliorare significativamente l’accuratezza dei modelli futuri.

Limiti e rischi: un passo avanti, ma non una soluzione definitiva

La normativa cinese rappresenta certamente un passo importante nella direzione della qualità, ma non può essere considerata una soluzione definitiva. I suoi effetti, infatti, sono limitati a determinati ambiti e non incidono sulla gran parte dei contenuti online, che rimangono privi di qualsiasi controllo.

Inoltre, l’obbligo di possedere titoli ufficiali rischia di escludere divulgatori competenti ma non formalmente abilitati, riducendo la pluralità delle voci e creando un ecosistema informativo più “istituzionalizzato”.

Va anche sottolineato che la competenza non garantisce automaticamente l’accuratezza. Anche esperti qualificati possono diffondere informazioni scorrette o ideologicamente orientate. Per questo, il possesso di un titolo dovrebbe essere considerato un punto di partenza, non un punto d’arrivo.

Per rendere il web una fonte di dati realmente affidabile, occorre integrare approcci diversi: verifica delle competenze, tracciamento della provenienza dei contenuti, strumenti di fact-checking automatizzato, e protocolli di auditing dei dataset utilizzati per addestrare i modelli.

Verso un nuovo paradigma informativo: competenza, provenienza, qualità

Nonostante i limiti, l’esperimento cinese offre una lezione importante al resto del mondo. L’idea di associare i contenuti online a identità verificate e competenze certificate rappresenta una possibile via per affrontare uno dei problemi più urgenti della nostra epoca: distinguere ciò che è attendibile da ciò che non lo è.

In un web sempre più saturo di contenuti generati da intelligenze artificiali, la provenienza delle informazioni diventa quasi più importante delle informazioni stesse. Sapere chi parla, con quale competenza e con quale responsabilità è un’informazione essenziale non solo per l’utente finale, ma anche per i modelli di IA che su quei contenuti si addestrano.

In futuro, potremmo immaginare piattaforme dove ogni contenuto è accompagnato da metadati verificabili – titoli di studio, affiliazioni, licenze professionali – e dove i sistemi di intelligenza artificiale sono in grado di riconoscere e privilegiare i dati con la più alta affidabilità.

In questo senso, la legge cinese non è un punto d’arrivo, ma un possibile punto di partenza per costruire un ecosistema informativo più solido, sicuro e utile.

Qualità dei contenuti = Qualità dell’intelligenza artificiale

L’intelligenza artificiale non è più intelligente dei dati su cui viene addestrata. Se le informazioni di partenza sono imprecise, superficiali o manipolate, anche i modelli più sofisticati finiranno per riprodurre errori e distorsioni.

La normativa cinese – che impone qualifiche per chi parla online di medicina, diritto, finanza o istruzione – non è una soluzione universale, ma rappresenta un importante passo verso un web dove competenza e autorevolezza tornano ad avere un ruolo centrale. In un mondo in cui chiunque può pubblicare qualsiasi cosa e dove l’IA stessa produce contenuti, introdurre criteri di verifica e responsabilità è l’unico modo per garantire che l’informazione rimanga affidabile.

La sfida dei prossimi anni sarà duplice: costruire un ecosistema in cui la qualità prevalga sulla quantità e garantire che l’intelligenza artificiale, nel suo processo di apprendimento, possa contare su dati solidi, verificati e attendibili. Solo così potremo creare sistemi capaci non solo di imitare il linguaggio umano, ma anche di comprenderlo e usarlo per generare vera conoscenza.

4 pensieri riguardo “La Cina impone le qualifiche agli influencer: può questa legge salvare la qualità dei contenuti (e dei dati per l’IA)?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *