La responsabilità educativa della scuola consiste nel dovere di informare in modo chiaro e completo quando vengono introdotti strumenti di intelligenza artificiale. Questo significa spiegare quali piattaforme o applicazioni vengono usate, a quale scopo, come vengono impiegate nelle attività scolastiche e quali tutele sono previste per gli studenti minorenni.
Sono favorevole all’innovazione ma non all’idea che tutto ciò che è nuovo debba entrare automaticamente nella scuola senza regole chiare. Quando si parla di intelligenza artificiale e di studenti di 12 anni il punto non è essere moderni o arretrati ma è capire se le famiglie vengono informate, se i minori sono tutelati e se la scuola sta esercitando fino in fondo la propria responsabilità educativa.
Se l’uso dell’intelligenza artificiale viene imposto dall'insegnante alla classe, il genitore perde concretamente la possibilità di scegliere e di controllare se il proprio figlio debba o meno utilizzarla.
Quando io avevo 12 anni con il Commodore 64 creavo programmi senza Internet facendo affidamento soltanto su fonti attendibili come le riviste specializzate in edicola. Io e i miei amici mossi dalla stessa passione davamo vita a creazioni frutto dell’impegno, della fantasia e della voglia di capire.
Oggi grazie agli strumenti attuali si possono realizzare progetti complessi ma è fondamentale che la tecnologia resti un mezzo per costruire, comprendere e imparare, non solo per ottenere risposte immediate.
“Oggi con l’intelligenza artificiale non basta ottenere risposte facili ma bisogna imparare a fare ricerche consapevoli.”
Quando si usa un motore di ricerca questo diventa una sorta di biblioteca moderna, nella quale imparare a cercare, confrontare e selezionare fonti attendibili al fine di fidarsi di contenuti le cui risposte siano frutto del lavoro di studiosi ed esperti e non di affermazioni improvvisate: in questo modo la tecnologia diventa uno strumento di apprendimento attivo e non passivo.
La legge italiana
In Italia, l’art. 4, comma 4, della Legge 23 settembre 2025, n. 132 stabilisce quanto segue:
L'accesso alle tecnologie di intelligenza artificiale da parte dei minori di anni quattordici nonché il conseguente trattamento dei dati personali richiedono il consenso di chi esercita la responsabilità genitoriale, nel rispetto di quanto previsto dal regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, e dal codice in materia di protezione dei dati personali, di cui al decreto legislativo 30 giugno 2003, n. 196. Il minore di anni diciotto, che abbia compiuto quattordici anni, può esprimere il proprio consenso per il trattamento dei dati personali connessi all'utilizzo di sistemi di intelligenza artificiale, purché le informazioni e le comunicazioni di cui al comma 3 siano facilmente accessibili e comprensibili.
Le condizioni d’uso delle singole piattaforme
Tuttavia, ciò non significa che ogni piattaforma sia tenuta a consentire l’accesso fino al limite fissato dalla legge. Il singolo fornitore può stabilire proprie condizioni di utilizzo.
Possiamo verificarlo, ad esempio, analizzando ChatGPT, Copilot e Gemini.
OpenAI ChatGPT: ChatGPT è sicuro per tutte le età?
Microsoft Copilot: Limiti di età e controllo genitori
Microsoft Copilot: Condizioni per l'utilizzo
Google Gemini: Guida tuo figlio nella sua esperienza con le app Gemini


