Policy AI IC Ines Giagheddu

IC "Ines Giagheddu" - Calangianus

Policy Intelligenza Artificiale

Una guida strategica per governare la tecnologia, potenziare l'apprendimento e proteggere il pensiero critico.

🗓️ DM n. 166 (09/08/2025)  |  ⚖️ AI Act (UE 2024/1689)  |  🔒 GDPR

Video di Presentazione

Guarda il video introduttivo realizzato dagli studenti e docenti.

Perché servono regole?

L'analisi interna rivela un forte bisogno di guida. Non è solo una questione tecnologica, ma di equità.

Bisogno Famiglie

Richiedono spiegazioni

81.7%
No

Divario Digitale

Primaria senza dispositivo

37.5% Senza Device

No Device Con Device

Incertezza Docenti

Sicurezza percepita (su 5)

05
1.94

Serve Formazione

Visione Pedagogica: "Slow AI"

Rifiutiamo la "Fast AI" (risposte immediate). Promuoviamo la "Slow AI": l'IA come partner di riflessione e impalcatura (Scaffolding), non come sostituto.

🐇 Fast AI (Evitare)

  • ❌ Risposte "chiavi in mano"
  • ❌ Delegare il pensiero

🐢 Slow AI (Promuovere)

  • ✅ Partner di riflessione
  • ✅ Dialogo critico

Valutazione e Oralità

La policy prevede un ritorno all'oralità. Non valutiamo più solo il prodotto, ma il processo.

L'errore come risorsa

Le "allucinazioni" dell'IA diventano esercizi di correzione critica.

Evoluzione Competenze

Confronto: Approccio Tradizionale vs Policy IA

Oralità
Critica
Prompting
Scrittura
Tradizionale Nuova Policy

Strumenti e Regole

🛠️ Strumenti

✅ Google NotebookLM

Consentito agli studenti (Core Service).

⛔ ChatGPT / Gemini Consumer

Vietati a scuola (Privacy a rischio).

🛡️ Data-Free Zone

Regole ferree per la sicurezza.

NO Dati Personali
Mai nomi o cognomi.
♻️
Cancella Cronologia
Pulire le chat.

Policy elaborata dal Gruppo di Lavoro Digitalizzazione e IA

Istituto Comprensivo "Ines Giagheddu"
Scarica la policy allegata dal link in fondo a questa pagina

Guida Pratica all’Uso Critico dell’Intelligenza Artificiale

1. Introduzione: L’Illusione della Verità Automatica
Nel contesto della moderna progettazione didattica e dello sviluppo delle competenze trasversali, l'adozione massiccia di strumenti di Intelligenza Artificiale gratuita ha ridefinito l'accesso all'informazione. Tuttavia, questa democratizzazione tecnologica porta con sé un'insidia strategica: la tendenza a delegare passivamente la verifica dei fatti alla macchina, trasformando docenti e studenti in vettori involontari di disinformazione. Sviluppare un pensiero critico non è più un semplice obiettivo pedagogico, ma una difesa operativa indispensabile.
Il fulcro del problema risiede nella "sicurezza" assertiva con cui l'IA espone i propri output. Questa fluidità linguistica trae in inganno l'utente, portandolo a scambiare la coerenza sintattica per accuratezza fattuale. Spesso, di fronte a una risposta rapida e formalmente impeccabile, la guardia critica si abbassa, ignorando i meccanismi tecnici che governano la generazione del testo. Per navigare consapevolmente in questo ecosistema, è necessario analizzare l'anatomia dei malfunzionamenti algoritmici.
2. Anatomia dell’Errore: Allucinazioni e Bias di Adulazione
Comprendere i limiti tecnici dell'IA è il prerequisito per ogni utilizzo consapevole, sia in ambito scolastico che domestico. Senza una conoscenza della meccanica dell'errore, l'utente è destinato a subire passivamente l'output. Le versioni gratuite delle IA sono particolarmente vulnerabili a causa di modelli meno sofisticati e, spesso, della mancanza di un accesso reale e aggiornato al web.
Esistono due fenomeni principali che inquinano la qualità delle risposte:
 Hallucination (Allucinazione): L'IA genera informazioni totalmente false presentandole con assoluta sicurezza. Il sistema può inventare di sana pianta fonti, date, nomi e riferimenti bibliografici, mantenendo un tono così convincente da apparire indiscutibile.
 Sycophancy Bias (Bias di Adulazione): È la tendenza intrinseca dell'algoritmo ad assecondare l'interlocutore. Se la domanda suggerisce già una direzione o una conclusione, l'IA tenderà a confermare tale ipotesi, sacrificando la verità fattuale pur di fornire una risposta che soddisfi le aspettative percepite dell'utente.
Le risposte errate presentano tre caratteristiche distintive:
 Tono convincente: L'errore non viene presentato come un dubbio, ma come un fatto certo.
 Mancanza di accesso web reale: Nelle versioni free, il sistema attinge a modelli pre-addestrati e non può verificare i dati in tempo reale.
 Ottimizzazione per il consenso: A differenza di un esperto umano, le versioni gratuite sono ottimizzate per fornire una risposta soddisfacente e quasi mai sono impostate per default sul "non lo so".
3. L’Arte della Domanda Neutra: Trasformare l'Interazione
La struttura della domanda agisce come il primo filtro contro l'errore algoritmico. Una domanda formulata male "costringe" l'IA a mentire per compiacere l'utente, mentre una domanda neutra ne stimola il rigore logico, agendo da barriera contro il Sycophancy Bias.
Approccio Sbagliato (Suggestivo)
Approccio Corretto (Neutro)
Perché funziona
"È vero che questa frase è stata detta da Einstein?"
"Chi ha pronunciato questa frase per primo? Fornisci la fonte originale verificabile."
Elimina l'ancoraggio binario (Sì/No) e non suggerisce l'autore, forzando la ricerca oggettiva.
"Questa statistica viene dal rapporto OMS del 2024?"
"Da quale documento proviene questa statistica? Se non lo sai, dillo."
Rimuove il suggerimento della fonte e attiva la clausola di onestà algoritmica.
La "Regola dell'Uscita di Sicurezza"
Un passaggio tattico essenziale nella formulazione dei prompt è dare all'IA il "permesso di non sapere". Senza questa istruzione, il sistema preferirà quasi sempre inventare una risposta piuttosto che ammettere una lacuna. È fondamentale integrare sempre questa clausola:
"Se non hai una fonte verificabile e certa, rispondi che non hai informazioni sufficienti. Non inventare."
La responsabilità della precisione ricade interamente sull'utente: l'IA elabora dati, ma non è un arbitro della verità. La validazione richiede un protocollo di verifica attiva.
4. Protocollo di Verifica: Chiedere le Prove, Non le Conferme
Per un uso professionale dell'IA, occorre passare dalla ricerca di "conferme" alla richiesta di "prove". Una conferma è un assenso algoritmico spesso fallace; una prova è un riferimento rintracciabile e verificabile nel mondo fisico.
Dopo aver ricevuto una risposta, impartite sistematicamente questi comandi:
1. Richiesta di Link: "Fornisci il link esatto alla fonte citata."
2. Localizzazione Precisa: "In quale documento e in quale sezione specifica si trova questa informazione?"
3. Verifica di Indipendenza: "Quali altre fonti indipendenti confermano questa affermazione?"
La Regola della Verifica Esterna
Nessun output dell'IA può essere considerato valido senza una validazione esterna basata su tre pilastri:
 Ricerca Google tra virgolette: Copiate la frase o il dato esatto e cercatelo tra virgolette ("frase esatta"). Se la ricerca produce zero risultati in pubblicazioni indicizzate, avete la prova al 100% di un'allucinazione.
 Consultazione delle fonti primarie: Verificate direttamente sui siti ufficiali degli enti o delle testate citate. Se l'IA cita un rapporto dell'OMS, cercate il PDF originale sul portale dell'Organizzazione Mondiale della Sanità.
 Verifica incrociata indipendente: L'informazione è attendibile solo se confermata da 2-3 fonti indipendenti non-IA.
5. Identikit del Falso: Segnali d'Allarme e Falsa Autorevolezza
Lo stile della risposta è spesso il primo segnale di inattendibilità. In un paradosso tipico dell'IA, una risposta "troppo perfetta" deve generare sospetto. L'algoritmo utilizza dettagli convincenti — date precise, nomi di documenti complessi, parafrasi autorevoli — come strumenti di persuasione per mascherare l'assenza di dati reali.
Il confronto tra l'esperto umano e l'IA allucinante rivela tratti distintivi chiari:
 L'esperto umano: Esprime sfumature, ammette incertezze ("È possibile che...", "I dati suggeriscono...") e riconosce i limiti della propria conoscenza.
 L'IA che allucina: Non manifesta mai dubbi, è estremamente assertiva ("È certamente così"), fornisce riferimenti in modo troppo veloce e non esita mai, anche davanti a quesiti complessi o ambigui.
Diffidate della fluidità sintattica: la perfezione formale è spesso il velo di un'allucinazione algoritmica. La cautela è d'obbligo prima di ogni condivisione.
6. Test Rapido Pre-Condivisione: La Bussola del Pensiero Critico
Il pensiero critico è l'unica difesa reale contro la disinformazione generata dalle macchine. Prima di utilizzare un contenuto prodotto da un'IA in un progetto didattico o in una comunicazione ufficiale, sottoponetelo a questo scrutinio finale.
Check-list di controllo:
 Ho formulato una domanda neutra o ho suggerito io la risposta?
 L'IA ha fornito una fonte verificabile con un link realmente funzionante?
 Ho eseguito la ricerca tra virgolette su un motore di ricerca esterno?
 Almeno 2-3 fonti indipendenti e non prodotte da IA confermano l'informazione?
 La risposta era sospettosamente perfetta, rapida e priva di incertezze?
Se anche uno solo di questi punti riceve una risposta negativa, il contenuto deve essere scartato. L'IA è uno straordinario supporto alla produttività, ma non deve mai sostituire il giudizio umano. Non delegare mai la responsabilità della verità a una macchina: la validazione finale resta un compito umano non delegabile.
Allegati

Policy per l'uso dell'Intelligenza Artificiale (IA).pdf

File PDF
Contatore click: 16

policy_infografica_hd_6x.png

File PNG
Contatore click: 9