Lo scorso 31 marzo l'Italia è stato il primo Paese occidentale a bloccare l'accesso a ChatGPT, l'intelligenza artificiale "chiacchierona" che in questi mesi è diventata celebre per la sua capacità di rispondere a qualsiasi domanda in modo incredibilmente efficiente ed accurato.
Dalla ricetta per un tiramisù da sballo ai consigli per costruire un codice informatico perfettamente funzionante, non sembrano infatti esserci limiti alle possibilità di questa AI (Artificial Intelligence) ed proprio questa sfrenata onniscienza che ha spinto il Garante per la protezione dei dati personali a disporne lo stop immediato, preoccupato per la poca trasparenza nella raccolta e nell'utilizzo dei dati personali utilizzati dal software per sviluppare le sue conversazioni.
Come se non bastasse, l'Autorità ha ravvisato anche l'assenza di una adeguato filtro per i minori, esponendoli dunque a «risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza». Da qui l'oscuramento del sito per 20 giorni, in attesa che i responsabili comunichino quali misure abbiano intenzione di attuare per risolver le criticità contestate.
Ma quali sono effettivamente i pericoli ravvisati dal Garante e i rischi per i bambini celati dietro questo strumento che molti indicano come il futuro per tantissimi campi d'applicazione?
Come funziona ChatGPT?
ChatGPT è un chatbot, ossia una macchina sviluppata per intavolare una conversazione con gli utenti attraverso un testo scritto.
A differenza di altri software di questo tipo (come quelli impiegati dai Costumer Service delle aziende che cercano di aiutare i clienti senza l'intervento di un operatore "umano"), il chatbot realizzato dall'azienda OpenAI è però dotato di un'intelligenza artificiale estremamente avanzata che non solo attinge da una sterminata banca dati per poter rispondere in modo corretto agli input di chi lo interroga, ma è anche capace d'imparare dalle conversazioni per poter diventare sempre più preciso ed efficace.
Ciò rappresenta senza dubbio una possibilità straordinaria poiché la macchina sembra poterci aiutare in qualsiasi ambito dello scibile umano, dalla ricetta per il perfetto tiramisù all'elaborazione di un complesso codice informatico. Eppure, come tutti gli strumenti così potenti, anche ChatGPT potrebbe fare grossi danni se non utilizzato in un modo corretto.
La fonte del "sapere" del software è infatti proprio uno dei problemi riscontrati dal Garante: i dati personali accumulati per alimentare la conoscenza di IA potrebbero essere trafugati o rivelati dallo stesso bot – come già avvenuto – qualora l'utente fosse abbastanza abile da "ingannarlo" rivolgendogli domande mirate.
Quali sono i rischi per i bambini?
A preoccupare il Garante sono anche gli effetti che l'utilizzo di improprio una simile tecnologia potrebbe causare su bambini e gli adolescenti. ChatGPT infatti potrebbe rivolgersi all'utente con un linguaggio inappropriato o condividendo contenuti non adatti ai più giovani.
A ciò vanno poi aggiunti i rischi indiretti, che però risiedono nella natura stessa dello strumento e possono essere disinnescati solo attraverso un uso consapevole e una certa attenzione da parte di noi adulti:
- Phishing: Se adeguatamente raggirata, l'intelligenza artificiale potrebbe produrre mail molto credibili per adescare minori o perpetrare truffe per acquisire informazioni sensibili.
- Assuefazione: ChatGPT potrebbe essere utilizzato dagli studenti per fare i compiti e scrivere testi elaborati e personalizzati. Prendere questa abitudine rischierebbe d'indebolire le competenze dei ragazzi e renderli dipendenti dalla macchina per qualsiasi forma di conoscenza.
- Fake News: usare ChatGPT per informarsi non è del tutto sicuro. L'AI infatti cerca nella propria banca dati in base alle richieste degli utenti, ma non è detto che sappia distinguere le informazioni vere da quelle false su un certo argomento.
Ciò significa che l'intelligenza artificiale distruggerà i nostri figli? Assolutamente no, ma così come il Web e i social, da grandi potenzialità derivano altrettanti pericoli. Meglio dunque farsi trovare preparati.