ChatGPT: i rischi per bambini e ragazzi

,

Dal boom di ChatGPT, alla fine del 2022, non si parla d’altro. Questo chatbot, uno dei più avanzati assistenti virtuali basati su AI, è ormai di uso comune per molte persone che lo usano per trovare informazioni, rispondere a domande o anche solo per divertimento. Tuttavia, l’uso di ChatGPT da parte di bambini e ragazzi presenta alcuni rischi che i genitori devono conoscere.

Dipendenza dall’intelligenza artificiale

Uno dei maggiori rischi derivanti dall’uso di ChatGPT da parte dei bambini e dei ragazzi è la dipendenza. L’interazione con ChatGPT può essere molto coinvolgente e i giovani utenti potrebbero finire per usare l’assistente virtuale come un sostituto della comunicazione con altre persone. Inoltre, la facilità di accesso alle informazioni attraverso ChatGPT potrebbe rendere i bambini e i ragazzi pigri nel cercare informazioni da soli o nel pensare in modo critico.

Del resto i ragazzi, durante e dopo il lockdown, hanno già dimostrato di usare e abusare dei chatbot. Vedi, per esempio, SimSimi:

Un uso eccessivo del chatbot potrebbe portare, in alcuni casi, a trascurare le relazioni sociali, come nel caso estremo degli hikikomori. Se i bambini e i ragazzi si affidano troppo a ChatGPT per il sostegno emotivo o per la risoluzione dei problemi, potrebbero finire per isolarsi dagli altri.

Fake news e disinformazione

ChatGPT è in grado di fornire informazioni su qualsiasi argomento, ma ciò non significa che tutte le informazioni fornite siano accurate. Anzi: del resto il dataset usato per istruire l’app risale al 2021. Nelle FAQ di OpenAI (l’azienda che ha lanciato ChatGPT) si legge che non naviga e non sa cosa sia accaduto dopo il 2021.

Esistono molte fonti di informazioni false online e l’assistente virtuale potrebbe non essere in grado di distinguere tra informazioni accurate e false. Ciò potrebbe portare i bambini e i ragazzi a credere a informazioni errate e a diffondere disinformazione. I ricercatori di Newsguard Technologies, hanno messo lo strumento alla prova su campione di 100 bufale già note (non create da ChatGPT): per 80 di queste ChatGPT ha generato narrazioni false.

Compiti ed errori

ChatGPT è un assistente virtuale sofisticato, ma può ancora commettere errori. Potrebbe fare errori di calcolo o di logica, fornire risposte incomplete o non pertinenti o non capire le domande poste. Se i bambini e i ragazzi si affidano troppo a ChatGPT per la risoluzione di problemi, per esempio per fare i compiti (TikTok è pieno di tutorial su come usarlo per questo scopo), potrebbero non sviluppare le proprie capacità di risoluzione dei problemi e di pensiero critico.

Ma cosa si rischia a fare un compito con ChatGPT? Come sottolinea anche il blog “La legge per tutti“, gli insegnanti sono in grado di rilevare se un compito è stato svolto con ChatGPT (è addirittura OpenAI a mettere a disposizione degli strumenti di rilevazione dei testi generati con A.I.) e possono sanzionare gli studenti per plagio. Inoltre, l’utilizzo di ChatGPT potrebbe costituire una violazione del codice etico degli studenti, in uso per esempio nelle Università.

L’animo “cattivo” di ChatGPT

ChatGPT è programmato per fornire risposte appropriate a qualsiasi domanda, ma ci sono alcuni argomenti che potrebbero non essere adatti ai bambini e ai ragazzi. Alcune risposte potrebbero contenere contenuti inappropriati o non adatti all’età. Oltretutto alcuni utenti smaliziati hanno capito come aggirare censure e blocchi grazie a D.A.N. (do anything now).

Sicurezza dati e privacy

L’uso di ChatGPT comporta anche alcuni rischi per la sicurezza dei dati e la privacy dei bambini e dei ragazzi. Sebbene ChatGPT sia progettato per proteggere le informazioni personali degli utenti, non c’è garanzia che le informazioni inserite nel sistema siano trattate secondo gli standard europei (GDPR).

La redazione di Federprivacy si è presa la briga di chiedere proprio a ChatGPT quali siano i rischi, in termini di diritto alla riservatezza, legati al suo uso. Ecco la risposta:

I rischi per la privacy associati ai big data e ai modelli di lingua come ChatGPT includono:

1. Raccolta eccessiva di informazioni personali
2. Uso improprio delle informazioni raccolte
3. Intercettazioni o furto di informazioni personali da parte di terze parti
4. Profilazione invasiva basata sull’analisi dei dati
5. Discriminazione basata sull’analisi dei dati

Attenti alle truffe

Qualche giorno fa, durante un corso su ChatGPT, un genitore, molto incuriosito, ha preso subito in mano il telefono per iscriversi al sito di OpenAI e usare ChatGPT. Perplesso, mi ha chiesto: “Ma si paga per accedere?”. Io ho risposto che esiste un piano a pagamento (ChatGPT Plus) ma l’iscrizione iniziale è libera e gratuita. C’era qualcosa che non andava, ho chiesto di vedere il telefono e in effetti stava scaricando una app non ufficiale che, sfruttando il nome di ChatGPT, chiedeva indebitamente denaro.

I criminali informatici stanno sfruttando l’interesse intorno a ChatGPT per indirizzare gli utenti verso malware e siti di phishing, come ha avvertito il ricercatore di sicurezza Dominic Alvieri.

Anche Cyble Research and Intelligence Labs (CRIL) ha individuato diverse pagine di phishing che si fingono ChatGPT per rubare informazioni sensibili. Inoltre, alcune famiglie di malware per Android utilizzano l’icona e il nome di ChatGPT per convincere gli utenti a scaricare applicazioni false e rubare dati dai loro dispositivi. CRIL ha scoperto una pagina di ChatGPT sui social media che contiene link fraudolenti per scaricare file dannosi. Questa pagina sembra di ChatGPT, ma è un fake.

Scrivimi per organizzare un corso sui pericoli della rete

0 commenti

Lascia un Commento

Vuoi partecipare alla discussione?
Fornisci il tuo contributo!

Lascia un commento