È un fenomeno in crescita, soprattutto tra gli adolescenti: chiedere aiuto all’intelligenza artificiale invece che a un essere umano. Una tendenza che solleva interrogativi profondi sul modo in cui i più giovani vivono emozioni, fragilità e relazioni.

A riportare l’attenzione sul tema è il caso di Aurora Tila, la 13enne uccisa a Bologna dal ragazzo di 15 anni, che – secondo quanto emerso – si confidava con un chatbot. Un elemento che, secondo gli esperti, racconta un cambiamento già in atto.

“Piattaforme come ChatGPT sono estremamente accessibili: basta un dispositivo per poter comunicare e chiedere consigli o informazioni”, spiega la psicologa Anna Maria Giannini, della Sapienza Università di Roma. “Se sul piano cognitivo possono offrire un supporto, il discorso cambia quando entrano in gioco emozioni profonde, relazioni affettive o stati di malessere come ansia e depressione”.

È qui che emergono le criticità. “Costruire un legame di fiducia con un sistema che non è umano può diventare rischioso: manca la capacità di comprendere davvero la persona e di intervenire con strumenti professionali”, sottolinea Giannini.

Uno degli aspetti più delicati è l’illusione di ricevere un aiuto reale. “Non è detto che i consigli forniti dall’IA siano quelli più adatti, soprattutto in situazioni di fragilità. A questi sistemi manca sia il bagaglio professionale sia la costruzione di una relazione autentica”.

Eppure, proprio questa illusione può diventare un ostacolo. “Sentirsi ascoltati, anche se in modo artificiale, può impedire di rivolgersi a qualcuno in carne e ossa”, osserva l’esperta. Un meccanismo alimentato anche dal linguaggio: i chatbot comunicano in modo sempre più simile agli esseri umani, mentre gli utenti finiscono per aprirsi con loro come non farebbero con una macchina.

Il fenomeno si inserisce in un contesto più ampio. “Gli adolescenti spesso hanno difficoltà a chiedere aiuto e a raccontare emozioni profonde. In questo scenario, l’intelligenza artificiale può diventare un rifugio facile e immediato”, continua Giannini.

Ma il rischio è una confusione crescente tra realtà e dimensione digitale. “Già con internet abbiamo assistito alla nascita di relazioni e identità virtuali. Con l’IA questo processo si intensifica: si cercano amicizie, contatti, perfino partner online, spesso senza distinguere tra autenticità e finzione”.

Un cambiamento rapido, che – conclude la psicologa – “ci trova ancora impreparati a gestire queste nuove forme di relazione”.

Condividere.
Exit mobile version