“Il rischio è di appiattirci a ciò che la tecnologia ci offre. Se è in grado di rispondere a ogni domanda ed esigenza, noi “ci sediamo”, perché qualcun altro fa il nostro lavoro. Ma è l’apporccio più sbagliato che possiamo mettere in campo”. A dirlo è Davide Tosi, delegato della Rettrice all’Intelligenza artificiale all’Università dell’Insubria.
Non soltanto un mondo che si evolve rapidamente, una nuova economia, una serie lunghissima di professioni destinate a cambiare, alcune addirittura a morire. Il rischio – forse quello più grave e preoccupante – è di diventare automi al servizio delle macchine. C’è il rischio di smarrirsi lungo questa strada fatta di progresso e tecnologia, di rimanere schiacciati da una rivoluzione fatta di innovazione e innumerevoli potenzialità, che vanno – però – regolate e controllate.
Serve, dichiara il Davide Tosi, professore associato di Sistemi di elaborazione dell’informazione all’Università dell’Insubria, “evitare il predominio della tecnologia rispetto all’uomo e continuare a emozionarci davanti alla bellezza delle cose”. Bisogna allenare il ragionamento, il senso critico, l’empatia e soprattutto le emozioni.
Intelligenza artificiale, tra rischi e potenzialità: le dichiarazioni del professor Davide Tosi
“Il mondo del lavoro cambierà. Sicuramente rimarranno due grandi categorie, quella legata ai servizi della persona, sia per la cura del corpo sia sia della salute psicologica, e – dall’altro lato – quella legata alla cura deei robot e dell’intelligenza artificiale, per contenere il ruolo dell’AI nel mondo del lavoro ed evitare il predominio della tecnologia rispetto all’uomo“. A spiegarlo è Davide Tosi, professore associato di Sistemi di elaborazione dell’informazione al Dipartimento di Scienze teoriche e applicate.
“C’è una rivoluzione in atto, che sarà graduale, non stravolgerà le nostre vitde dall’oggi al domani”, ha precisato ancora l’esperto in Big Data e Al. “L’intelligenza artificiale non è solo ChatGPT, ma è anche un altro tipo di intelligenza che cerca di predire informazioni e conoscenza, dove l’uomo non può arrivare. Non c’è solo l’intelligenza artificiale generativa – ha ricordato Tosi – che ora ha raggiunto il massimo delle sue performance. Al momento, ritengo sia arrivata al massimo del suo splendore. Per avere altri piccoli miglioramenti, servirebbero più investimenti sia economici sia di risorse”.
Davide Tosi, delegato della Rettrice all’Intelligenza artificiale, ha ribadito gli aspetti positivi dell’intelligenza artificiale-predittiva, “che ci aiuteranno a generare conoscenza in diversi ambiti, come in campo medico, nella formazione personale, per ottimizzare i processi industriali e supportare le persone nei loro lavori”.
Alcune professioni, probabilmente, sono destinate a scomparire, ma i rischi – ha spiegato Tosi – “dipendono sempre dall’uso che le persone fanno della tecnologia, come successo in passato. Se le tecnologie che portano rivoluzioni vengono usate male, possono avere conseguenze negative. Quali sono i rischi dell’intelligenza artificiale? Può essere usata – prosegue – per creare contenuti fake e disinformazione e poi manipolare psicologicamente le persone più facilmente manipolabili. Questo avviene per svariati motivi, per esempio in occasione di campagne elettorali, per spostare in modo significativo il voto in una direzione o in un’altra”.
Per difendersi, dichiara il professor Tosi, “ci deve essere un controllo comune e organizzato. Bisogna lavorare sulla qualità dei dati e delle fonti, ma anche evitare che il potere sia concentrato nelle mani di pochi. Bisogna avere un controllo comune e sovranazionale su queste tecnologie“. L’allarme più preoccupante, conclude l’esperto, è appiattirsi alla tecnologia. Il suo invito è chiaro: “Continuate a usare la testa. Usate anche la tecnologia, ma in modo responsabile, continuando a usare la propria capacità logica ed emozionale, perché sarà più difficile da raggiungere dalle macchine artificiali. Continuiamo a emozionarci di fronte alla bellezza delle cose, perché questo le macchine difficilmente impareranno a farlo“.