Intelligenza artificiale tra realtà e fantascienza: perché la fiducia deve prevalere sulla paura

Intelligenza artificiale tra realtà e fantascienza: perché la fiducia deve prevalere sulla paura

www.luniversitario.it

L’intelligenza artificiale (IA) è senza dubbio il fenomeno del momento. Ovunque ci giriamo sentiamo opinioni diverse a riguardo: chi ha completa fiducia nelle capacità dell’IA di migliorare le nostre vite, chi sentenzia che l’IA segnerà, se non l’ha già fatto, la rovina della nostra società e chi, anche se con difficoltà, prova a discernere razionalmente rischi da opportunità. Questa riflessione attenta è quello che in teoria dovremmo fare, ma di fronte a un fenomeno così pervasivo, portatore di un cambiamento sistematico, è normale che emerga la paura, il sentimento che per definizione nasce da un senso di insicurezza, smarrimento e ansia di fronte a un pericolo reale o immaginario, o dinnanzi a cosa sia o si creda dannoso.

Il problema dell’intelligenza artificiale è proprio legato alla sua imprevedibilità: il fatto che non comprendiamo ancora a pieno il suo funzionamento e non ne conosciamo i confini suscita timore. D’altronde, seppur con qualche limite, l’IA ci sta dimostrando che ha la capacità di fare al posto nostro moltissime attività, dalle quelle più comuni a quelle più complesse, come l’elaborazione di dati, l’organizzazione del lavoro in azienda e la creazione di contenuti, oltreché dare contributi rilevanti pure nei campi dell’automazione industriale, della sicurezza informatica e della tele-medicina.

Si tratta di potenzialità enormi, in gran parte ancora da consolidare e da sviluppare: se da una parte tutto ciò può generare timore, perché significherà un rimodellamento del nostro modo di vivere e ci costringerà a re-inventarci, dall’altra ci offrirà tantissime possibilità per farlo, permettendoci, se ne saremo capaci, di sfruttare a nostro vantaggio tali potenzialità.

Ci sono naturalmente molti altri aspetti critici che riguardano l’IA. Uno di questi riguarda la poca trasparenza che caratterizza queste ‘macchine’ e il modo in cui esse prendono le decisioni: nonostante i tentativi di spiegare come funzionino gli algoritmi e come vengano generati certi output in seguito agli input, certi meccanismi non riescono ad essere trasparenti perché basati sull’apprendimento automatico, e questo risulta problematico nell’applicazione in alcuni ambiti, ad esempio nella pubblica amministrazione, dove la trasparenza è un fattore imprescindibile.

Ancora, la continua condivisione di informazioni e la creazione di contenuti accessibili a tutti, unite alla capacità degli algoritmi di indirizzare tali contenuti verso pubblici specifici, rischiano di trasformare i social in piattaforme per condurre campagne di disinformazione e propaganda politica, oltre che di facilitare atti di cyber-bullismo e revenge porn. Ormai circolano nel web a una velocità incontrollabile i deepfake, foto e video finti oppure manipolati in cui ai protagonisti viene fatto dire o fare ciò che si vuole tramite l’utilizzo di certi software basati sull’IA.

Ciò che ha suscitato così tanto scalpore di recente, e che più spaventa, è il fatto che gli stessi padri fondatori di questi sistemi mettano le mani avanti avvertendo dei rischi a cui ci troviamo di fronte, trasformando il traguardo di ciò che tanto hanno rincorso in un pericolo ora da fermare causando meno danni possibile. Elon Musk per primo ha lanciato l’allarme, spiegando che l’intelligenza artificiale rischia di renderci obsoleti e inutili, facendoci perdere il controllo della nostra civiltà. Non solo Musk, in molti, anche tra i non addetti ai lavori, hanno disegnato scenari apocalittici e senza possibilità di ritorno. Tuttavia, è proprio a questo che dovremmo stare attenti: non farci prendere dal panico perché crediamo a tutto ciò che ci viene detto, a delle visioni distorte e a scenari poco plausibili, i quali spesso costituiscono essi stessi una minaccia. (Intelligenza artificiale, perché non dobbiamo temere la super Ai | Wired Italia)

In uno studio dello European Parliamentary Research Service (EPRS) alcuni esperti hanno indagato l’origine delle preoccupazioni legate ai possibili risvolti negativi dell’intelligenza artificiale, sfatando alcuni miti e suggerendo una visione più realistica e positiva. Questi ricercatori sottolineano l’importanza di distinguere tra realtà e fantasia, tra la vera intelligenza artificiale che ci circonda e la fantascienza: quello di un’IA auto-modificante, che porterà alla rovina della società, è uno dei tanti miti che si sono creati e che ha più del fantasioso che dello scientifico. Gli scienziati affermano che l’IA nel tempo si evolverà con noi, adattandosi ai nostri bisogni in una situazione di continuità e progresso rispetto a quanto già accade oggi. Per creare sistemi di intelligenza artificiale più complessi, strutturati e intelligenti, avremo bisogno di creare nuove strutture, nuovi algoritmi e trovare continue soluzioni a tutti i problemi che si presenteranno: sarà un processo graduale, che ci accompagnerà nel tempo, ma questo, dicono gli esperti, è il momento di concentrarsi sulla realtà. Come rendere sicura l’intelligenza artificiale che abbiamo oggi?

Misure di prevenzione e regolamentazioni sono essenziali per convivere pacificamente con il cambiamento, per questo l’approvazione dell’Artificial Intelligence Act (AI Act) da parte del Parlamento europeo il 15 marzo scorso è stata accolta da tutti come un successo. La normativa europea mira a rafforzare le norme sull’evoluzione e l’utilizzo dell’intelligenza artificiale, assicurando che i sistemi di IA immessi sul mercato europeo siano sicuri e rispettino i diritti fondamentali dell’Unione, in un’ottica sì di controllo, ma anche finalizzata alla crescita e all’innovazione.

Finora molto va in questa direzione: anche il G7 che si è svolto a Trento il 15 marzo su Industria, Tecnologia e Digitale, ha evidenziato la necessità che l’IA venga sviluppata e utilizzata in modo etico per il bene di cittadini, economia e società. Sempre a Trento, la Commissione europea ha selezionato e finanziato il progetto Tango nell’ambito di Horizon Europe, programma che si prefigge di rafforzare la leadership europea nella human-centric AI, ovvero l’intelligenza artificiale che mantiene l’individuo al centro.

L’idea dietro al progetto è che per ottenere sistemi di IA veramente efficaci ed innovativi, in grado di migliorare i processi decisionali delle persone e compiere valutazioni in scenari ad alto rischio riuscendo ad essere sempre affidabili, serva una comprensione reciproca tra macchine e individui. Questi ultimi devono potersi fidare della tecnologia, superando le diffidenze: la fiducia è la via per governare questo cambiamento ed è fondamentale se vogliamo liberarci della paura e abbracciare tutto il nuovo che questa rivoluzione ha da offrire. Bisogna credere nel potenziale che l’intelligenza artificiale ha per migliorare la qualità della nostra quotidianità, invece che renderci più stressati, di generare nuovi posti di lavoro, invece che cancellarli, di renderci più umani e più generativi, re-inventandoci vedendo in ciò un’opportunità anziché un rischio.

Correlati

Source www.luniversitario.it

Report Page