Skip to content

Intelligenza artificiale: tutto quello che c’è da sapere

Quando nasce l’intelligenza artificiale

La nascita dell’intelligenza artificiale viene fatta risalire a un articolo del 1950 apparso nella rivista Mind in cui lo scienziato Alan Turing si domandava se i computer potessero pensare. Si tratta dell’uomo di scienza che a Bletchley Park, nelle campagne di Londra, aiutò a decrittare i messaggi nazisti della macchina Enigma.

Cos’è

L’intelligenza artificiale (IA) è un ramo dell’informatica che cerca di realizzare macchine con capacità tipiche dell’intelligenza umana.

Questo significa che, partendo da un insieme di dati, attraverso l’intelligenza artificiale un computer è in grado di analizzare, classificare, ragionare, prevedere, creare e imparare, migliorando sempre più nel tempo, proprio come i modelli di apprendimento umani.

Come lavora

Lo sviluppo dell’intelligenza artificiale è direttamente proporzionale alla disponibilità di dati da analizzare, poiché gli algoritmi di intelligenza artificiale vengono addestrati utilizzando insiemi di dati di grandi dimensioni, in modo che possano identificare modelli, fare previsioni e consigliare azioni, proprio come farebbe un essere umano.

Le parole chiave

Per approcciarsi all’intelligenza artificiale è opportuno conoscere il significato di alcune parole chiave.

Intelligenza artificiale debole

L’intelligenza artificiale debole è quella che opera in un contesto limitato, in grado di risolvere problemi specifici senza avere coscienza delle attività svolte.

Intelligenza artificiale forte

L’intelligenza artificiale forte è quella in grado di fare tutto quello che farebbe un essere umano, di auto migliorarsi e di sviluppare una coscienza di sé.

Algoritmi evolutivi

Gli algoritmi evoluti sono particolari algoritmi utilizzati dall’intelligenza artificiale che si auto-migliorano nel tempo, creando a loro volta una popolazione di algoritmi di maggior successo nella previsione dei risultati.

Machine learning

Con il termine machine learning si intende la capacità dell’intelligenza artificiale di apprendere in modo automatico dall’esperienza con un meccanismo simile a ciò che fa un essere umano sin dalla nascita. Alcuni piattaforme di contenuti video, per esempio, applicano  l’apprendimento automatico alla cronologia delle visualizzazioni per personalizzare i consigli sulla base delle preferenze dell’utente.

Deep learning

Il deep learning è una metodologia di machine learning che simula i processi di apprendimento del cervello attraverso reti neurali artificiali stratificate che vengono esposte a una vasta quantità di dati per essere successivamente in grado di imparare da sole a svolgere determinati compiti senza la supervisione umana. La Cina, per esempio, sta applicando tecniche di deep learning al riconoscimento facciale grazie alle tantissime immagini acquisite dalle numerose telecamere esistenti che vengono analizzate attraverso reti neurali profonde.

Intelligenza artificiale generativa

Si tratta di un ramo dell’intelligenza artificiale che si occupa di creare sistemi capaci di generare autonomamente nuovi contenuti (testi, immagini, video, etc.) che prima non esistevano, migliorando sempre di più grazie ad algoritmi di machine learning e di deep learning.

Gli ambiti di applicazione

Gli ambiti di applicazione dell’intelligenza artificiale già oggi sono tantissimi: il riconoscimento dei volti nelle immagini caricate all’interno dei social media, la guida autonoma nei sistemi di trasporto, la profilazione delle preferenze degli utenti che utilizzano servizi digitali, l’ottimizzazione dei motori di ricerca, la realizzazione di sistemi di assistenza virtuale, la realizzazione di traduzioni online e di sottotitolazioni video, la gestione della domotica industriale e domestica, l’individuazione di minacce legate alla cybersicurezza, il riconoscimento delle erbacce infestanti e il loro sradicamento attraverso robot in agricoltura.

La sanità è un campo dove l’intelligenza artificiale può portare numerosi benefici, migliorando le diagnosi sulla base di dati clinici dei pazienti in modo di aiutare i medici a prendere decisioni in modo più rapido, automatizzando i controlli della temperatura nei luoghi pubblici, riconoscendo le infezioni a partire dalle immagini TAC, ottimizzando le chiamate di emergenza attraverso strumenti in grado di riconoscere alcune patologie in modo più veloce rispetto a un operatore umano.

Gli strumenti principali

Esistono ormai molte organizzazioni attive nello sviluppo di strumenti di intelligenza artificiale; in questa sede ci limitiamo a richiamarne i principali prodotti dalle tre organizzazioni più importanti per dimensioni, fatturato e diffusione.

I primi “tool” di intelligenza artificiale sono stati prodotti da OpenAI, un laboratorio di ricerca costituito per promuovere e sviluppare un’intelligenza artificiale amichevole e a beneficio dell’umanità. Nato il 10 dicembre 2015 grazie a Elon Musk e Sam Altman, ha visto nel 2019 l’ingresso anche di Microsoft. Tra i programmi principali sviluppati da OpenAI ricordiamo ChatGPT, in grado di generare risposte in linguaggio naturale a quesiti posti dagli utenti, e DALL-E, un sistema che genera immagini tramite una descrizione testuale.

Microsoft in queste settimane ha rilasciato Copilot, un’applicazione di intelligenza artificiale integrata in Windows 11 e basata su ChatGPT, ma secondo alcuni osservatori più completa e potente di quest’ultima.

Google ha recentemente lanciato la propria piattaforma di intelligenza artificiale generativa che prende il nome di Bard e che, stando alle dichiarazioni dell’azienda californiana, punta a diventare più potente di ChatGPT.

I diritti, la governance e le responsabilità

Lo sviluppo dell’intelligenza artificiale porta con sè una serie di riflessioni sull’eventuale perdita di diritti legata a questa tecnologia. In questa sede ci limitiamo a citare sinteticamente i principali, ciascuno dei quali meriterebbe un approfondimento dedicato.

Etica

L’intelligenza artificiale secondo alcuni ricercatori potrà sviluppare una coscienza propria e autonoma tale da poter essere utilizzata in contrasto con i valori umani.

Distribuzione del potere

L’intelligenza artificiale è in mano a importanti industrie private che potrebbero acquisire una posizione di forza dominante sulla quale il pubblico non sarà in grado di esercitare alcun controllo.

Perdita di posti di lavoro

L’intelligenza artificiale generativa potrà rendere superflui tantissimi posti di lavoro a livello globale sia nelle posizione ordinarie sia in quelle qualificate.

Disinformazione

L’intelligenza artificiale potrà essere sempre più utilizzata come uno strumento di disinformazione, anche politica, tale da influenzare le competizioni elettorali (si pensi alla ormai celebre fotografia di Donald Trump mentre viene arrestato, generata con l’intelligenza artificiale da Eliot Higgins, fondatore della piattaforma di giornalismo investigativo Bellingcat).

Copyright

L’intelligenza artificiale si basa sull’utilizzo di dati spesso coperti da diritto di autore che rischiano di essere violati, provocando anche danni patrimoniali ai detentori. Significativa da questo punto di vista la recente causa avanzata dal New York Times verso OpenAI con l’accusa di aver utilizzato milioni di articoli pubblicati dalla testata giornalistica per addestrare software che ora competono con l’organo di stampa come fonte di informazioni affidabili.

Privacy

Gli algoritmi di intelligenza artificiale possono operare in modo incontrollato, entrando nella privacy dei cittadini e riuscendo, per esempio, a scoprire le loro password di accesso a piattaforme informatiche.

Dalla dichiarazione di Bletchley agli atti europei e italiani

Sono ormai molte le iniziative legislative a livello mondiale in materia di intelligenza artificiale. In questa sede richiamiamo le tre più recenti e importanti, dal livello internazionale a quello italiano.

Il contesto internazionale

Con la Dichiarazione di Bletchley del 01/11/2023 i delegati di 28 Paesi, tra cui Stati Uniti, Cina e i governi dell’Unione europea, hanno concordato di lavorare insieme per contenere i rischi potenzialmente catastrofici posti dai progressi sempre più rapidi dell’intelligenza artificiale. Le scelta del luogo non è casuale perché come abbiamo visto è il paese dove lo scienziato Alan Turing venne assunto come crittografo dall’esercito inglese per decrittare il sistema cifrato di Enigma.

Il contesto europeo

L’Accordo provvisorio tra il Parlamento europeo e il Consiglio del 07/12/2023 sul nuovo regolamento sull’intelligenza artificiale (AI Act 2023), proposto dalla Commissione europea il 21/04/2021, mira a garantire che l’intelligenza artificiale sia sicura e rispetti i diritti fondamentali e i valori dell’Unione europea.

All’interno dell’accordo si definisce un approccio all’intelligenza artificiale basato su diversi livelli di rischio:

  • Rischio minimo, ovvero sistemi che presentano un rischio basso o nullo per la sicurezza dei cittadini.
  • Rischio alto, ovvero sistemi applicati a particolari settori (infrastrutture critiche, medicina, educazione, etc.) che presentano un rischio significativo e che dovranno rispettare requisiti rigorosi.
  • Rischio inaccettabile, ovvero sistemi considerati una chiara minaccia dei diritti fondamentali delle persone e, quindi, vietati.
  • Rischio specifico, ovvero sistemi che impattano sulla trasparenza e, quindi, l’utilizzo deve essere accompagnato da un’adeguata informazione.

L’AI Act introduce norme specifiche per la governance dell’intelligenza artificiale al fine di garantire la trasparenza, la gestione dei rischi e il monitoraggio di eventuali incidenti.

Si prevede inoltre l’istituzione di un ufficio europeo per l’intelligenza artificiale all’interno della Commissione europea.

Il contesto italiano

In Italia nel 2023 sono state istituite due commissioni governative che si occupano di intelligenza artificiale: la prima è la Commissione sull’intelligenza artificiale guidata da Paolo Benanti, la seconda è il Comitato di coordinamento per l’intelligenza artificiale guidato da Gianluigi Greco, professore di informatica all’Università della Calabria.

La prima commissione dovrà occuparsi di come l’intelligenza artificiale può compromettere il settore dell’informazione, a partire dalla diffusione di deepfake e fake news, mentre la seconda ha il compito di analizzare l’impatto dell’intelligenza artificiale e mettere a punto il piano strategico italiano con l’obiettivo di guidare lo sviluppo di questa tecnologia in modo responsabile e inclusivo.

Share this

Consulta il mio sito internet per conoscermi https://www.giovannibonati.it

Torna su