AI Intelligenza Artificiale la spiegazione

Cos’è l’AI? Spiegazione dell’intelligenza artificiale

L’intelligenza artificiale è la simulazione dei processi di intelligenza umana da parte delle macchine, in particolare dei sistemi informatici. Esempi di applicazioni di IA includono sistemi esperti, elaborazione del linguaggio naturale (NLP), riconoscimento vocale e visione artificiale.

Con l’accelerazione dell’entusiasmo intorno all’AI, i fornitori si sono affrettati a promuovere il modo in cui i loro prodotti e servizi la incorporano. Spesso, ciò a cui si riferiscono come “IA” (o AI)è una tecnologia consolidata come l’apprendimento automatico.

L’IA richiede hardware e software specializzati per scrivere e addestrare algoritmi di apprendimento automatico. Nessun singolo linguaggio di programmazione è utilizzato esclusivamente nell’AI ma Python, R, Java, C++ e Julia sono tutti linguaggi popolari tra gli sviluppatori di AI.

Come funziona l’AI?

In generale, i sistemi di AI funzionano ingerendo grandi quantità di dati di addestramento etichettati, analizzando tali dati per correlazioni e modelli e utilizzando questi modelli per fare previsioni sugli stati futuri.
Ad esempio, un chatbot di AI che riceve esempi di testo può imparare a generare scambi realistici con le persone e uno strumento di riconoscimento delle immagini può imparare a identificare e descrivere oggetti nelle immagini esaminando milioni di esempi. Le tecniche di intelligenza artificiale generativa, che hanno fatto rapidi progressi negli ultimi anni, possono creare testo, immagini, musica e altri media realistici.

La programmazione dei sistemi di intelligenza artificiale si concentra su abilità cognitive come le seguenti:

  • Apprendimento. Questo aspetto della programmazione dell’intelligenza artificiale comporta l’acquisizione di dati e la creazione di regole, note come algoritmi, per trasformarli in informazioni fruibili. Questi algoritmi forniscono ai dispositivi di elaborazione istruzioni dettagliate per il completamento di attività specifiche.
  • Ragionamento. Questo aspetto comporta la scelta dell’algoritmo giusto per raggiungere un risultato desiderato.
  • Autocorrezione. Questo aspetto comporta algoritmi che apprendono e si sintonizzano continuamente per fornire i risultati più accurati possibili.
  • Creatività. Questo aspetto utilizza reti neurali, sistemi basati su regole, metodi statistici e altre tecniche di intelligenza artificiale per generare nuove immagini, testo, musica, idee e così via.

Differenze tra intelligenza artificiale, machine learning e deep learning

I termini intelligenza artificiale, deep learning e machine learning sono spesso usati in modo intercambiabile, soprattutto nei materiali di marketing delle aziende, ma hanno significati distinti. In breve, l’intelligenza artificiale descrive il concetto generale di macchine che simulano l’intelligenza umana, mentre l’apprendimento automatico e l’apprendimento profondo sono tecniche specifiche in questo campo.

Il termine AI, coniato negli anni ’50, comprende un’ampia gamma di tecnologie in continua evoluzione che mirano a simulare l’intelligenza umana, tra cui machine learning e deep learning. Il machine learning consente al software di apprendere autonomamente modelli e prevedere risultati utilizzando dati storici come input. Questo approccio è diventato più efficace con la disponibilità di grandi set di dati di training. Il deep learning, un sottoinsieme del machine learning, mira a imitare la struttura del cervello utilizzando reti neurali stratificate. È alla base di molte importanti innovazioni e recenti progressi nell’AI, tra cui veicoli autonomi e ChatGPT.

 

Perché l’intelligenza artificiale è importante?

L’intelligenza artificiale è importante per il suo potenziale di cambiare il nostro modo di vivere, lavorare e divertirci. È stata utilizzata efficacemente nel mondo degli affari per automatizzare attività tradizionalmente svolte dagli esseri umani, tra cui il servizio clienti, la generazione di lead, il rilevamento delle frodi e il controllo qualità.

In diversi ambiti, l’intelligenza artificiale può svolgere attività in modo più efficiente e accurato rispetto agli esseri umani. È particolarmente utile per attività ripetitive e orientate ai dettagli, come l’analisi di un gran numero di documenti legali per garantire che i campi pertinenti siano compilati correttamente. La capacità dell’intelligenza artificiale di elaborare enormi set di dati fornisce alle aziende informazioni sulle loro operazioni che altrimenti non avrebbero notato. La gamma in rapida espansione di strumenti di intelligenza artificiale generativa sta diventando importante anche in settori che vanno dall’istruzione al marketing alla progettazione di prodotti.

I progressi nelle tecniche di intelligenza artificiale non solo hanno contribuito ad alimentare un’esplosione di efficienza, ma hanno anche aperto le porte a opportunità di business completamente nuove per alcune grandi aziende. Prima dell’attuale ondata di intelligenza artificiale, ad esempio, sarebbe stato difficile immaginare di utilizzare un software per computer per collegare i passeggeri ai taxi su richiesta, eppure Uber è diventata un’azienda Fortune 500 proprio facendo questo.

L’intelligenza artificiale è diventata centrale per molte delle aziende più grandi e di maggior successo di oggi, tra cui Alphabet, Apple, Microsoft e Meta, che utilizzano l’intelligenza artificiale per migliorare le proprie operazioni e superare i concorrenti. Ad esempio, presso la sussidiaria di Alphabet, Google, l’intelligenza artificiale è centrale per il suo omonimo motore di ricerca e la società di auto a guida autonoma Waymo è nata come divisione di Alphabet. Il laboratorio di ricerca Google Brain ha anche inventato l’architettura del trasformatore che supporta le recenti innovazioni NLP come ChatGPT di OpenAI.

Quali sono i vantaggi e gli svantaggi dell’intelligenza artificiale?

Le tecnologie di intelligenza artificiale, in particolare i modelli di apprendimento profondo come le reti neurali artificiali, possono elaborare grandi quantità di dati molto più velocemente e fare previsioni più accurate di quanto possano fare gli esseri umani. Mentre l’enorme volume di dati creato quotidianamente seppellirebbe un ricercatore umano, le applicazioni di intelligenza artificiale che utilizzano l’apprendimento automatico possono prendere quei dati e trasformarli rapidamente in informazioni fruibili.

Uno svantaggio principale dell’intelligenza artificiale è che è costoso elaborare le grandi quantità di dati di cui ha bisogno. Con l’integrazione delle tecniche di intelligenza artificiale in sempre più prodotti e servizi, le organizzazioni devono anche essere consapevoli del potenziale dell’intelligenza artificiale nel creare sistemi distorti e discriminatori, intenzionalmente o inavvertitamente.

Vantaggi dell’IA

Ecco alcuni vantaggi dell’IA:

  • Eccellenza nei lavori orientati ai dettagli. L’IA è adatta per attività che implicano l’identificazione di modelli e relazioni sottili nei dati che potrebbero essere trascurati dagli esseri umani. Ad esempio, in oncologia, i sistemi di IA hanno dimostrato un’elevata accuratezza nel rilevare tumori in fase iniziale, come il cancro al seno e il melanoma, evidenziando aree di interesse per un’ulteriore valutazione da parte dei professionisti sanitari.
  • Efficienza nelle attività ad alto contenuto di dati. I sistemi di IA e gli strumenti di automazione riducono drasticamente il tempo necessario per l’elaborazione dei dati. Ciò è particolarmente utile in settori come finanza, assicurazioni e assistenza sanitaria che comportano una grande quantità di immissione e analisi di dati di routine, nonché un processo decisionale basato sui dati. Ad esempio, nel settore bancario e finanziario, i modelli di IA predittiva possono elaborare grandi volumi di dati per prevedere le tendenze di mercato e analizzare il rischio di investimento.
  • Risparmio di tempo e guadagni di produttività. L’IA e la robotica possono non solo automatizzare le operazioni, ma anche migliorare la sicurezza e l’efficienza. Nella produzione, ad esempio, i robot basati sull’intelligenza artificiale vengono sempre più utilizzati per svolgere attività pericolose o ripetitive come parte dell’automazione del magazzino, riducendo così il rischio per i lavoratori umani e aumentando la produttività complessiva.
  • Coerenza nei risultati. Gli strumenti di analisi odierni utilizzano l’intelligenza artificiale e l’apprendimento automatico per elaborare grandi quantità di dati in modo uniforme, mantenendo al contempo la capacità di adattarsi a nuove informazioni tramite apprendimento continuo. Ad esempio, le applicazioni di intelligenza artificiale hanno fornito risultati coerenti e affidabili nella revisione di documenti legali e nella traduzione linguistica.
  • Personalizzazione e personalizzazione. I sistemi di intelligenza artificiale possono migliorare l’esperienza utente personalizzando le interazioni e la distribuzione dei contenuti sulle piattaforme digitali. Sulle piattaforme di e-commerce, ad esempio, i modelli di intelligenza artificiale analizzano il comportamento dell’utente per consigliare prodotti adatti alle preferenze di un individuo, aumentando la soddisfazione e il coinvolgimento del cliente.
  • Disponibilità 24 ore su 24. I programmi di intelligenza artificiale non hanno bisogno di dormire o fare pause. Ad esempio, gli assistenti virtuali basati sull’intelligenza artificiale possono fornire un servizio clienti ininterrotto, 24 ore su 24, 7 giorni su 7, anche in caso di elevati volumi di interazione, migliorando i tempi di risposta e riducendo i costi.
    Scalabilità. I ​​sistemi di intelligenza artificiale possono essere scalabili per gestire quantità crescenti di lavoro e dati. Ciò rende l’IA adatta a scenari in cui i volumi di dati e i carichi di lavoro possono crescere in modo esponenziale, come la ricerca su Internet e l’analisi aziendale.
  • Ricerca e sviluppo accelerati. L’IA può accelerare il ritmo della R&S in settori come la farmaceutica e la scienza dei materiali. Simulando e analizzando rapidamente molti possibili scenari, i modelli di IA possono aiutare i ricercatori a scoprire nuovi farmaci, materiali o composti più rapidamente rispetto ai metodi tradizionali.
  • Sostenibilità e conservazione. L’IA e l’apprendimento automatico sono sempre più utilizzati per monitorare i cambiamenti ambientali, prevedere futuri eventi meteorologici e gestire gli sforzi di conservazione. I modelli di apprendimento automatico possono elaborare immagini satellitari e dati dei sensori per tracciare il rischio di incendi boschivi, i livelli di inquinamento e le popolazioni di specie in via di estinzione, ad esempio.
  • Ottimizzazione dei processi. L’IA viene utilizzata per semplificare e automatizzare processi complessi in vari settori. Ad esempio, i modelli di IA possono identificare inefficienze e prevedere colli di bottiglia nei flussi di lavoro di produzione, mentre nel settore energetico possono prevedere la domanda di elettricità e allocare l’offerta in tempo reale.

Svantaggi dell’AI

Di seguito sono riportati alcuni svantaggi dell’IA:

  • Costi elevati. Sviluppare l’IA può essere molto costoso. La creazione di un modello di IA richiede un investimento iniziale sostanziale in infrastrutture, risorse computazionali e software per addestrare il modello e archiviare i suoi dati di addestramento. Dopo l’addestramento iniziale, ci sono ulteriori costi continui associati all’inferenza del modello e al riaddestramento. Di conseguenza, i costi possono accumularsi rapidamente, in particolare per sistemi avanzati e complessi come le applicazioni di IA generativa; il CEO di OpenAI Sam Altman ha affermato che l’addestramento del modello GPT-4 dell’azienda è costato oltre 100 milioni di dollari.
  • Complessità tecnica. Sviluppare, gestire e risolvere i problemi dei sistemi di IA, in particolare in ambienti di produzione reali, richiede una grande quantità di know-how tecnico. In molti casi, questa conoscenza differisce da quella necessaria per creare software non di IA. Ad esempio, creare e distribuire un’applicazione di apprendimento automatico comporta un processo complesso, multifase e altamente tecnico, dalla preparazione dei dati alla selezione dell’algoritmo, alla messa a punto dei parametri e al test del modello.
  • Divario di talenti. Ad aggravare il problema della complessità tecnica, c’è una significativa carenza di professionisti formati in IA e apprendimento automatico rispetto alla crescente necessità di tali competenze. Questo divario tra domanda e offerta di talenti AI significa che, nonostante l’interesse per le applicazioni AI stia crescendo, molte organizzazioni non riescono a trovare abbastanza lavoratori qualificati per gestire le loro iniziative AI.
  • Bias algoritmico. Gli algoritmi AI e di apprendimento automatico riflettono i bias presenti nei loro dati di formazione e, quando i sistemi AI vengono distribuiti su larga scala, anche i bias aumentano.
    In alcuni casi, i sistemi di intelligenza artificiale possono persino amplificare sottili pregiudizi nei loro dati di formazione codificandoli in modelli rinforzabili e pseudo-oggettivi. In un esempio ben noto, Amazon ha sviluppato uno strumento di reclutamento basato sull’intelligenza artificiale per automatizzare il processo di assunzione che inavvertitamente favoriva i candidati maschi, riflettendo squilibri di genere su larga scala nel settore tecnologico.
  • Difficoltà di generalizzazione. I modelli di intelligenza artificiale spesso eccellono nelle attività specifiche per cui sono stati formati, ma hanno difficoltà quando viene chiesto loro di affrontare nuovi scenari. Questa mancanza di flessibilità può limitare l’utilità dell’intelligenza artificiale, poiché nuove attività potrebbero richiedere lo sviluppo di un modello completamente nuovo. Un modello NLP formato su testo in lingua inglese, ad esempio, potrebbe funzionare male su testo in altre lingue senza un’ampia formazione aggiuntiva. Mentre è in corso il lavoro per migliorare la capacità di generalizzazione dei modelli, nota come adattamento del dominio o apprendimento per trasferimento, questo rimane un problema di ricerca aperto.
  • Spostamento del lavoro. L’intelligenza artificiale può portare alla perdita di posti di lavoro se le organizzazioni sostituiscono i lavoratori umani con le macchine, un’area di crescente preoccupazione man mano che le capacità dei modelli di intelligenza artificiale diventano più sofisticate e le aziende cercano sempre più di automatizzare i flussi di lavoro utilizzando l’intelligenza artificiale. Ad esempio, alcuni copywriter hanno segnalato di essere stati sostituiti da modelli di linguaggio di grandi dimensioni (LLM) come ChatGPT. Mentre l’adozione diffusa dell’intelligenza artificiale può anche creare nuove categorie di lavoro, queste potrebbero non sovrapporsi ai lavori eliminati, sollevando preoccupazioni sulla disuguaglianza economica e sulla riqualificazione.
  • Vulnerabilità della sicurezza. I sistemi di intelligenza artificiale sono suscettibili a un’ampia gamma di minacce informatiche, tra cui l’avvelenamento dei dati e l’apprendimento automatico avversario. Gli hacker possono estrarre dati di formazione sensibili da un modello di intelligenza artificiale, ad esempio, o indurre i sistemi di intelligenza artificiale a produrre output errati e dannosi. Ciò è particolarmente preoccupante nei settori sensibili alla sicurezza come i servizi finanziari e il governo.
  • Impatto ambientale. I data center e le infrastrutture di rete che supportano le operazioni dei modelli di intelligenza artificiale consumano grandi quantità di energia e acqua. Di conseguenza, la formazione e l’esecuzione di modelli di intelligenza artificiale hanno un impatto significativo sul clima.
    L’impatto ambientale dell’IA è particolarmente preoccupante per i grandi modelli generativi, che richiedono una grande quantità di risorse informatiche per la formazione e l’uso continuo.
  • Questioni legali. L’IA solleva questioni complesse sulla privacy e sulla responsabilità legale, in particolare in un panorama normativo dell’IA in evoluzione che differisce da regione a regione.
    L’uso dell’IA per analizzare e prendere decisioni basate sui dati personali ha gravi implicazioni sulla privacy, ad esempio, e non è ancora chiaro come i tribunali considereranno la paternità del materiale generato dagli LLM formati su opere protette da copyright.

 

IA forte vs. IA debole

L’IA può essere generalmente classificata in due tipi: IA ristretta (o debole) e IA generale (o forte).

  • IA ristretta. Questa forma di IA si riferisce a modelli addestrati per eseguire attività specifiche. L’IA ristretta opera nel contesto delle attività per cui è programmata, senza la capacità di generalizzare ampiamente o di apprendere oltre la sua programmazione iniziale. Esempi di IA ristretta includono assistenti virtuali, come Apple Siri e Amazon Alexa, e motori di raccomandazione, come quelli presenti su piattaforme di streaming come Spotify e Netflix.
  • IA generale. Questo tipo di IA, che attualmente non esiste, è più spesso definito intelligenza artificiale generale (AGI). Se creata, l’AGI sarebbe in grado di eseguire qualsiasi attività intellettuale che un essere umano può. Per farlo, l’AGI avrebbe bisogno della capacità di applicare il ragionamento in un’ampia gamma di domini per comprendere problemi complessi per i quali non è stata specificamente programmata per risolvere. Ciò, a sua volta, richiederebbe qualcosa di noto nell’AI come logica fuzzy: un approccio che consenta aree grigie e gradazioni di incertezza, piuttosto che risultati binari, in bianco e nero.

È importante notare che la questione se l’AGI possa essere creata, e le conseguenze di ciò, rimane oggetto di accesi dibattiti tra gli esperti di AI. Anche le tecnologie AI più avanzate di oggi, come ChatGPT e altri LLM altamente capaci, non dimostrano capacità cognitive alla pari degli umani e non possono generalizzare in diverse situazioni. ChatGPT, ad esempio, è progettato per la generazione di linguaggio naturale e non è in grado di andare oltre la sua programmazione originale per eseguire attività come il ragionamento matematico complesso.

4 tipi di AI

L’AI può essere categorizzata in quattro tipi, a partire dai sistemi intelligenti specifici per attività ampiamente utilizzati oggi e procedendo verso i sistemi senzienti, che non esistono ancora.

Le categorie sono le seguenti:

Tipo 1: Macchine reattive. Questi sistemi AI non hanno memoria e sono specifici per attività. Un esempio è Deep Blue, il programma di scacchi IBM che ha battuto il grande maestro di scacchi russo Garry Kasparov negli anni ’90. Deep Blue era in grado di identificare i pezzi su una scacchiera e fare previsioni, ma poiché non aveva memoria, non poteva usare le esperienze passate per informare quelle future.
Tipo 2: Memoria limitata. Questi sistemi di intelligenza artificiale hanno memoria, quindi possono usare le esperienze passate per informare le decisioni future. Alcune delle funzioni decisionali nelle auto a guida autonoma sono progettate in questo modo.
Tipo 3: Teoria della mente. La teoria della mente è un termine psicologico. Quando applicato all’intelligenza artificiale, si riferisce a un sistema in grado di comprendere le emozioni. Questo tipo di intelligenza artificiale può dedurre le intenzioni umane e prevedere il comportamento, un’abilità necessaria affinché i sistemi di intelligenza artificiale diventino membri integranti di team storicamente umani.
Tipo 4: Autoconsapevolezza. In questa categoria, i sistemi di intelligenza artificiale hanno un senso di sé, che conferisce loro coscienza. Le macchine con autoconsapevolezza comprendono il proprio stato attuale. Questo tipo di intelligenza artificiale non esiste ancora.

Quali sono gli esempi di tecnologia di intelligenza artificiale e come viene utilizzata oggi?

Le tecnologie AI possono migliorare le funzionalità degli strumenti esistenti e automatizzare varie attività e processi, influenzando numerosi aspetti della vita quotidiana. Di seguito sono riportati alcuni esempi importanti.

Automazione

L’AI migliora le tecnologie di automazione espandendo la gamma, la complessità e il numero di attività che possono essere automatizzate. Un esempio è l’automazione robotica dei processi (RPA), che automatizza attività di elaborazione dati ripetitive e basate su regole tradizionalmente eseguite dagli esseri umani. Poiché l’AI aiuta i bot RPA ad adattarsi ai nuovi dati e a rispondere dinamicamente ai cambiamenti di processo, l’integrazione delle capacità di AI e apprendimento automatico consente all’RPA di gestire flussi di lavoro più complessi.

Apprendimento automatico o Machine learning

L’apprendimento automatico è la scienza che insegna ai computer ad apprendere dai dati e a prendere decisioni senza essere programmati esplicitamente per farlo. L’apprendimento profondo, un sottoinsieme dell’apprendimento automatico, utilizza sofisticate reti neurali per eseguire quella che è essenzialmente una forma avanzata di analisi predittiva.

Gli algoritmi di apprendimento automatico possono essere ampiamente classificati in tre categorie:

apprendimento supervisionato, apprendimento non supervisionato e apprendimento per rinforzo.

  • L’apprendimento supervisionato addestra modelli su set di dati etichettati, consentendo loro di riconoscere accuratamente schemi, prevedere risultati o classificare nuovi dati.
  • L’apprendimento non supervisionato addestra i modelli a ordinare set di dati non etichettati per trovare relazioni o cluster sottostanti.
  • L’apprendimento per rinforzo adotta un approccio diverso, in cui i modelli imparano a prendere decisioni agendo come agenti e ricevendo feedback sulle loro azioni.

Esiste anche l’apprendimento semi-supervisionato, che combina aspetti degli approcci supervisionati e non supervisionati. Questa tecnica utilizza una piccola quantità di dati etichettati e una maggiore quantità di dati non etichettati, migliorando così la precisione dell’apprendimento e riducendo al contempo la necessità di dati etichettati, il cui reperimento può richiedere molto tempo e lavoro.

Visione artificiale

La visione artificiale è un campo dell’intelligenza artificiale che si concentra sull’insegnamento alle macchine di come interpretare il mondo visivo.

Analizzando informazioni visive come immagini e video della telecamera utilizzando modelli di apprendimento profondo, i sistemi di visione artificiale possono imparare a identificare e classificare oggetti e prendere decisioni in base a tali analisi.

L’obiettivo principale della visione artificiale è replicare o migliorare il sistema visivo umano utilizzando algoritmi di intelligenza artificiale. La visione artificiale è utilizzata in un’ampia gamma di applicazioni, dall’identificazione della firma all’analisi delle immagini mediche ai veicoli autonomi. La visione artificiale, un termine spesso confuso con la visione artificiale, si riferisce specificamente all’uso della visione artificiale per analizzare i dati della telecamera e del video in contesti di automazione industriale, come i processi di produzione nella produzione.

Elaborazione del linguaggio naturale

NLP si riferisce all’elaborazione del linguaggio umano da parte di programmi per computer. Gli algoritmi NLP possono interpretare e interagire con il linguaggio umano, eseguendo attività come traduzione, riconoscimento vocale e analisi del sentiment. Uno degli esempi più antichi e noti di NLP è il rilevamento dello spam, che esamina l’oggetto e il testo di un’e-mail e decide se è posta indesiderata. Applicazioni più avanzate di NLP includono LLM come ChatGPT e Claude di Anthropic.

Robotica

La robotica è un campo dell’ingegneria che si concentra sulla progettazione, produzione e funzionamento dei robot: macchine automatizzate che replicano e sostituiscono le azioni umane, in particolare quelle difficili, pericolose o noiose da eseguire per gli esseri umani. Esempi di applicazioni della robotica includono la produzione, in cui i robot eseguono attività ripetitive o pericolose in catena di montaggio, e missioni esplorative in aree distanti e difficili da raggiungere come lo spazio e le profondità marine.

L’integrazione di intelligenza artificiale e apprendimento automatico amplia significativamente le capacità dei robot consentendo loro di prendere decisioni autonome più informate e di adattarsi a nuove situazioni e dati. Ad esempio, i robot con capacità di visione artificiale possono imparare a ordinare gli oggetti su una linea di produzione in base a forma e colore.

Veicoli autonomi
I veicoli autonomi, più colloquialmente noti come auto a guida autonoma, possono percepire e navigare nell’ambiente circostante con un input umano minimo o nullo. Questi veicoli si basano su una combinazione di tecnologie, tra cui radar, GPS e una gamma di algoritmi di intelligenza artificiale e apprendimento automatico, come il riconoscimento delle immagini.

Questi algoritmi apprendono dai dati di guida, traffico e mappe del mondo reale per prendere decisioni informate su quando frenare, svoltare e accelerare; come rimanere in una determinata corsia; e come evitare ostacoli imprevisti, compresi i pedoni. Sebbene la tecnologia abbia fatto notevoli progressi negli ultimi anni, l’obiettivo finale di un veicolo autonomo in grado di sostituire completamente un conducente umano deve ancora essere raggiunto.

AI generativa

Il termine AI generativa si riferisce ai sistemi di apprendimento automatico in grado di generare nuovi dati da prompt di testo, più comunemente testo e immagini, ma anche audio, video, codice software e persino sequenze genetiche e strutture proteiche. Attraverso l’addestramento su enormi set di dati, questi algoritmi apprendono gradualmente i modelli dei tipi di media che saranno chiamati a generare, consentendo loro in seguito di creare nuovi contenuti che assomigliano a quei dati di addestramento.

L’AI generativa ha visto una rapida crescita di popolarità in seguito all’introduzione di generatori di testo e immagini ampiamente disponibili nel 2022, come ChatGPT, Dall-E e Midjourney, ed è sempre più applicata in contesti aziendali. Sebbene le capacità di molti strumenti di intelligenza artificiale generativa siano impressionanti, sollevano anche preoccupazioni su questioni come copyright, fair use e sicurezza che rimangono oggetto di dibattito aperto nel settore tecnologico.

Quali sono le applicazioni dell’intelligenza artificiale?

L’intelligenza artificiale è entrata in un’ampia varietà di settori industriali e aree di ricerca. Di seguito sono riportati alcuni degli esempi più notevoli.

L’intelligenza artificiale nell’assistenza sanitaria

L’intelligenza artificiale viene applicata a una serie di attività nel settore sanitario, con l’obiettivo generale di migliorare i risultati per i pazienti e ridurre i costi sistemici. Una delle principali applicazioni è l’uso di modelli di apprendimento automatico addestrati su grandi set di dati medici per aiutare i professionisti sanitari a fare diagnosi migliori e più rapide. Ad esempio, il software basato sull’intelligenza artificiale può analizzare le scansioni TC e avvisare i neurologi di sospetti ictus.

Dal lato del paziente, gli assistenti sanitari virtuali online e i chatbot possono fornire informazioni mediche generali, programmare appuntamenti, spiegare i processi di fatturazione e completare altre attività amministrative. Gli algoritmi di intelligenza artificiale di modellazione predittiva possono anche essere utilizzati per combattere la diffusione di pandemie come COVID-19.

AI nel business

L’AI è sempre più integrata in varie funzioni e settori aziendali, con l’obiettivo di migliorare l’efficienza, l’esperienza del cliente, la pianificazione strategica e il processo decisionale. Ad esempio, i modelli di apprendimento automatico alimentano molte delle attuali piattaforme di analisi dei dati e di gestione delle relazioni con i clienti (CRM), aiutando le aziende a capire come servire al meglio i clienti attraverso offerte personalizzate e offrendo un marketing più mirato.

Gli assistenti virtuali e i chatbot vengono inoltre distribuiti sui siti Web aziendali e nelle applicazioni mobili per fornire un servizio clienti 24 ore su 24 e rispondere alle domande più comuni. Inoltre, sempre più aziende stanno esplorando le capacità degli strumenti di AI generativa come ChatGPT per automatizzare attività quali la stesura e la sintesi di documenti, la progettazione e l’ideazione di prodotti e la programmazione di computer.

 

L’intelligenza artificiale nell’istruzione

L’intelligenza artificiale ha una serie di potenziali applicazioni nella tecnologia dell’istruzione. Può automatizzare aspetti dei processi di valutazione, dando agli educatori più tempo per altri compiti. Gli strumenti di intelligenza artificiale possono anche valutare le prestazioni degli studenti e adattarsi alle loro esigenze individuali, facilitando esperienze di apprendimento più personalizzate che consentono agli studenti di lavorare al proprio ritmo. I tutor di intelligenza artificiale potrebbero anche fornire ulteriore supporto agli studenti, assicurandosi che rimangano sulla buona strada. La tecnologia potrebbe anche cambiare dove e come gli studenti imparano, forse alterando il ruolo tradizionale degli educatori.

Man mano che le capacità di LLM come ChatGPT e Google Gemini crescono, tali strumenti potrebbero aiutare gli educatori a creare materiali didattici e coinvolgere gli studenti in nuovi modi. Tuttavia, l’avvento di questi strumenti costringe anche gli educatori a riconsiderare le pratiche di compiti e test e rivedere le politiche sul plagio, soprattutto considerando che gli strumenti di rilevamento e di filigrana dell’intelligenza artificiale sono attualmente inaffidabili.

L’intelligenza artificiale nella finanza e nel settore bancario

Banche e altre organizzazioni finanziarie utilizzano l’intelligenza artificiale per migliorare il loro processo decisionale per attività come la concessione di prestiti, l’impostazione di limiti di credito e l’identificazione di opportunità di investimento. Inoltre, il trading algoritmico basato su intelligenza artificiale avanzata e apprendimento automatico ha trasformato i mercati finanziari, eseguendo operazioni a velocità ed efficienze di gran lunga superiori a quelle che i trader umani potrebbero fare manualmente.

L’intelligenza artificiale e l’apprendimento automatico sono entrati anche nel regno della finanza al consumo. Ad esempio, le banche utilizzano chatbot AI per informare i clienti su servizi e offerte e per gestire transazioni e domande che non richiedono l’intervento umano. Allo stesso modo, Intuit offre funzionalità AI generative all’interno del suo prodotto di e-filing TurboTax che forniscono agli utenti consigli personalizzati basati su dati come il profilo fiscale dell’utente e il codice fiscale per la propria posizione.

L’intelligenza artificiale nel diritto

L’intelligenza artificiale sta cambiando il settore legale automatizzando attività ad alta intensità di lavoro come la revisione dei documenti e la risposta alle indagini, che possono essere noiose e richiedere molto tempo per avvocati e paralegali. Oggi gli studi legali utilizzano l’intelligenza artificiale e l’apprendimento automatico per una varietà di attività, tra cui analisi e intelligenza artificiale predittiva per analizzare dati e giurisprudenza, visione artificiale per classificare ed estrarre informazioni dai documenti e NLP per interpretare e rispondere alle richieste di indagine.

Oltre a migliorare l’efficienza e la produttività, questa integrazione dell’IA libera i professionisti legali umani, che possono così dedicare più tempo ai clienti e concentrarsi su lavori più creativi e strategici, che l’IA è meno adatta a gestire. Con l’ascesa dell’IA generativa nel diritto, gli studi stanno anche esplorando l’utilizzo di LLM per redigere documenti comuni, come contratti boilerplate.

L’IA nell’intrattenimento e nei media

Il settore dell’intrattenimento e dei media utilizza tecniche di IA nella pubblicità mirata, nelle raccomandazioni sui contenuti, nella distribuzione e nel rilevamento delle frodi. La tecnologia consente alle aziende di personalizzare le esperienze dei membri del pubblico e ottimizzare la distribuzione dei contenuti.

L’IA generativa è anche un argomento caldo nell’area della creazione di contenuti. I professionisti della pubblicità stanno già utilizzando questi strumenti per creare materiale di marketing e modificare le immagini pubblicitarie. Tuttavia, il loro utilizzo è più controverso in aree come la sceneggiatura di film e TV e gli effetti visivi, dove offrono maggiore efficienza ma minacciano anche i mezzi di sostentamento e la proprietà intellettuale degli esseri umani nei ruoli creativi.

L’IA nel giornalismo

Nel giornalismo, l’IA può semplificare i flussi di lavoro automatizzando attività di routine, come l’immissione di dati e la correzione di bozze. I giornalisti investigativi e i giornalisti di dati utilizzano anche l’intelligenza artificiale per trovare e ricercare storie setacciando grandi set di dati tramite modelli di apprendimento automatico, scoprendo così tendenze e connessioni nascoste che richiederebbero molto tempo per essere identificate manualmente. Ad esempio, cinque finalisti per i premi Pulitzer del 2024 per il giornalismo hanno dichiarato di utilizzare l’intelligenza artificiale nei loro reportage per svolgere attività come l’analisi di enormi volumi di registri della polizia. Mentre l’uso di strumenti di intelligenza artificiale tradizionali è sempre più comune, l’uso dell’intelligenza artificiale generativa per scrivere contenuti giornalistici è discutibile, poiché solleva preoccupazioni in merito ad affidabilità, accuratezza ed etica.

L’intelligenza artificiale nello sviluppo software e nell’IT

L’intelligenza artificiale viene utilizzata per automatizzare molti processi nello sviluppo software, DevOps e IT. Ad esempio, gli strumenti AIOps consentono la manutenzione predittiva degli ambienti IT analizzando i dati di sistema per prevedere potenziali problemi prima che si verifichino e gli strumenti di monitoraggio basati sull’intelligenza artificiale possono aiutare a segnalare potenziali anomalie in tempo reale in base ai dati storici del sistema. Anche gli strumenti di intelligenza artificiale generativa come GitHub Copilot e Tabnine vengono sempre più utilizzati per produrre codice applicativo basato su prompt in linguaggio naturale. Sebbene questi strumenti abbiano mostrato fin dall’inizio promesse e interesse tra gli sviluppatori, è improbabile che sostituiscano completamente gli ingegneri del software. Invece, servono come utili aiuti alla produttività, automatizzando attività ripetitive e scrittura di codice boilerplate.

AI nella sicurezza

AI e apprendimento automatico sono parole d’ordine di spicco nel marketing dei fornitori di sicurezza, quindi gli acquirenti dovrebbero adottare un approccio cauto. Tuttavia, l’AI è effettivamente una tecnologia utile in molteplici aspetti della sicurezza informatica, tra cui il rilevamento delle anomalie, la riduzione dei falsi positivi e la conduzione di analisi delle minacce comportamentali. Ad esempio, le organizzazioni utilizzano l’apprendimento automatico nel software di gestione delle informazioni e degli eventi di sicurezza (SIEM) per rilevare attività sospette e potenziali minacce. Analizzando grandi quantità di dati e riconoscendo modelli che assomigliano a codici dannosi noti, gli strumenti di AI possono avvisare i team di sicurezza di attacchi nuovi ed emergenti, spesso molto prima di quanto potessero fare i dipendenti umani e le tecnologie precedenti.

AI nella produzione

La produzione è stata in prima linea nell’incorporazione dei robot nei flussi di lavoro, con recenti progressi incentrati sui robot collaborativi o cobot. A differenza dei tradizionali robot industriali, che erano programmati per eseguire singole attività e operavano separatamente dai lavoratori umani, i cobot sono più piccoli, più versatili e progettati per lavorare insieme agli umani. Questi robot multitasking possono assumersi la responsabilità di più attività nei magazzini, nei reparti di fabbrica e in altri spazi di lavoro, tra cui assemblaggio, imballaggio e controllo qualità. In particolare, l’uso di robot per eseguire o assistere in attività ripetitive e fisicamente impegnative può migliorare la sicurezza e l’efficienza per i lavoratori umani.

AI nei trasporti

Oltre al ruolo fondamentale dell’AI nella gestione di veicoli autonomi, le tecnologie AI sono utilizzate nel trasporto automobilistico per gestire il traffico, ridurre la congestione e migliorare la sicurezza stradale. Nei viaggi aerei, l’AI può prevedere i ritardi dei voli analizzando punti dati come le condizioni meteorologiche e del traffico aereo. Nelle spedizioni oltremare, l’AI può migliorare la sicurezza e l’efficienza ottimizzando i percorsi e monitorando automaticamente le condizioni delle navi.

Nelle catene di fornitura, l’AI sta sostituendo i metodi tradizionali di previsione della domanda e migliorando l’accuratezza delle previsioni su potenziali interruzioni e colli di bottiglia. La pandemia di COVID-19 ha evidenziato l’importanza di queste capacità, poiché molte aziende sono state colte di sorpresa dagli effetti di una pandemia globale sulla domanda e sull’offerta di beni.

Intelligenza aumentata vs. intelligenza artificiale

Il termine intelligenza artificiale è strettamente legato alla cultura popolare, il che potrebbe creare aspettative irrealistiche tra il pubblico in generale sull’impatto dell’IA sul lavoro e sulla vita quotidiana. Un termine alternativo proposto, intelligenza aumentata, distingue i sistemi di macchine che supportano gli esseri umani dai sistemi completamente autonomi che si trovano nella fantascienza, come HAL 9000 di 2001: Odissea nello spazio o Skynet dei film Terminator.

I due termini possono essere definiti come segue:

  • Intelligenza aumentata. Con la sua connotazione più neutra, il termine intelligenza aumentata suggerisce che la maggior parte delle implementazioni di IA sono progettate per migliorare le capacità umane, piuttosto che sostituirle. Questi sistemi di IA ristretti migliorano principalmente prodotti e servizi eseguendo attività specifiche. Esempi includono l’emersione automatica di dati importanti nei report di business intelligence o l’evidenziazione di informazioni chiave nei documenti legali. La rapida adozione di strumenti come ChatGPT e Gemini in vari settori indica una crescente volontà di utilizzare l’IA per supportare il processo decisionale umano.
  • Intelligenza artificiale. In questo contesto, il termine AI verrebbe riservato all’AI generale avanzata per gestire meglio le aspettative del pubblico e chiarire la distinzione tra gli attuali casi d’uso e l’aspirazione a raggiungere l’AGI. Il concetto di AGI è strettamente associato al concetto di singolarità tecnologica, un futuro in cui una superintelligenza artificiale supera di gran lunga le capacità cognitive umane, potenzialmente rimodellando la nostra realtà in modi che vanno oltre la nostra comprensione. La singolarità è da tempo un elemento fondamentale della fantascienza, ma alcuni sviluppatori di AI oggi stanno attivamente perseguendo la creazione di AGI.

Uso etico dell’intelligenza artificiale

Mentre gli strumenti di AI presentano una gamma di nuove funzionalità per le aziende, il loro utilizzo solleva importanti questioni etiche. Nel bene o nel male, i sistemi di AI rafforzano ciò che hanno già imparato, il che significa che questi algoritmi dipendono fortemente dai dati su cui vengono addestrati. Poiché un essere umano seleziona quei dati di addestramento, il potenziale di distorsione è intrinseco e deve essere monitorato attentamente.

L’AI generativa aggiunge un altro livello di complessità etica. Questi strumenti possono produrre testo, immagini e audio altamente realistici e convincenti, una capacità utile per molte applicazioni legittime, ma anche un potenziale vettore di disinformazione e contenuti dannosi come i deepfake.

Di conseguenza, chiunque voglia utilizzare l’apprendimento automatico nei sistemi di produzione del mondo reale deve tenere conto dell’etica nei propri processi di formazione dell’IA e sforzarsi di evitare pregiudizi indesiderati. Ciò è particolarmente importante per gli algoritmi di IA che mancano di trasparenza, come le reti neurali complesse utilizzate nell’apprendimento profondo.

L’IA responsabile si riferisce allo sviluppo e all’implementazione di sistemi di IA sicuri, conformi e socialmente utili. È guidata da preoccupazioni relative a pregiudizi algoritmici, mancanza di trasparenza e conseguenze indesiderate. Il concetto è radicato in idee di lunga data dall’etica dell’IA, ma ha acquisito importanza quando gli strumenti di IA generativa sono diventati ampiamente disponibili e, di conseguenza, i loro rischi sono diventati più preoccupanti. L’integrazione dei principi di IA responsabile nelle strategie aziendali aiuta le organizzazioni a mitigare i rischi e a promuovere la fiducia del pubblico.

La spiegabilità, ovvero la capacità di comprendere come un sistema di IA prende decisioni, è un’area di crescente interesse nella ricerca sull’IA. La mancanza di spiegabilità rappresenta un potenziale ostacolo all’utilizzo dell’IA in settori con rigorosi requisiti di conformità normativa. Ad esempio, le leggi sui prestiti equi richiedono alle istituzioni finanziarie statunitensi di spiegare le proprie decisioni di emissione di crediti ai richiedenti di prestiti e carte di credito. Quando i programmi di IA prendono tali decisioni, tuttavia, le sottili correlazioni tra migliaia di variabili possono creare un problema di scatola nera, in cui il processo decisionale del sistema è opaco.

In sintesi, le sfide etiche dell’IA includono quanto segue:

  • Pregiudizi dovuti ad algoritmi addestrati in modo improprio e pregiudizi o sviste umane.
  • Uso improprio dell’IA generativa per produrre deepfake, truffe di phishing e altri contenuti dannosi.
  • Problemi legali, tra cui diffamazione dell’IA e problemi di copyright.
  • Spostamento di posti di lavoro dovuto al crescente utilizzo dell’IA per automatizzare le attività sul posto di lavoro.
  • Problemi di privacy dei dati, in particolare in settori come quello bancario, sanitario e legale che trattano dati personali sensibili.

Governance e normative dell’IA

Nonostante i potenziali rischi, attualmente ci sono poche normative che disciplinano l’uso degli strumenti di IA e molte leggi esistenti si applicano all’IA indirettamente piuttosto che esplicitamente. Ad esempio, come accennato in precedenza, le normative statunitensi sui prestiti equi come l’Equal Credit Opportunity Act richiedono agli istituti finanziari di spiegare le decisioni di credito ai potenziali clienti. Ciò limita la misura in cui i creditori possono utilizzare algoritmi di apprendimento profondo, che per loro natura sono opachi e privi di spiegabilità.

L’Unione Europea è stata proattiva nell’affrontare la governance dell’IA. Il Regolamento generale sulla protezione dei dati (GDPR) dell’UE impone già rigidi limiti al modo in cui le aziende possono utilizzare i dati dei consumatori, influenzando la formazione e la funzionalità di molte applicazioni di IA rivolte ai consumatori. Inoltre, l’EU AI Act, che mira a stabilire un quadro normativo completo per lo sviluppo e l’implementazione dell’IA, è entrato in vigore nell’agosto 2024. L’atto impone diversi livelli di regolamentazione sui sistemi di IA in base alla loro rischiosità, con aree come la biometria e le infrastrutture critiche che ricevono un controllo maggiore.

Sebbene gli Stati Uniti stiano facendo progressi, il paese non ha ancora una legislazione federale dedicata simile all’AI Act dell’UE. I decisori politici devono ancora emanare una legislazione completa sull’IA e le normative federali esistenti si concentrano su casi d’uso specifici e sulla gestione del rischio, integrate da iniziative statali. Detto questo, le normative più severe dell’UE potrebbero finire per stabilire standard di fatto per le aziende multinazionali con sede negli Stati Uniti, in modo simile a come il GDPR ha plasmato il panorama globale della privacy dei dati.

Per quanto riguarda gli sviluppi specifici della politica statunitense sull’AI, l’Office of Science and Technology Policy della Casa Bianca ha pubblicato un “Blueprint for an AI Bill of Rights” nell’ottobre 2022, fornendo indicazioni alle aziende su come implementare sistemi di IA etici. Anche la Camera di commercio degli Stati Uniti ha chiesto normative sull’IA in un rapporto pubblicato nel marzo 2023, sottolineando la necessità di un approccio equilibrato che promuova la concorrenza affrontando al contempo i rischi.

Più di recente, nell’ottobre 2023, il presidente Biden ha emesso un ordine esecutivo sul tema dello sviluppo sicuro e responsabile dell’IA. Tra le altre cose, l’ordine ha ordinato alle agenzie federali di adottare determinate misure per valutare e gestire il rischio dell’IA e agli sviluppatori di potenti sistemi di IA di segnalare i risultati dei test di sicurezza. È probabile che anche l’esito delle prossime elezioni presidenziali statunitensi influenzi la futura regolamentazione dell’IA, poiché i candidati Kamala Harris e Donald Trump hanno sposato approcci diversi alla regolamentazione tecnologica.

Elaborare leggi per regolamentare l’IA non sarà facile, in parte perché l’IA comprende una varietà di tecnologie utilizzate per scopi diversi e in parte perché le normative possono soffocare il progresso e lo sviluppo dell’IA, scatenando la reazione negativa del settore. La rapida evoluzione delle tecnologie di IA è un altro ostacolo alla formazione di normative significative, così come la mancanza di trasparenza dell’IA, che rende difficile comprendere come gli algoritmi giungano ai loro risultati. Inoltre, le innovazioni tecnologiche e le nuove applicazioni come ChatGPT e Dall-E possono rendere rapidamente obsolete le leggi esistenti. E, naturalmente, è improbabile che leggi e altre normative scoraggino gli attori malintenzionati dall’utilizzare l’IA per scopi dannosi.

Qual è la storia dell’IA?

Il concetto di oggetti inanimati dotati di intelligenza esiste fin dall’antichità. Il dio greco Efesto era raffigurato nei miti mentre forgiava servitori simili a robot in oro, mentre gli ingegneri dell’antico Egitto costruivano statue di divinità in grado di muoversi, animate da meccanismi nascosti azionati dai sacerdoti.

Nel corso dei secoli, pensatori dal filosofo greco Aristotele al teologo spagnolo del XIII secolo Ramon Llull al matematico René Descartes e allo statistico Thomas Bayes hanno utilizzato gli strumenti e la logica dei loro tempi per descrivere i processi di pensiero umano come simboli. Il loro lavoro ha gettato le basi per concetti di IA come la rappresentazione della conoscenza generale e il ragionamento logico.

La fine del XIX e l’inizio del XX secolo hanno portato alla luce un lavoro fondamentale che avrebbe dato origine al computer moderno. Nel 1836, il matematico dell’Università di Cambridge Charles Babbage e Augusta Ada King, contessa di Lovelace, inventarono il primo progetto per una macchina programmabile, nota come motore analitico. Babbage delineò il progetto per il primo computer meccanico, mentre Lovelace, spesso considerato il primo programmatore di computer, previde la capacità della macchina di andare oltre i semplici calcoli per eseguire qualsiasi operazione che potesse essere descritta algoritmicamente.

Con l’avanzare del XX secolo, gli sviluppi chiave nell’informatica plasmarono il campo che sarebbe diventato l’intelligenza artificiale. Negli anni ’30, il matematico britannico e decifratore di codici della seconda guerra mondiale Alan Turing introdusse il concetto di una macchina universale in grado di simulare qualsiasi altra macchina. Le sue teorie furono cruciali per lo sviluppo dei computer digitali e, alla fine, dell’intelligenza artificiale.

Anni ’40

Il matematico di Princeton John Von Neumann concepì l’architettura per il computer a programma memorizzato, ovvero l’idea che il programma di un computer e i dati che elabora possano essere conservati nella memoria del computer. Warren McCulloch e Walter Pitts proposero un modello matematico di neuroni artificiali, gettando le basi per le reti neurali e altri futuri sviluppi dell’intelligenza artificiale.

Anni ’50

Con l’avvento dei computer moderni, gli scienziati iniziarono a testare le loro idee sull’intelligenza artificiale. Nel 1950, Turing ideò un metodo per determinare se un computer ha intelligenza, che chiamò gioco dell’imitazione, ma che è diventato più comunemente noto come test di Turing. Questo test valuta la capacità di un computer di convincere gli interrogatori che le sue risposte alle loro domande sono state fornite da un essere umano.

Il campo moderno dell’IA è ampiamente citato come iniziato nel 1956 durante una conferenza estiva al Dartmouth College. Sponsorizzata dalla Defense Advanced Research Projects Agency, la conferenza ha visto la partecipazione di 10 luminari del settore, tra cui i pionieri dell’IA Marvin Minsky, Oliver Selfridge e John McCarthy, a cui è attribuita la creazione del termine “intelligenza artificiale”. Erano presenti anche Allen Newell, un informatico, e Herbert A. Simon, un economista, politologo e psicologo cognitivo.

I due hanno presentato il loro rivoluzionario Logic Theorist, un programma per computer in grado di dimostrare alcuni teoremi matematici e spesso definito il primo programma di IA. Un anno dopo, nel 1957, Newell e Simon crearono l’algoritmo General Problem Solver che, nonostante non riuscisse a risolvere problemi più complessi, gettò le basi per lo sviluppo di architetture cognitive più sofisticate.

Anni ’60

Sulla scia della conferenza del Dartmouth College, i leader nel campo nascente dell’intelligenza artificiale predissero che un’intelligenza creata dall’uomo equivalente al cervello umano era dietro l’angolo, attirando un importante sostegno da parte del governo e dell’industria. In effetti, quasi 20 anni di ricerca di base ben finanziata generarono significativi progressi nell’intelligenza artificiale. McCarthy sviluppò Lisp, un linguaggio originariamente progettato per la programmazione dell’intelligenza artificiale che è ancora utilizzato oggi. A metà degli anni ’60, il professore del MIT Joseph Weizenbaum sviluppò Eliza, un primo programma NLP che gettò le basi per i chatbot di oggi.

Anni ’70

Negli anni ’70, il raggiungimento dell’intelligenza artificiale generale si rivelò sfuggente, non imminente, a causa delle limitazioni nell’elaborazione e nella memoria dei computer, nonché della complessità del problema. Di conseguenza, il sostegno governativo e aziendale alla ricerca sull’intelligenza artificiale diminuì, portando a un periodo di inattività durato dal 1974 al 1980, noto come il primo inverno dell’intelligenza artificiale. Durante questo periodo, il nascente campo dell’intelligenza artificiale vide un calo significativo di finanziamenti e interesse.

Anni ’80

Negli anni ’80, la ricerca sulle tecniche di apprendimento profondo e l’adozione da parte dell’industria dei sistemi esperti di Edward Feigenbaum scatenarono una nuova ondata di entusiasmo per l’intelligenza artificiale. I sistemi esperti, che utilizzano programmi basati su regole per imitare il processo decisionale degli esperti umani, furono applicati a compiti come l’analisi finanziaria e la diagnosi clinica. Tuttavia, poiché questi sistemi rimasero costosi e limitati nelle loro capacità, la rinascita dell’intelligenza artificiale fu di breve durata, seguita da un altro crollo dei finanziamenti governativi e del supporto dell’industria. Questo periodo di ridotto interesse e investimento, noto come il secondo inverno dell’intelligenza artificiale, durò fino alla metà degli anni ’90.

Anni ’90

L’aumento della potenza di calcolo e l’esplosione di dati hanno innescato una rinascita dell’intelligenza artificiale a metà o fine anni ’90, preparando il terreno per i notevoli progressi nell’intelligenza artificiale che vediamo oggi. La combinazione di big data e maggiore potenza di calcolo ha spinto le innovazioni in PNL, computer vision, robotica, apprendimento automatico e apprendimento profondo. Una pietra miliare degna di nota si è verificata nel 1997, quando Deep Blue ha sconfitto Kasparov, diventando il primo programma per computer a battere un campione mondiale di scacchi.

Anni 2000

Ulteriori progressi nell’apprendimento automatico, apprendimento profondo, PNL, riconoscimento vocale e computer vision hanno dato origine a prodotti e servizi che hanno plasmato il nostro modo di vivere oggi. Gli sviluppi principali includono il lancio del motore di ricerca di Google nel 2000 e il lancio del motore di raccomandazione di Amazon nel 2001.

Sempre negli anni 2000, Netflix ha sviluppato il suo sistema di raccomandazione di film, Facebook ha introdotto il suo sistema di riconoscimento facciale e Microsoft ha lanciato il suo sistema di riconoscimento vocale per la trascrizione audio. IBM ha lanciato il suo sistema di domande e risposte Watson e Google ha avviato la sua iniziativa di auto a guida autonoma, Waymo.

Anni 2010

Il decennio tra il 2010 e il 2020 ha visto un flusso costante di sviluppi dell’intelligenza artificiale. Tra questi, il lancio degli assistenti vocali Siri di Apple e Alexa di Amazon; le vittorie di IBM Watson su Jeopardy; lo sviluppo di funzionalità di guida autonoma per le auto; e l’implementazione di sistemi basati sull’intelligenza artificiale che rilevano i tumori con un elevato grado di accuratezza. È stata sviluppata la prima rete avversaria generativa e Google ha lanciato TensorFlow, un framework di apprendimento automatico open source ampiamente utilizzato nello sviluppo dell’intelligenza artificiale.

Una pietra miliare fondamentale si è verificata nel 2012 con l’innovativa AlexNet, una rete neurale convoluzionale che ha notevolmente fatto progredire il campo del riconoscimento delle immagini e ha reso popolare l’uso di GPU per l’addestramento dei modelli di intelligenza artificiale. Nel 2016, il modello AlphaGo di Google DeepMind ha sconfitto il campione mondiale di Go Lee Sedol, dimostrando la capacità dell’intelligenza artificiale di padroneggiare giochi strategici complessi. L’anno precedente ha visto la fondazione del laboratorio di ricerca OpenAI, che avrebbe fatto passi da gigante nella seconda metà di quel decennio nell’apprendimento per rinforzo e nella NLP.

Anni 2020

Il decennio attuale è stato finora dominato dall’avvento dell’IA generativa, che può produrre nuovi contenuti in base ai prompt di un utente. Questi prompt spesso assumono la forma di testo, ma possono anche essere immagini, video, progetti di design, musica o qualsiasi altro input che il sistema di IA può elaborare. Il contenuto di output può variare da saggi a spiegazioni di risoluzione dei problemi a immagini realistiche basate su foto di una persona.

Nel 2020, OpenAI ha rilasciato la terza iterazione del suo modello linguistico GPT, ma la tecnologia non ha raggiunto una consapevolezza diffusa fino al 2022. Quell’anno, l’ondata di IA generativa è iniziata con il lancio dei generatori di immagini Dall-E 2 e Midjourney rispettivamente ad aprile e luglio. L’eccitazione e l’entusiasmo hanno raggiunto la massima forza con il rilascio generale di ChatGPT a novembre.

I concorrenti di OpenAI hanno risposto rapidamente al rilascio di ChatGPT lanciando chatbot LLM rivali, come Claude di Anthropic e Gemini di Google. Generatori audio e video come ElevenLabs e Runway sono seguiti nel 2023 e nel 2024.

La tecnologia AI generativa è ancora nelle sue fasi iniziali, come dimostrato dalla sua continua tendenza ad allucinare e dalla continua ricerca di applicazioni pratiche ed economiche. Ma indipendentemente da ciò, questi sviluppi hanno portato l’IA nel dibattito pubblico in un modo nuovo, suscitando sia entusiasmo che trepidazione.

Strumenti e servizi di intelligenza artificiale: evoluzione ed ecosistemi

Gli strumenti e i servizi di intelligenza artificiale si stanno evolvendo a un ritmo rapido. Le innovazioni attuali possono essere ricondotte alla rete neurale AlexNet del 2012, che ha inaugurato una nuova era di intelligenza artificiale ad alte prestazioni basata su GPU e grandi set di dati. Il progresso chiave è stata la scoperta che le reti neurali potevano essere addestrate su enormi quantità di dati su più core GPU in parallelo, rendendo il processo di addestramento più scalabile.

Nel 21° secolo, si è sviluppata una relazione simbiotica tra i progressi algoritmici di organizzazioni come Google, Microsoft e OpenAI, da un lato, e le innovazioni hardware avviate da fornitori di infrastrutture come Nvidia, dall’altro. Questi sviluppi hanno reso possibile l’esecuzione di modelli di intelligenza artificiale sempre più grandi su più GPU connesse, determinando miglioramenti rivoluzionari in termini di prestazioni e scalabilità. La collaborazione tra questi luminari dell’intelligenza artificiale è stata fondamentale per il successo di ChatGPT, per non parlare di decine di altri servizi di intelligenza artificiale innovativi. Ecco alcuni esempi delle innovazioni che stanno guidando l’evoluzione degli strumenti e dei servizi di intelligenza artificiale.

Transformers

Google ha aperto la strada alla ricerca di un processo più efficiente per la fornitura di formazione AI su grandi cluster di PC commerciali con GPU. Ciò, a sua volta, ha aperto la strada alla scoperta dei transformer, che automatizzano molti aspetti della formazione AI su dati non etichettati. Con il documento del 2017 “Attention Is All You Need”, i ricercatori di Google hanno introdotto una nuova architettura che utilizza meccanismi di auto-attenzione per migliorare le prestazioni del modello su un’ampia gamma di attività NLP, come traduzione, generazione di testo e riepilogo. Questa architettura del transformer è stata essenziale per lo sviluppo di LLM contemporanei, tra cui ChatGPT.

Ottimizzazione hardware

L’hardware è altrettanto importante dell’architettura algoritmica nello sviluppo di AI efficace, efficiente e scalabile. Le GPU, originariamente progettate per il rendering grafico, sono diventate essenziali per l’elaborazione di enormi set di dati. Le unità di elaborazione tensore e le unità di elaborazione neurale, progettate specificamente per l’apprendimento profondo, hanno accelerato la formazione di modelli AI complessi. Fornitori come Nvidia hanno ottimizzato il microcodice per l’esecuzione su più core GPU in parallelo per gli algoritmi più popolari. I produttori di chip stanno anche collaborando con i principali provider cloud per rendere questa capacità più accessibile come AI as a service (AIaaS) tramite modelli IaaS, SaaS e PaaS.

Trasformatori pre-addestrati generativi e messa a punto

Lo stack AI si è evoluto rapidamente negli ultimi anni. In precedenza, le aziende dovevano addestrare i propri modelli AI da zero. Ora, fornitori come OpenAI, Nvidia, Microsoft e Google forniscono trasformatori pre-addestrati generativi (GPT) che possono essere messi a punto per attività specifiche con costi, competenze e tempi notevolmente ridotti.

Servizi cloud AI e AutoML

Uno dei maggiori ostacoli che impediscono alle aziende di utilizzare efficacemente l’AI è la complessità delle attività di data engineering e data science necessarie per integrare le capacità AI in applicazioni nuove o esistenti. Tutti i principali provider cloud stanno lanciando offerte AIaaS con marchio per semplificare la preparazione dei dati, lo sviluppo dei modelli e l’implementazione delle applicazioni. I principali esempi includono Amazon AI, Google AI, Microsoft Azure AI e Azure ML, IBM Watson e le funzionalità AI di Oracle Cloud.

Allo stesso modo, i principali provider cloud e altri vendor offrono piattaforme di apprendimento automatico automatizzato (AutoML) per automatizzare molti passaggi dello sviluppo di ML e AI. Gli strumenti AutoML democratizzano le capacità AI e migliorano l’efficienza nelle distribuzioni AI.

Modelli AI all’avanguardia come servizio

I principali sviluppatori di modelli AI offrono anche modelli AI all’avanguardia in aggiunta a questi servizi cloud. OpenAI ha più LLM ottimizzati per chat, NLP, multimodalità e generazione di codice che vengono forniti tramite Azure. Nvidia ha perseguito un approccio più indipendente dal cloud vendendo infrastrutture AI e modelli fondamentali ottimizzati per testo, immagini e dati medici su tutti i provider cloud. Molti player più piccoli offrono anche modelli personalizzati per vari settori e casi d’uso.