Sfatiamo 6 falsi miti sull’Intelligenza Artificiale!

Sfatiamo 6 falsi miti sull’Intelligenza Artificiale!

 

Dopo l’articolo “Sfatiamo 10 falsi miti sulla programmazione”, assumiamo di nuovo le sembianze del duo di MythBusters, il famoso show di divulgazione scientifica, per provare a superare altri pregiudizi informatici. Questa volta l’argomento è attualissimo: l’intelligenza artificiale.

Speriamo che sfatare questi altri miti sia d’aiuto ai nostri lettori. Soprattutto ai nostri clienti, alcuni dei quali ci chiedono sempre più spesso software e soluzioni che integrino questa straordinaria tecnologia. Clienti che a volte hanno già consapevolezza delle reali potenzialità, mentre altre volte sono solo incuriositi e sollecitati dal “trend intelligenza artificiale”.

Già, perché l’AI è anche una moda, una buzz word, un termine che richiamando attenzione e interesse spesso è abusato dai media. Con la conseguenza che non rare volte chi ci chiede di lavorare a un progetto che la integri ha purtroppo aspettative errate o irrealistiche dovute alla disinformazione.

Ma bando alle ciance! Ecco sei falsi miti sull’intelligenza artificiale da sfatare.

 

1) LAI può sostituire completamente lintelligenza umana 

L’AI è progettata per eseguire compiti specifici e, sebbene possa superare le prestazioni umane in alcuni ambiti, non possiede la comprensione olistica, il giudizio critico e la creatività che sono appannaggio esclusivo degli esseri umani.

La stessa espressione “intelligenza artificiale” in effetti potrebbe essere imprecisa. Un nome più calzante? Forse “simulazione dell’intelligenza umana”. 

L’idea errata che l’AI sia equivalente all’HI (acronimo per “human intelligence”, intelligenza umana) ha contribuito in questi anni a generare un’idea popolare apocalittica basata su speculazioni estreme a opera dei media. Sebbene le preoccupazioni riguardo l’etica dell’AI siano legittime, la comunità scientifica e tecnologica mondiale è comunque attivamente impegnata a garantire che lo sviluppo dell’AI avvenga in modo responsabile e sicuro.

Allo stato attuale, tra l’altro, le AI non hanno autocoscienza o consapevolezza di sé. Funzionano basandosi su algoritmi e dati, quindi senza una vera comprensione o esperienza soggettiva. In pratica, non sono in grado di fare un ragionamento autonomo ma solo di svolgere compiti assegnati dall’uomo, e questo nega ulteriormente l’idea secondo cui potrebbero sostituirlo completamente.


2) LAI porterà alla disoccupazione di massa 

Anche in questo caso parliamo di uno scenario apocalittico dettato dalla “guerra per l’attenzione” che i media combattono ogni giorno (specialmente sui social), contribuendo purtroppo alla nascita e divulgazione di fake news e notizie distorte. 

Certamente l’AI può automatizzare parecchi compiti, questo però non significa che molti lavori spariranno, piuttosto che si trasformeranno per via della sua integrazione nei loro meccanismi.

Ciò che probabilmente è più corretto dire è che l’AI può creare nuove opportunità di lavoro e, allo stesso tempo, richiedere nuove competenze di alto profilo, ma non ci sono prove che genererà disoccupazione di massa. Di certo causerà, ma forse lo ha già fatto, un cambiamento sostanziale della concezione del lavoro. Un processo in itinere che porta chi ha investito nell’AI a lavorare meno ma meglio, in modo più produttivo.

Molte professioni comunque non spariranno, anzi forse verranno ancora più apprezzate. Lavori di “servizio alla persona”, dove la presenza umana in carne e ossa fa la differenza (grazie a tutte le sue peculiarità, le sue virtù ma anche alle sue debolezze, e sono proprio queste forse le caratteristiche più apprezzate), non verranno affatto soppiantati.

Probabilmente l’AI, come sostenuto in TV in questa recente intervista a Georg Gottlob, esperto di intelligenza artificiale e titolare di una cattedra presso l’Università della Calabria, avrà un “ruolo di supporto”. Ovvero nasceranno (ma già stanno nascendo) tanti nuovi lavori basati sull’intermediazione uomo/macchina e uomo/AI.

 

3) LAI può apprendere e migliorare senza controllo umano 

Esiste un grande falso mito riguardante l’attività di machine learning: l’idea che l’AI possa imparare da sola senza bisogno dell’uomo.

In realtà, sebbene il machine learning automatico permetta all’AI di migliorare le sue prestazioni con l’esperienza, il processo di apprendimento e aggiustamento dei modelli richiede una cruciale e continua supervisione umana.

Ma come funziona? 

I supervisori umani svolgono diversi ruoli fondamentali che aiutano a garantire l’efficacia, l’affidabilità e l’equità dei modelli di intelligenza artificiale. Questi ruoli variano molto a seconda della fase del ciclo di vita del modello di apprendimento automatico e del contesto specifico in cui viene applicato. I più significativi prevedono l’attività di raccolta e pulizia dei dati, la loro annotazione, la progettazione e lo sviluppo dei modelli, la loro valutazione e i relativi test, il monitoraggio e la manutenzione e – last but not least – una fase di verifica dell’etica e della governance.

Dunque, oltre a essere inevitabile, l’attività umana sui modelli prevede molte ore di lavoro. Un lavoro potenzialmente di alto profilo, ergo a costi sicuramente significativi.

Ma dei costi di sviluppo dell’AI, su cui vige un pregiudizio molto diffuso che li vedrebbe spesso “a buon mercato”, parleremo nell’ultimo mito da sfatare.

 


4) LAI opera sempre in modo obiettivo e senza pregiudizi

Gli algoritmi di AI possono riflettere o amplificare i pregiudizi presenti nei dati su cui vengono addestrati. Ciò richiede un’attenta revisione e correzione per garantire equità, attività non sempre totalmente possibile a causa dell’addestramento sociale in atto.

In sostanza, quando i modelli prevedono l’acquisizione di enormi quantità di dati sociali, il grado di soggettività dei risultati aumenta. 

Un famoso caso che ha fatto discutere riguarda un sistema di recruiting di personale usato nel 2014 da Amazon che ha mostrato pregiudizi contro le donne: addestrato su dati storici di assunzioni che riflettevano una predominanza maschile nel settore tecnologico, durante la fase di machine learning ha “imparato” a penalizzare i CV che includevano parole come “donna”.

Un secondo caso noto è quello di uno studio del MIT che ha dimostrato come alcuni sistemi di riconoscimento facciale abbiano rivelato tassi di errore più elevati per le persone di colore.

E ancora più noto è il caso dello strumento di AI generativa su immagini Midjourney che, essendo addestrato con immagini di donne e uomini dai fisici e volti rientranti in canoni occidentali di bellezza, tende a produrre immagini con caratteristiche simili, di fatto esaltando figure stereotipate.

Insomma, mai fare troppo affidamento sull’imparzialità dei risultati generati dall’AI.



5) L’AI è infallibile

Come ogni tecnologia, l’Intelligenza Artificiale può commettere errori, soprattutto quando si trova di fronte a situazioni non contemplate nei dati di addestramento o a causa di limitazioni negli algoritmi.

Oltre al già citato problema “bias dei dati”, l’AI può anche fallire di fronte a situazioni che non ha mai “visto” nei dati di addestramento.

Ad esempio, un sistema di guida autonoma potrebbe non sapere come reagire a un evento stradale insolito se non era presente nel suo dataset di addestramento.

A questo si aggiunge una limitazione degli algoritmi dovuta sia a un’insufficiente “comprensione contestuale”, sia a un’insufficiente “generalizzazione”.

Nel primo caso, gli algoritmi di AI, in particolare quelli basati sull’apprendimento automatico profondo (Deep Learning), possono eccellere nel riconoscere “pattern nei dati” ma mancare di una vera comprensione del contesto o della causalità, finendo per fare previsioni errate o inappropriate.

Nel secondo caso, può verificarsi un’incapacità dell’algoritmo di applicare correttamente ciò che ha imparato dai dati di addestramento quando si presentano nuovi dati, situazioni o esempi che non ha mai incontrato in precedenza.

Insomma, attenzione a ritenere l’AI infallibile, farlo potrebbe costare molto caro.

Nel 2023 ha fatto discutere, ad esempio, la notizia dell’avvocato newyorkese di una compagnia aerea che ha affidato la scrittura della memoria difensiva a ChatGPT presentando in udienza “casi precedenti” mai avvenuti, totalmente inventati dall’AI. Un vero e proprio disastro!

 

6) Implementare lAI è poco costoso

Infine, ecco il falso mito che imbarazza di più il reparto commerciale delle software house come la nostra: la semplicità d’uso e il costo irrisorio con cui certi tool di AI generativa si sono affermati nel mercato in questi anni ha diffuso l’idea sbagliata che sviluppare con l’AI sia sempre un’attività economica.

Sebbene ci siano effettivamente molte applicazioni e molti strumenti di AI “di terzi” che non sono difficili da implementare e che possono portare benefici anche a piccole imprese o progetti con budget limitati, sviluppare soluzioni nuove, soprattutto se proprietarie, che integrino l’intelligenza artificiale potrebbe non essere sempre un’attività economica.

Il motivo si lega alle differenze tra le AI che generalmente sono di tre tipi:

  1. AI debole (o stretta): specializzata in compiti specifici, come l’assistenza clienti tramite chatbot, ma senza una comprensione o coscienza propria.

  2. AI forte (o generale): teoricamente capace di eseguire qualsiasi compito intellettuale umano, inclusa la comprensione e la generazione del linguaggio naturale. Sebbene si parli del suo arrivo a partire dal 2025, in realtà rimane un obiettivo teorico a lungo termine.

  3. Machine Learning e Deep Learning: sottocampi dell’AI che includono l’apprendimento automatico da grandi quantità di dati. Sono alla base di molti avanzamenti recenti in NLP (Natural Language Processing).

Quindi, l’idea che programmare con l’AI sia sempre economico è un falso mito perché strumenti come ChatGPT rientrano nel primo tipo di AI, la “AI debole”, pertanto sono utilizzabili solo in applicazioni di terzi tramite API in modo meno costoso. Tuttavia, hanno funzionalità limitate dovute al fatto che la fase di apprendimento del modello è predefinita (tipicamente da società come OpenAI).

Al contrario, sviluppare un’AI proprietaria che funga da base per funzionalità personali NLP può richiedere un investimento significativo in termini di tempo, risorse e denaro: oltre ai costi iniziali di sviluppo, ci sono spese continue per il mantenimento, l’aggiornamento dei modelli e l’adattamento ai cambiamenti nel linguaggio e nei formati dei documenti. Senza contare la necessità di coinvolgere esperti in data science e NLP.

Ricordiamo anche che non tutte le AI assistono gli utenti come fa ChatGPT. Molte agiscono in modo molto poco visibile, si pensi a quelle a scopi di marketing che analizzano i dati di navigazione per proporre contenuti mirati.

In genere, la maggior parte è specializzata in compiti specifici.

Se, ad esempio, noi di ESSE I volessimo sviluppare un’AI che legga ed elabori documenti – attività che può essere utile in molti contesti come l’automazione degli uffici, la gestione documentale o la verifica di identità e documenti legali –, sarebbe necessario creare una soluzione personalizzata che soddisfi esigenze molto specifiche.

Questo implicherebbe che l’AI sia progettata e sviluppata specificamente per il compito richiesto anziché utilizzare una soluzione generica.

Ma già solo la necessità di dimostrare che un’idea di progetto AI sia valida e possa funzionare come previsto (POC: Proof of Concept) comporterebbe un costo non basso di suo!

Questo per sottolineare come l’investimento iniziale per lo sviluppo di soluzioni AI personalizzate possa essere significativo, soprattutto nelle fasi iniziali, dove si esplorano le potenzialità e si valuta l’efficacia di un nuovo approccio o di una nuova tecnologia.

 

Concludendo

Siamo stati spietati? Pensiamo di no, semplicemente realistici.

Ma non vogliamo tarpare le ali alla tua immaginazione: l’intelligenza artificiale, anche se ne sfrutti gli strumenti messi a disposizione da terzi, è potenzialmente una killer application con cui puoi liberare la tua fantasia in molti settori.

Non ci resta che ricordarti che, per una mano competente che ti aiuti a implementare l’AI nel tuo prossimo progetto digitale, sai dove trovarci. Ad esempio qui, scrivendoci una mail o chiamandoci per una call gratuita e senza impegno.

(Foto: Midjourney)

Newsletter

Desidero iscrivermi alla newsletter periodica del blog con articoli informativi su software, soluzioni ITC e novità dal mondo ESSE I. Potrai cancellarti quando lo desideri nel pieno rispetto della Privacy Policy .

Codice Anti Spam

Riportare nel box sottostante "Codice di verifica", il codice alfanumerico che trovi a fianco

NEWSLETTER

Iscriviti alla newsletter periodica del blog con articoli informativi su software, soluzioni ITC e novità dal mondo ESSE I.

Non registreremo la tua email in alcun modo fino a quando non avrai accettato le condizioni nel form successivo.

RIMANIAMO IN CONTATTO
Vai al FORM
Seguici sui SOCIAL