La difficoltà dell'AI nel simulare la tossicità rispetto all'intelligenza

La difficoltà dell'AI nel simulare la tossicità rispetto all'intelligenza

Intelligenza Artificiale e Tossicità

 

Introduzione

Un recente studio condotto da ricercatori di diverse università ha rivelato che i modelli di intelligenza artificiale (AI) sono più facilmente identificabili quando tentano di imitare la comunicazione umana, specialmente per quanto riguarda la tossicità nei social media.

Il Test di Turing Computazionale

La ricerca ha introdotto un nuovo approccio, definito “test di Turing computazionale”, per valutare quanto bene i modelli AI riescano a replicare il linguaggio umano. Utilizzando classificatori automatici e analisi linguistica, i ricercatori hanno scoperto che i modelli AI possono essere identificati con un'accuratezza del 70-80% nei loro tentativi di rispondere a post sui social media.

Risultati dello Studio

I ricercatori hanno testato nove modelli di linguaggio, tra cui Llama 3.1 e Mistral 7B, e hanno notato che questi modelli faticano a replicare la negatività e l'espressione emotiva spontanea tipiche degli utenti umani. I punteggi di tossicità generati dall'AI erano costantemente inferiori rispetto a quelli delle risposte autentiche degli utenti.

  • I modelli AI hanno mostrato difficoltà nel mantenere un tono emotivo simile a quello umano.

  • Le tecniche di ottimizzazione non hanno migliorato significativamente la capacità di imitazione.

Implicazioni e Conclusioni

Lo studio ha anche rivelato che i modelli istruiti per seguire le istruzioni degli utenti non performano meglio rispetto ai loro omologhi non istruiti. Inoltre, l'aumento delle dimensioni del modello non ha portato a una comunicazione più autentica. I risultati suggeriscono che l'AI, nel tentativo di sembrare più umana, può allontanarsi dalla vera espressione umana.
 

Il nostro interesse per l'Intelligenza Artificiale

In ESSE I, siamo costantemente impegnati nello sviluppo di soluzioni innovative nel campo dell'intelligenza artificiale. I nostri progetti mirano a migliorare l'interazione tra uomo e macchina, garantendo al contempo la cybersecurity e l'accessibilità digitale. Siamo interessati a esplorare come le tecnologie AI possano essere ottimizzate per una comunicazione più autentica e significativa.

Newsletter

Desidero iscrivermi alla newsletter periodica del blog con articoli informativi su software, soluzioni ITC e novità dal mondo ESSE I. Potrai cancellarti quando lo desideri nel pieno rispetto della Privacy Policy .

Codice Anti Spam

Riportare nel box sottostante "Codice di verifica", il codice alfanumerico che trovi a fianco

NEWSLETTER

Iscriviti alla newsletter periodica del blog con articoli informativi su software, soluzioni ITC e novità dal mondo ESSE I.

Non registreremo la tua email in alcun modo fino a quando non avrai accettato le condizioni nel form successivo.

RIMANIAMO IN CONTATTO
Vai al FORM
Seguici sui SOCIAL