L’IA non capisce che cosa sia un fiore per gli esseri umani - Frontiere - Ansa.it


AI Summary Hide AI Generated Summary

Key Findings

A study published in Nature Human Behaviour reveals that AI systems, including ChatGPT and Google's models, fail to grasp the human understanding of concepts deeply connected to sensory experience, such as "flower." The research compared how AI and humans perceive and evaluate words based on visualization, emotional impact, and sensory connections.

Methodology

Researchers tested AI models (ChatGPT 3.5 & 4, Google's Palm and Gemini) against human responses using over 4,400 words. Both AI and humans assessed each word's ease of visualization, emotional stimulation, and connection to sensory information or actions.

Results

While AI excelled at processing words without sensory connections, it failed to capture the essence of sensory-rich concepts. The study highlights that AI's knowledge is primarily textual, lacking the richness of human experience.

Implications

The authors emphasize AI's continuous improvement, suggesting potential progress through integration of external sensor data to provide direct object experience. This limitation underscores the crucial role of embodied experience in human understanding, which AI currently lacks.

Sign in to unlock more AI features Sign in with Google

I sistemi basati sull’Intelligenza Artificiale come ChatGpt non riescono a capire davvero che cosa sia un fiore e che cosa rappresenti per un essere umano: il problema è che tutto ciò che i chatbot sanno arriva da parole e in alcuni casi da immagini, e queste informazioni non possono compensare l’assenza di un esperienza diretta, della possibilità di annusare, toccare o passeggiare in un campo pieno di fiori.

Lo indica lo studio pubblicato sulla rivista Nature Human Behaviour e guidato dall’Università Statale dell’Ohio, che ha messo a confronto come IA e umani vedono il mondo che ci circonda. I ricercatori guidati da Qihui Xu e Yingying Peng sono partiti da oltre 4.400 parole, da ‘fiore’ a ‘umoristico’, e hanno messo alla prova due famiglie di sistemi all’avanguardia: ChatGpt 3.5 e 4 di OpenAI e i modelli linguistici Palm e Gemini di Google.

Per verificare quanto modelli linguistici ed esseri umani siano allineati nelle loro valutazioni. è stato chiesto a entrambi di valutare quanto un concetto sia facile da visualizzare mentalmente e quanto sia emotivamente stimolante e poi di valutare quanto sia stretto il legame tra un concetto e le informazioni che è possibile ottenere su di esso tramite i sensi o tramite azioni. 

I modelli linguistici hanno ottenuto ottimi risultati nel rappresentare parole che non avevano alcun collegamento con i sensi, ma quando si è trattato di parole strettamente legate alla percezione sensoriale hanno fallito. “I grandi modelli linguistici iottengono ciò che sanno assimilando enormi quantità di testo – afferma Xu – e tuttavia non riescono a catturare alcuni concetti allo stesso modo degli umani. L'esperienza umana – osserva – è molto più ricca di quanto le parole possano contenere da sole”.

Gli autori dello studio sottolineano, però, che i modelli linguistici sono in continuo miglioramento ed è quindi probabile che faranno progressi anche in questo campo, soprattutto se verranno potenziati con dati provenienti da sensori esterni che permetteranno loro di avere un esperienza diretta degli oggetti.

Riproduzione riservata © Copyright ANSA

Was this article displayed correctly? Not happy with what you see?


Share this article with your
friends and colleagues.

Facebook



Share this article with your
friends and colleagues.

Facebook