Riconciliare il paradosso dell’IA generativa Percorsi divergenti dell’intelligenza umana e artificiale nella generazione e comprensione

Risolvere il paradosso dell'IA generativa Percorsi divergenti dell'intelligenza umana e artificiale nella generazione e comprensione

Dal ChatGPT al GPT4 al DALL-E 2/3 a Midjourney, l’ultima ondata di intelligenza artificiale generativa ha suscitato un’attenzione senza precedenti in tutto il mondo. Questa fascinazione è temperata da seri preoccupazioni riguardo ai rischi associati a un’intelligenza che sembra superare persino la capacità umana. I modelli generativi attuali possono produrre risultati in grado di sfidare specialisti con anni di esperienza e competenza sia nel campo linguistico che in quello visivo, offrendo un supporto persuasivo alle affermazioni che le macchine hanno superato l’intelligenza umana. Allo stesso tempo, l’analisi dei risultati del modello rivela errori di comprensione fondamentali che sorprendono persino le persone non esperte.

Ciò solleva ciò che sembra essere un paradosso: come possono spiegare questi modelli i loro apparenti poteri sovrumani mantenendo un insieme fondamentale di errori che la maggior parte delle persone potrebbe correggere? Si suggerisce che questo conflitto sia il risultato delle differenze tra come è configurata l’intelligenza umana e come sono configurate le capacità nei modelli generativi attuali. In particolare, i ricercatori dell’Università di Washington e dell’Allen Institute for Artificial Intelligence avanzano e indagano sull’ipotesi del Paradosso dell’IA Generativa in questo lavoro, secondo cui i modelli generativi possono essere più creativi degli interpreti di output simili a esperti perché sono stati addestrati a produrre direttamente output simili a quelli di esperti.

In confronto, le persone quasi sempre richiedono una comprensione fondamentale prima di fornire risultati di livello esperto. Esaminano le capacità di generazione e comprensione in modelli generativi che abbracciano modalità verbali e visive in studi controllati per valutare questa idea. Due prospettive vengono utilizzate per costruire la “comprensione” in relazione alla generazione: 1) dato un compito di generazione, quanto bene i modelli possono scegliere risposte appropriate in una versione discriminante dello stesso compito? E 2) In che misura i modelli possono rispondere a domande sulla natura e l’adeguatezza di una risposta generata, a condizione che sia corretta? Di conseguenza, ci sono due diverse impostazioni sperimentali: interrogativa e selezionata.

Nonostante i risultati varino tra compiti e modalità, emergono alcuni schemi distinti. Quando si tratta di valutazione selettiva, i modelli spesso ottengono risultati pari o addirittura migliori rispetto alle persone in contesti di compiti generativi. Tuttavia, non sono altrettanto bravi delle persone in situazioni di discriminazione. Indagini successive rivelano che il rendimento di discriminazione umana è maggiormente resiliente agli input ostili ed è più strettamente correlato al rendimento di generazione che non a quello di GPT4. La differenza di discriminazione tra il modello e l’essere umano aumenta anche all’aumentare della complessità del compito. In modo simile a ciò, i modelli sono in grado di fornire output di alta qualità per una varietà di compiti nella valutazione interrogativa, ma spesso commettono errori nel rispondere a domande sugli stessi risultati generati e la loro capacità di comprensione deve essere migliorata nella comprensione umana.

Gli autori esaminano molte possibili spiegazioni per le differenze nella configurazione delle capacità tra modelli generativi e umani, come gli obiettivi dell’addestramento del modello e il tipo e la quantità di input. Le loro conclusioni hanno diverse implicazioni ulteriori. In primo luogo, suggeriscono che le attuali concezioni dell’intelligenza, basate sull’esperienza umana, potrebbero non tradursi in intelligenza artificiale. Sebbene le capacità dell’IA assomiglino o superino l’intelligenza umana in molti aspetti, le loro caratteristiche effettive potrebbero deviare significativamente dai modelli attesi nei processi di pensiero umani. Allo stesso modo, i loro risultati mettono in guardia dal trarre conclusioni sull’intelligenza e la cognizione umane dai modelli generativi, poiché i loro output simili a quelli umani potrebbero mascherare meccanismi non simili a quelli umani. Nel complesso, anziché considerare i modelli come paragonabili all’intelligenza umana, il dilemma dell’IA generativa suggerisce di considerarli come un affascinante contrasto.