Sommario
Gli scienziati della New York University e della Pompeu Fabra University in Spagna hanno sviluppato una tecnica innovativa che potenzia la capacità delle reti neurali, come ChatGPT, di fare generalizzazioni composte. Questa tecnica, denominata Meta-learning for Compositionality (MLC), supera gli approcci esistenti e, in alcuni casi, supera le prestazioni umane.
Il dibattito sulle generalizzazioni composte
Negli anni ’80, i filosofi e scienziati cognitivi Jerry Fodor e Zenon Pylyshyn sostenevano che le reti neurali artificiali non fossero in grado di fare generalizzazioni composte. Tuttavia, negli anni successivi, gli scienziati hanno cercato di instillare questa capacità nelle reti neurali, ottenendo risultati misti.
La tecnica MLC
A differenza degli approcci tradizionali, MLC mostra come la pratica esplicita di queste abilità permetta a questi sistemi di sbloccare nuove potenzialità. MLC si basa sull’addestramento delle reti neurali per migliorare la generalizzazione composita attraverso la pratica. Durante un episodio di apprendimento, MLC riceve una nuova parola e viene chiesto di usarla in modo composito, migliorando continuamente le competenze compositive della rete.
Confronto con le prestazioni umane
Per valutare l’efficacia di MLC, gli scienziati hanno condotto esperimenti con partecipanti umani, sottoponendoli agli stessi compiti eseguiti da MLC. MLC ha ottenuto prestazioni paragonabili, e in alcuni casi superiori, a quelle dei partecipanti umani. Entrambi, MLC e gli esseri umani, hanno superato le prestazioni di ChatGPT e GPT-4 in questo compito di apprendimento.
Osservazioni finali
Sebbene i grandi modelli linguistici come ChatGPT abbiano migliorato le loro capacità di generalizzazione composita negli ultimi anni, MLC potrebbe ulteriormente potenziare queste competenze. La ricerca suggerisce che MLC potrebbe rappresentare un passo avanti significativo nel campo dell’intelligenza artificiale e dell’apprendimento automatico.