Workshop Abstract
La diffusione dei Large Language Model in ogni ambito delle attività umane ha reso necessario valutare lo stato dell’arte, i limiti, gli ostacoli e le barriere che questa potente tecnologia offre. I rapidi aggiornamenti di queste tecnologie impongono di allargare gli orizzonti degli obiettivi di ricerca e delle metodologie. Le capacità di reasoning degli Agentic AI indicano nuove sfide. Tuttavia, sempre più emerge la necessità di valutare in quali ambiti queste tecnologie possano produrre un reale valore aggiunto e quando invece, anche considerando l’uso delle risorse necessarie, sia meglio adottare approcci più tradizionali. Emerge quindi il tema di come valutare i modelli messi a confronto fra loro (benchmarking). Gli aspetti tecnici si intersecano con quelli etici, giuridici, di sostenibilità, di efficacia, nonché di spiegabilità dei passaggi di reasoning. Il workshop intende investigare questi temi, con particolare riguardo alle applicazioni nell’ambito del diritto dove il linguaggio è un pilastro costitutivo della disciplina. Il dibattito è utile a definire anche le aspettative future delle quali le istituzioni, come i Parlamenti e le pubbliche amministrazioni, potranno avvantaggiarsi senza tuttavia ignorare rischi e false illusioni.
Federico Ruggeri’s speech
The talk addresses three main aspects of LLMs and reasoning capabilities. First, we discuss what kind of reasoning type LLMs are tested for. The short answer is that in the majority of cases, it is unclear which reason type(s) is (are) considered. Second, we discuss to what extent do LLMs perform reasoning. Some view LLMs as stochastic parrots, while others believe they acquire true reasoning capabilities. Third, we show how reasoning and argumentation are tightly connected and discuss how argumentation is being progressively used as a way to assess reasoning capabilities in LLMs.