398 resultados para serie di Fourier somme di Fejér convergenza puntuale e convergenza uniforme effetto Gibbs
Resumo:
Riassunto Il nostro viaggio attraverso la musica folk americana partirà dal un racconto della Grande Depressione, dello stato di indigenza nel quale versava la maggior parte della popolazione e attraverso le vicende e le canzoni del nonno della canzone di protesta: Woody Guthrie. Sottolineeremo come egli abbia influenzato successivamente tutta una serie di cantautori che si formarono con lui, attraverso i suoi scritti o i suoi pezzi. Vedremo dunque come un altro grande musicista, Pete Seeger lottò più volte contro la censura per dare risonanza a tante battaglie altrimenti inascoltate, come i movimenti per i diritti civili degli afroamericani e per la pace. Con le canzoni di Bob Dylan analizzeremo i movimenti giovanili e pacifisti contro la guerra nel Vietnam e i fermenti della beat generation. Considereremo con Bruce Springsteen i nuovi diseredati della recessione economica, la nuova ondata di nazionalismi, le censure successive agli attentati dell’ 11 Settembre 2001 e il nuovo ordine mondiale. La musica folk continuerà dunque a vivere grazie alla comunità che la rende viva e la fa circolare, ma soprattutto, grazie al passaggio di testimone tra i grandi artisti che l’hanno resa concretamente la voce dell’America.
Resumo:
La Word Sense Disambiguation è un problema informatico appartenente al campo di studi del Natural Language Processing, che consiste nel determinare il senso di una parola a seconda del contesto in cui essa viene utilizzata. Se un processo del genere può apparire banale per un essere umano, può risultare d'altra parte straordinariamente complicato se si cerca di codificarlo in una serie di istruzioni esguibili da una macchina. Il primo e principale problema necessario da affrontare per farlo è quello della conoscenza: per operare una disambiguazione sui termini di un testo, un computer deve poter attingere da un lessico che sia il più possibile coerente con quello di un essere umano. Sebbene esistano altri modi di agire in questo caso, quello di creare una fonte di conoscenza machine-readable è certamente il metodo che permette di affrontare il problema in maniera più diretta. Nel corso di questa tesi si cercherà, come prima cosa, di spiegare in cosa consiste la Word Sense Disambiguation, tramite una descrizione breve ma il più possibile dettagliata del problema. Nel capitolo 1 esso viene presentato partendo da alcuni cenni storici, per poi passare alla descrizione dei componenti fondamentali da tenere in considerazione durante il lavoro. Verranno illustrati concetti ripresi in seguito, che spaziano dalla normalizzazione del testo in input fino al riassunto dei metodi di classificazione comunemente usati in questo campo. Il capitolo 2 è invece dedicato alla descrizione di BabelNet, una risorsa lessico-semantica multilingua di recente costruzione nata all'Università La Sapienza di Roma. Verranno innanzitutto descritte le due fonti da cui BabelNet attinge la propria conoscenza, WordNet e Wikipedia. In seguito saranno illustrati i passi della sua creazione, dal mapping tra le due risorse base fino alla definizione di tutte le relazioni che legano gli insiemi di termini all'interno del lessico. Infine viene proposta una serie di esperimenti che mira a mettere BabelNet su un banco di prova, prima per verificare la consistenza del suo metodo di costruzione, poi per confrontarla, in termini di prestazioni, con altri sistemi allo stato dell'arte sottoponendola a diversi task estrapolati dai SemEval, eventi internazionali dedicati alla valutazione dei problemi WSD, che definiscono di fatto gli standard di questo campo. Nel capitolo finale vengono sviluppate alcune considerazioni sulla disambiguazione, introdotte da un elenco dei principali campi applicativi del problema. Vengono in questa sede delineati i possibili sviluppi futuri della ricerca, ma anche i problemi noti e le strade recentemente intraprese per cercare di portare le prestazioni della Word Sense Disambiguation oltre i limiti finora definiti.
Resumo:
La tesi approfondisce lo studio dello spazio pubblico attraverso l’esperienza percettiva dell’osservatore. Si basa sul pensiero di Camillo Sitte, Kevin Lynch e Aldo Rossi sulla leggibilità dell’architettura, e permette di individuare una serie di strumenti analitici per la lettura dello spazio urbano. Ritenendo che una sfida dell’architettura sia la capacità di essere compresa da ogni osservatore attraverso le sue forme e gli spazi che costruisce, scopo ultimo di questa ricerca è di decodificare, per quanto possibile, alcuni macro archetipi di questo sistema. L’obiettivo è offrire una serie di principi utili ad un progetto dello spazio pubblico urbano in grado di rispondere con una elevata qualità spaziale alle esigenze dell'uomo contemporaneo.
Resumo:
Obiettivo del presente elaborato è quello di condurre un’analisi critica degli interventi atti a ridurre la vulnerabilità sismica di edifici esistenti in muratura al fine di individuare una metodologia che consenta di stimare l’intervento o la serie di interventi con il miglior rapporto diminuzione di vulnerabilità/costo d’intervento. Partendo dalla definizione dello United Nations Disaster Relief Coordination Office, con il termine vulnerabilità intenderò il grado di perdita di funzionalità, che può essere espresso in una scala da zero, che significa nessun danno, o cento, che significa perdita totale. Tale perdita si può produrre su un certo elemento o su un gruppo di elementi esposti a rischio al seguito del verificarsi di un evento calamitoso, nel caso specifico, il sisma. La normativa vigente individua, nel definire i criteri generali per la valutazione della sicurezza e per la progettazione, l’esecuzione ed il collaudo degli interventi sulle costruzioni esistenti, le seguenti categorie di intervento: 1)interventi di adeguamento atti a conseguire i livelli di sicurezza previsti dalla normativa stessa, 2)interventi di miglioramento atti ad aumentare la sicurezza strutturale esistente, pur senza necessariamente raggiungere i livelli richiesti dalla normativa, 3)riparazioni o interventi locali che interessino elementi isolati, e che comunque non comportino un miglioramento delle condizioni di sicurezza preesistenti. Nel proseguo, circoscriverò pertanto lo studio esclusivamente agli interventi di miglioramento, ovvero a quegli interventi che siano comunque finalizzati ad accrescere la capacità di resistenza delle strutture esistenti alle azioni considerate. Tuttavia, poiché gli interventi di riparazione del danno raramente sono solo fini a se stessi in quanto comportano sempre anche una componente di miglioramento, e dunque di riduzione della vulnerabilità sismica dell’edificio, la metodologia che verrà presentata potrà essere adottata sia nel caso di edifici che non hanno subito eventi sismici, e quindi non danneggiati, sia per gli edifici danneggiati da un evento sismico, scorporando, per questi ultimi, la quota parte del costo dell’intervento attribuibile alla sola riparazione del danno da quella attribuibile al miglioramento. Successivamente, partendo dalla descrizione delle schede di 2° livello GNDT (Gruppo Nazionale Difesa Terremoti), si procederà alla definizione di un indice di vulnerabilità degli edifici in muratura che tenga conto delle classi di vulnerabilità associate ai parametri riportati in dette schede in funzione delle carenze strutturali rilevate in fase di sopralluogo. Detto indice verrà poi utilizzato per valutare possibili ipotesi di intervento da applicarsi su un edificio in muratura esistente scelto come caso di studio. Per ciascun intervento ipotizzato, verrà calcolato il rapporto tra la riduzione di vulnerabilità ed i costi degli interventi stessi individuando, in un’ottica di analisi costi-benefici, l’ipotesi d’intervento più idonea.
Resumo:
Il presente elaborato propone un’analisi contrastiva tra proverbi italiani e spagnoli appartenenti alla sfera gastronomica. Il lavoro è stato organizzato in tre capitoli e ognuno di questi si focalizza su diversi aspetti. Nel primo capitolo sono stati riportati cenni storici e teorici riguardanti la paremiologia, ovvero lo studio dei proverbi. Nel secondo capitolo, dopo una lunga fase di ricerca e documentazione, mi sono soffermato sull’analisi di una serie di locuzioni proverbiali in spagnolo, con opportuni parallelismi e confronti con quelli in lingua italiana. Infine, ho affrontato la questione dal punto di vista della traduzione, mettendo in luce i possibili limiti e difficoltà in campo traduttivo.
Resumo:
La misura delle distanze in astrofisica non è affatto semplice, ma è molto importante per capire le dimensioni dell'Universo e le caratteristiche dei corpi celesti. Inoltre per descrivere le enormi distanze astronomiche sono state introdotte delle apposite unità di misura, quali l'Unità Astronomica, l'anno luce e il parsec. Esistono vari modi per calcolare le distanze: i metodi geometrici, basati sulla parallasse; gli indicatori primari, utilizzano le cosiddette candele standard, cioè oggetti di cui è nota la magnitudine assoluta, per calcolare le distanze di galassie vicine, e sono calibrati sulle misure dei metodi geometrici; gli indicatori secondari, utilizzano gli indicatori primari come calibri per poter calcolare le distanze di galassie ed ammassi di galassie lontani. Quindi le distanze si calcolano attraverso una serie di passaggi successivi, creando così una vera e propria scala, in cui ogni gradino corrisponde ad un metodo che viene calibrato sul precedente. Con i metodi geometrici da Terra sono state misurate distanze fino a poche centinaia di parsec, con il satellite Ipparcos si è arrivati ai Kiloparsec e col satellite Gaia saranno note le distanze di tutte le stelle della galassia. Con gli indicatori primari è stato possibile calcolare le distanze delle galassie vicine e con quelli secondari le distanze di galassie ed ammassi lontani, potendo così stimare con la Legge di Hubble le dimensioni dell'Universo. In questo elaborato verranno analizzati diversi metodi: i vari tipi di parallasse (quella annua e di ammasso in particolare), il fit di sequenza principale per gli ammassi stellari, le stelle variabili (Cefeidi classiche, W Virginis, RR Lyrae), le Supernovae di tipo Ia, la relazione di Tully-Fisher, il Piano Fondamentale e la Legge di Hubble.
Resumo:
Ho deciso di documentarmi e di scrivere riguardo la traduzione del Corano e la sua storia in Occidente, in particolare in Italia, per poter comprendere meglio la cultura e il punto di vista di un popolo tanto simile quanto diverso dal mio. In seguito alla mia esperienza personale in Giordania e agli studi svolti fin’ora, mi sono resa conto di come la conoscenza di questo testo, anche se parziale, sia indispensabile per chiunque desideri entrare in contatto col mondo arabo. Riconoscendo le mie lacune in materia e intenzionata a proseguire con lo studio della lingua araba, ho deciso di rimediare scrivendo una tesi che potesse essere uno strumento utile per me, ma anche per tutti gli studenti futuri che, come me, desidereranno approfondire lo studio della cultura araba, oltre a quello della lingua. Dopo una breve introduzione sulla struttura e sulle origini storico-religiose del testo maomettano, proseguirò dunque la mia tesi sulla traduzione del Corano, concentrandomi sulle primissime versioni tradotte in Occidente e, in particolare, sulla prima traduzione italiana del testo sacro all’Islam. Fondamentale per lo studio del Corano e della sua traduzione è stato lo studio della storia, specialmente l’analisi del XVI secolo. Il passaggio dalla fine del Medioevo all’inizio dell’Età moderna porta infatti una serie di cambiamenti, rivoluzioni tecnologiche e filosofiche uniche nella storia europea e mondiale. Oltre ad aver ricercato la storia e tutte le informazioni utili sulle prime traduzioni del Corano in Europa, mi sono anche documentata sulle versioni più moderne, citando sia quelle di traduttori europei in generale, che quelle di autori italiani. Infine ho confrontato le due versioni de ‘Il Corano’ tradotte in lingua italiana da Bausani e Riccardo Hamza Piccardo: il primo studioso attento e traduttore esperto, il secondo religioso che rifiuta la traduzione classica per la traduzione interpretativa.
Resumo:
La materia ordinaria copre soli pochi punti percentuali della massa-energia totale dell'Universo, che è invece largamente dominata da componenti “oscure”. Il modello standard usato per descriverle è il modello LambdaCDM. Nonostante esso sembri consistente con la maggior parte dei dati attualmente disponibili, presenta alcuni problemi fondamentali che ad oggi restano irrisolti, lasciando spazio per lo studio di modelli cosmologici alternativi. Questa Tesi mira a studiare un modello proposto recentemente, chiamato “Multi-coupled Dark Energy” (McDE), che presenta interazioni modificate rispetto al modello LambdaCDM. In particolare, la Materia Oscura è composta da due diversi tipi di particelle con accoppiamento opposto rispetto ad un campo scalare responsabile dell'Energia Oscura. L'evoluzione del background e delle perturbazioni lineari risultano essere indistinguibili da quelle del modello LambdaCDM. In questa Tesi viene presentata per la prima volta una serie di simulazioni numeriche “zoomed”. Esse presentano diverse regioni con risoluzione differente, centrate su un singolo ammasso di interesse, che permettono di studiare in dettaglio una singola struttura senza aumentare eccessivamente il tempo di calcolo necessario. Un codice chiamato ZInCo, da me appositamente sviluppato per questa Tesi, viene anch'esso presentato per la prima volta. Il codice produce condizioni iniziali adatte a simulazioni cosmologiche, con differenti regioni di risoluzione, indipendenti dal modello cosmologico scelto e che preservano tutte le caratteristiche dello spettro di potenza imposto su di esse. Il codice ZInCo è stato usato per produrre condizioni iniziali per una serie di simulazioni numeriche del modello McDE, le quali per la prima volta mostrano, grazie all'alta risoluzione raggiunta, che l'effetto di segregazione degli ammassi avviene significativamente prima di quanto stimato in precedenza. Inoltre, i profili radiale di densità ottenuti mostrano un appiattimento centrale nelle fasi iniziali della segregazione. Quest'ultimo effetto potrebbe aiutare a risolvere il problema “cusp-core” del modello LambdaCDM e porre limiti ai valori dell'accoppiamento possibili.
Resumo:
La prima parte del volume raccoglie una serie di capitoli dedicati alla lettura ed all’analisi del territorio di Jesolo. I materiali sono stati elaborati all’interno del Laboratorio di Sintesi “I luoghi del tempo libero”, coordinato dalla prof.ssa Elena Mucelli nell’Anno Accademico 2013/14. La seconda parte del volume raccoglie i materiali dedicati all’approfondimento tematico ed alle proposte progettuali sviluppati dai singoli candidati.
Resumo:
La prima parte del volume raccoglie una serie di capitoli dedicati alla lettura ed all’analisi del territorio di Jesolo. I materiali sono stati elaborati all’interno del Laboratorio di Sintesi “I luoghi del tempo libero”, coordinato dalla prof.ssa Elena Mucelli nell’Anno Accademico 2013/14. La seconda parte del volume raccoglie i materiali dedicati all’approfondimento tematico ed alle proposte progettuali sviluppati dai singoli candidati.
Resumo:
Agile methodologies have become the standard approach to software development. The most popular and used one is Scrum. Scrum is a very simple and flexible framework that respond to unpredictability in a really effective way. However, his implementation must be correct, and since Scrum tells you what to do but not how to do it, this is not trivial. In this thesis I will describe the Scrum Framework, how to implement it and a tool that can help to do this. The thesis is divided into three parts. The first part is called Scrum. Here I will introduce the framework itself, its key concepts and its components. In Scrum there are three components: roles, meetings and artifacts. Each of these is meant to accomplish a series of specific tasks. After describing the “what to do”, in the second part, Best Practices, I will focus on the “how to do it”. For example, how to decide which items should be included in the next sprint, how to estimate tasks, and how should the team workspace be. Finally, in the third part called Tools, I will introduce Visual Studio Online, a cloud service from Microsoft that offers Git and TFVC repositories and the opportunity to manage projects with Scrum. == Versione italiana: I metodi Agile sono diventati l’approccio standard per lo sviluppo di software. Il più famoso ed utilizzato è Scrum. Scrum è un framework molto semplice e flessibile che risponde ai cambiamenti in una maniera molto efficace. La sua implementazione deve però essere corretta, e visto che Scrum ci dice cosa fare ma non come farlo, questo non risulta essere immediato. In questa tesi descriverò Scrum, come implementarlo ed uno strumento che ci può aiutare a farlo. La tesi è divisa in tre parti. La prima parte è chiamata Scrum. Qui introdurrò il framework, i suoi concetti base e le sue componenti. In Scrum ci sono tre componenti: i ruoli, i meeting e gli artifact. Ognuno di questi è studiato per svolgere una serie di compiti specifici. Dopo aver descritto il “cosa fare”, nella seconda parte, Best Practices, mi concentrerò sul “come farlo”. Ad esempio, come decidere quali oggetti includere nella prossima sprint, come stimare ogni task e come dovrebbe essere il luogo di lavoro del team. Infine, nella terza parte chiamata Tools, introdurrò Visual Studio Online, un servizio cloud della Microsoft che offre repository Git e TFVC e l’opportunità di gestire un progetto con Scrum.
Resumo:
Lo scopo della prototipazione rapida è la realizzazione di prototipi destinati alle osservazioni al fine di migliorare il progetto in via di sviluppo. Tuttavia, negli ultimi anni si sta cercando di ottenere prototipi che siano già di per sé funzionali e quindi oggetti pronti all'uso. Soprattutto per i materiali metallici, si stanno sviluppando tecniche di prototipazione che tendono a diventare veri e propri processi tecnologici di produzione: una di queste è il processo DMLS (Direct Metal Laser Sintering). La tecnologia di Sinterizzazione Laser Selettiva dei Metalli (DMLS) si realizza attraverso un processo per addizione stratificata, in cui l’utilizzo di un laser ad alta densità di energia permette di fondere metalli in polvere, creando il modello o il prototipo tridimensionale. La tecnologia DMLS risulta estremamente innovativa ed offre la possibilità di sviluppare componenti con un grado di precisione elevato e un livello di dettaglio accurato. I vantaggi di questa tecnologia sono diversi, ma il più importante è l'estrema flessibilità di progetto in quanto si eliminano i vincoli di fabbricazione dettati dalle tecniche di produzione convenzionali basate sull'asportazione di truciolo, dando così piena libertà di design al progettista. Un esempio di applicazione di questa tecnologia è la costruzione di stampi per lo stampaggio ad iniezione: per poter migliorare il ciclo di produzione (in termini di tempo e quindi di denaro) è possibile creare canali di raffreddamento interni ottimizzati con forme e traiettorie diverse dalle tradizionali rettilinee ottenute per foratura. Dunque, associando questa tecnologia con i diversi materiali disponibili in commercio, è possibile costruire manufatti altamente customizzati e performanti a seconda delle varie esigenze. L’obiettivo di questo lavoro è stato quello di stimare e confrontare il limite di fatica per vita infinita di tre serie di provini, ottenuti mediante il processo innovativo DMLS, accresciuti secondo la direzione verticale, orizzontale ed inclinata a 45°; in particolare si è voluto osservare il comportamento dei provini in quest’ultimo caso, non essendoci informazioni precise in letteratura. La polvere di metallo utilizzata per la fabbricazione dei provini è il Maraging Steel, un acciaio dalle caratteristiche meccaniche eccezionali utilizzato soprattutto nel campo aereonautico.
Resumo:
La presente tesi si pone l’obiettivo di analizzare le principali metodologie per la stima delle conseguenze degli scenari incidentali propri degli stabilimenti che producono, operano o sono oggetto di stoccaggio di materiale esplosivo. Le sostanze esplosive sono utilizzate in innumerevoli attività civili, industriali e militari e considerando la loro intrinseca pericolosità, derivante dalla capacità di generare in uno spazio ridottissimo e in un tempo brevissimo una enorme quantità di energia, sono soggetti a tutta una serie di norme. Tali norme non solo classificano gli esplosivi ma ne regolamentano ogni utilizzo, dalla produzione, ai vari impieghi, allo stoccaggio fino allo smaltimento. Gli stabilimenti che detengono esplosivi possono essere classificati come a rischio di incidente rilevante e in quanto tali si trovano a dover sottostare alle varie direttive Seveso, da questo punto di vista si analizzano le caratteristiche a livello nazionale e regionale degli stabilimenti R.I.R. che operano con esplosivi. All’interno della tesi viene svolta un’analisi storica degli incidenti che hanno interessato gli stabilimenti che detengono esplosivi negli ultimi anni a livello mondiale, in modo tale da poter valutare quali eventi incidentali possano riguardare questa specifica classe di stabilimenti. Vengono poi presentati i principali approcci metodologici utilizzati per poter valutare le conseguenze degli scenari incidentali. Nello specifico vengono descritte le metodologie della normativa italiana T.U.L.P.S., del documento francese Sècuritè Pirotecnique, dell’Air Force Manual americano e alcuni metodi basati sull’equivalenza al TNT rintracciabili nella letteratura specifica. Le metodologie elencate precedentemente vengono poi applicate ad un caso di studio costituito da uno stabilimento fittizio caratterizzato da specifiche quantità di esplosivi suddivise in vari locali, localizzati in un ipotetico territorio. Dalla valutazione dei risultati ottenuti dall’applicazione dei vari approcci metodologici al caso studio è emerso un auspicabile proseguimento delle indagini relative alle metodologie relative alla quantificazione delle conseguenze degli scenari incidentali propri degli stabilimenti che detengono esplosivi con l’obiettivo di giungere ad una maggior standardizzazione dei metodi di calcolo che possa poi riflettersi anche in indicazioni uniformi a livello normativo.
Resumo:
Il presente lavoro di tesi si occupa dell’analisi delle caratteristiche costituenti un sistema informativo destinato alla gestione della logistica e della produzione di piccole realtà imprenditoriali e, successivamente, della definizione di una possibile struttura modulare dello stesso sistema. Il lavoro, frutto di una collaborazione (tirocinio formativo) presso una società di consulenza organizzativa e informatica, prende le mosse dallo studio di una serie di trattazioni riguardanti i seguenti temi: gestione delle scorte e della produzione, lean production, cambiamento organizzativo e reingegnerizzazione dei processi aziendali, sistemi informativi e informatici, rapporto tra piccole-medie imprese e tecnologie dell’informazione. Da un iniziale introduzione sulle tematiche legate alla gestione dell’informazione in ambito aziendale, si procede ad una descrizione dell’utilizzo delle informazioni, in particolare in riferimento alle tecniche di reingegnerizzazione dei processi aziendali. In seguito, viene analizzato il più ampio concetto delle tecnologie a supporto dell’informazione, e della loro relazione con le piccole e medie imprese italiane. Successivamente, si offre una panoramica dei metodi più utilizzati per la pianificazione e programmazione della produzione e per la gestione delle scorte, differenziandoli tra metodi a fabbisogno e metodi a ripristino. Infine, si procede alla presentazione di una configurazione originale di un sistema informativo gestionale, tramite descrizione approfondita dei moduli di base costituenti, anche attraverso l’ausilio di diagrammi esplicativi, ed il confronto tra il proprio metodo di programmazione materiali ed il più famoso metodo MRP (Material Requirements Planning), diffuso nella maggior parte dei software gestionali in commercio; quest’ultimi verranno confrontati con la soluzione presentata tramite mappa di posizionamento. In conclusione, vengono esposte le ragioni di possibile successo del sistema presentato, mettendo in evidenza l’ormai appurata imprescindibilità dei sistemi informativi gestionali, sottolineata dalla crescita costante della loro adozione da parte delle imprese italiane. In particolare, viene posto l’accento sul fatto che il bacino di mercato costituito dalle piccole imprese sia ancora in parte insoddisfatto. Sono proprio le piccole imprese, come verrà spiegato nel dettaglio, le beneficiarie del nuovo sistema progettato, grazie a determinate caratteristiche studiate ad hoc per questa cospicua fascia di mercato.
Resumo:
Nei capitoli I e II ho costruito rigorosamente le funzioni circolari ed esponenziali rispettivamente attraverso un procedimento analitico tratto dal libro Analisi Matematica di Giovanni Prodi. Nel III capitolo, dopo aver introdotto il numero di Nepero e come limite di una particolare successione monotona, ho calcolato i limiti notevoli dell'esponenziale e della sua inversa, che sono alla base del calcolo differenziale di queste funzioni, concludendo poi la sezione dimostrando l'irrazionalità del numero e, base dei logaritmi naturali. Nel capitolo successivo ho dato, delle funzioni circolari ed esponenziali, i rispettivi sviluppi in serie di Taylor ma solamente nel V capitolo potremo renderci veramente conto di come i risultati ottenuti siano fra loro dipendenti. In particolare verrà messa in evidenza come il legame del tutto naturale che si osserva fra le funzioni circolari e le funzioni esponenziali rappresenta le fondamenta di argomenti molto notevoli e pieni di significato, come l'estensione ai numeri complessi dell'esponenziale o le celebri identità di Eulero. L'ultimo capitolo vedrà come protagonista pi greco, così misterioso quanto affascinante, che per secoli ha smosso gli animi dei matematici intenzionati a volerne svelare la natura. Come per il numero di Nepero, non potrà mancare un paragrafo dedicato alla dimostrazione della sua non razionalità.