997 resultados para trasformata di Fourier formule di valutazione modello Black-Scholes e Merton
Resumo:
Il patrimonio residenziale italiano ammonta a 12,2 milioni di edifici, di cui il 57,5% ha più di 50 anni ed è stato costruito in assenza di normative specifiche, in termini di sicurezza sismica, resistenza al fuoco, efficienza energetica e accessibilità, e manifesta un’avanzata obsolescenza. Agire su questo patrimonio significa operare tramite le due macro categorie di intervento: demolizione/ricostruzione o riqualificazione energetica. Questa ricerca dottorale vuole indagare la demolizione/ricostruzione di comparti urbani periferici, costruiti tra 1945-1965, quale strategia di rigenerazione urbana, integrandola in un modello edilizio basato sui criteri dell’economia circolare. Vengono definite le caratteristiche costruttive e i principi di questo modello di progettazione ecosistemica, denominato Integrho, che coniuga i criteri di ecodesign nel ciclo di vita (Building in Layers, Design for Disassembly e il Design out Waste) con quelli di bioclimaticità e di adattabilità funzionale. Il lavoro è stato improntato secondo due livelli gerarchici, scala urbana e scala edilizia, tra loro correlate mediante quella intermedia dell’isolato, al fine di ottenere un obiettivo di natura metodologica: definire uno strumento di supporto decisionale, capace di indirizzare tra le categorie di intervento attraverso parametri oggettivi, valutati con analisi comparative speditive. Tale metodologia viene applicata al contesto di Bologna, e si fonda sulla creazione di un’approfondita base conoscitiva attraverso la catalogazione delle 8.209 pratiche edilizie di nuova costruzione presentate tra 1945 e il 1965. Tale strumento georeferenziato, contenente informazioni tipologiche, costruttive ecc., è impiegato per valutare in modo quantitativo e speditivo i consumi energetici, i materiali incorporati, gli impatti ambientali e i costi economici dei differenti scenari di intervento nel ciclo di vita. Infine, l’applicazione del modello edilizio Integrho e del paradigma Ri-Costruire per Ri-Generare ad uno degli isolati periferici selezionati, è impiegata come esemplificazione dell’intero processo, dalla fase conoscitiva a quella strumentale, al fine di verificarne l’attendibilità e l’applicabilità su larga scala.
Resumo:
Both compressible and incompressible porous medium models are used in the literature to describe the mechanical aspects of living tissues. Using a stiff pressure law, it is possible to build a link between these two different representations. In the incompressible limit, compressible models generate free boundary problems where saturation holds in the moving domain. Our work aims at investigating the stiff pressure limit of reaction-advection-porous medium equations motivated by tumor development. Our first study concerns the analysis and numerical simulation of a model including the effect of nutrients. A coupled system of equations describes the cell density and the nutrient concentration and the derivation of the pressure equation in the stiff limit was an open problem for which the strong compactness of the pressure gradient is needed. To establish it, we use two new ideas: an L3-version of the celebrated Aronson-Bénilan estimate, and a sharp uniform L4-bound on the pressure gradient. We further investigate the sharpness of this bound through a finite difference upwind scheme, which we prove to be stable and asymptotic preserving. Our second study is centered around porous medium equations including convective effects. We are able to extend the techniques developed for the nutrient case, hence finding the complementarity relation on the limit pressure. Moreover, we provide an estimate of the convergence rate at the incompressible limit. Finally, we study a multi-species system. In particular, we account for phenotypic heterogeneity, including a structured variable into the problem. In this case, a cross-(degenerate)-diffusion system describes the evolution of the phenotypic distributions. Adapting methods recently developed in the context of two-species systems, we prove existence of weak solutions and we pass to the incompressible limit. Furthermore, we prove new regularity results on the total pressure, which is related to the total density by a power law of state.
Resumo:
Lo studio del fenomeno dei Grands Ensembles nella metropoli di Parigi ci ha portati alla conoscenza di una realtà sociale, politica, geografica e architettonica così complessa e dalle tante sfaccettature. La storia che noi abbiamo studiato e con la quale ci siamo interfacciati, toccando e vivendo la periferia con mano, si legge chiaramente tutt’oggi. A partire dal boulevard Périphérique, grande infrastruttura ad anello che segna una distanza fisica e psicologica tra Parigi e la sua Banlieue. Nel corso degli anni, il sistema Monocentrico di Parigi ha portato al celebre lavoro del Grand Paris, proposta visionaria che cerca di recuperare la periferia per renderla protagonista di un modello policentrico.In questo contesto la nostra area di progetto, vicina fisicamente a Parigi ma incastrata in un sistema di enclave che segna la vera distanza, quella psicologica, dal centro, pone un problema che riapre le mille questioni che abbiamo cercato di analizzare. La demolizione di più di 200 alloggi sociali, per motivi legati al disagio sociale, alla delinquenza e alla perifericità più intrinseca dei grands ensambles, è alla radice dei nostri ragionamenti e della nostra proposta. Sennett sostiene che “ Se le città devono diventare un luogo più equo, la progettazione deve imprimere un ordine sin dalle fondamenta. La Ville deve portare alla Cité”1. Noi proponiamo di aprire per riabitare, costruendo spazi che torneranno ad essere popolati e di conseguenza protetti e curati, a disposizione della comunità e pronti a servire i bisogni anche dei più piccoli e dei più deboli. “ Si tratta di pensare una città più agibile, più semplice, dove i cittadini siano considerati di più”
Resumo:
Lo scopo di questa tesi è quello di aggregare ed elaborare tutti i dati che sono stati generati durante lo svolgimento del progetto del corso di Ingegneria del Software presso la facoltà di Informatica dell’Università di Bologna nell’Anno Accademico 2021/2022. In particolare saranno elaborati i dati provenienti da un questionario rivolto a tutti i partecipanti e dall’ambiente CAS (Compositional Agile System). Al progetto hanno partecipato 79 studenti, suddivisi in 16 team. La dissertazione consisterà nell’applicazione di un modello di qualità del teamwork e uno di maturità, seguendo il metodo adottato da Sofia Zani nella sua tesi lo scorso anno. Alla fine saranno analizzati tutti gli aspetti presi in considerazione e sarà ricercata una correlazione tra i due modelli.
Resumo:
Nella letteratura economica e di teoria dei giochi vi è un dibattito aperto sulla possibilità di emergenza di comportamenti anticompetitivi da parte di algoritmi di determinazione automatica dei prezzi di mercato. L'obiettivo di questa tesi è sviluppare un modello di reinforcement learning di tipo actor-critic con entropy regularization per impostare i prezzi in un gioco dinamico di competizione oligopolistica con prezzi continui. Il modello che propongo esibisce in modo coerente comportamenti cooperativi supportati da meccanismi di punizione che scoraggiano la deviazione dall'equilibrio raggiunto a convergenza. Il comportamento di questo modello durante l'apprendimento e a convergenza avvenuta aiuta inoltre a interpretare le azioni compiute da Q-learning tabellare e altri algoritmi di prezzo in condizioni simili. I risultati sono robusti alla variazione del numero di agenti in competizione e al tipo di deviazione dall'equilibrio ottenuto a convergenza, punendo anche deviazioni a prezzi più alti.
Resumo:
Negli ultimi anni la necessità di processare e mantenere dati di qualsiasi natura è aumentata considerevolmente, in aggiunta a questo, l’obsolescenza del modello centralizzato ha contribuito alla sempre più frequente adozione del modello distribuito. Inevitabile dunque l’aumento di traffico che attraversa i nodi appartenenti alle infrastrutture, un traffico sempre più in aumento e che con l’avvento dell’IoT, dei Big Data, del Cloud Computing, del Serverless Computing etc., ha raggiunto picchi elevatissimi. Basti pensare che se prima i dati erano contenuti in loco, oggi non è assurdo pensare che l’archiviazione dei propri dati sia completamente affidata a terzi. Così come cresce, quindi, il traffico che attraversa i nodi facenti parte di un’infrastruttura, cresce la necessità che questo traffico sia filtrato e gestito dai nodi stessi. L’obbiettivo di questa tesi è quello di estendere un Message-oriented Middleware, in grado di garantire diverse qualità di servizio per la consegna di messaggi, in modo da accelerarne la fase di routing verso i nodi destinazione. L’estensione consiste nell’aggiungere al Message-oriented Middleware, precedentemente implementato, la funzione di intercettare i pacchetti in arrivo (che nel caso del middleware in questione possono rappresentare la propagazione di eventi) e redirigerli verso un nuovo nodo in base ad alcuni parametri. Il Message-oriented Middleware oggetto di tesi sarà considerato il message broker di un modello pub/sub, pertanto la redirezione deve avvenire con tempi molto bassi di latenza e, a tal proposito, deve avvenire senza l’uscita dal kernel space del sistema operativo. Per questo motivo si è deciso di utilizzare eBPF, in particolare il modulo XDP, che permette di scrivere programmi che eseguono all’interno del kernel.
Resumo:
L’aumento della quantità di inquinanti emessi in atmosfera, legati all’attività antropica che si è osservato negli ultimi anni, ha portato all’emanazione di normative allo scopo di migliorare la qualità dell’aria e mitigare il cambiamento climatico. I settori responsabili di queste emissioni sono molteplici ma quello dei trasporti risulta essere uno dei maggiori indagati, condizione che ha portato ad una maggiore complessità dei motori a combustione interna, cercando così di ridurre l’impatto che hanno sull’ambiente, il clima e la salute umana. Nonostante tutto, l’abbassamento continuo dei limiti massimi, relativi alla quantità di sostanze che possono essere emesse dai veicoli, ha spinto le case automobilistiche a ricercare nuovi sistemi di propulsione. In questo contesto di riduzione degli inquinanti, sta assumendo una posizione di rilievo la scelta di utilizzare l’idrogeno come combustibile alternativo, concetto che verrà approfondito in questa tesi. Tenendo presente che un ciclo motore è suddiviso in 4 fasi: aspirazione, compressione, espansione e scarico, nell’elaborato di questa tesi, verranno analizzate la sola compressione e successiva combustione sfruttando il software di simulazione AVL FIRE. Lo studio prevede la realizzazione di un modello in grado di descrivere e simulare in maniera realistica il fenomeno di combustione dell’idrogeno e la definizione di una procedura per la caratterizzazione dei parametri di iniezione, prestando particolare attenzione all’influenza che questi hanno sul processo di formazione della miscela in modo da giungere ad una configurazione ottimale. Inizialmente sarà utilizzata una geometria con un iniettore a foro singolo posizionato centralmente, la quale progressivamente verrà modificata allo scopo di ottenere una rappresentazione sempre più simile alla condizione reale.
Resumo:
In questa tesi ho analizzato il passaggio dall'ambiente BIM a quello FEM di un impalcato da ponte a travata precompressa, identificando criteri e applicando una metodologia che hanno consentito lo sviluppo di un modello FEM utilizzabile per l'analisi strutturale. Nella tesi si descrive l'opera e il suo dimensionamento, con l'analisi statica e le verifiche strutturali eseguite sia a mano sia sul modello in ambiente FEM importato dall'ambiente BIM. Oltre a ciò, viene modellata l'opera nella sua interezza ed inserita in un contesto reale. La tesi discute l'interoperabilità tra i due software evidenziando vantaggi (modello geometrico di partenza in ambiente FEM, trasferimento di informazioni inserite in ambiente BIM, riduzione dei tempi di modellazione e inserimento proprietà dei materiali e caratteristiche degli oggetti, inserimento armature di precompressione) e criticità (implementazione manuale di alcuni elementi nel modello geometrico, perdita di alcune informazioni, definizione di alcuni parametri, limitata interoperabilità FEM-BIM) della metodologia applicata.
Resumo:
Questa tesi, dal titolo “Cybersecurity Capability Maturity Model (C2M2 v 2.0)” si pone l’obbiettivo di studiare, analizzare, applicare e mostrare punti di forza e criticità di un modello atto a valutare la propria postura di cybersicurezza, al fine di migliorarne i punti critici, trovarne le priorità in cui investire e strutturare un security program integrato in tutti i processi aziendali.
Resumo:
L'avanzamento dell'e-commerce e l'aumento della densità abitativa nel centro città sono elementi che incentivano l'incremento della richiesta merci all'interno dei centri urbani. L'attenzione all'impatto ambientale derivante da queste attività operative è un punto focale oggetto di sempre maggiore interesse. Attraverso il seguente studio, l'obiettivo è definire attuali e potenziali soluzioni nell'ambito della logistica urbana, con particolare interesse alle consegne dell'ultimo miglio. Una soluzione proposta riguarda la possibilità di sfruttare la capacità disponibile nei flussi generati dalla folla per movimentare merce, pratica nota sotto il nome di Crowd-shipping. L'idea consiste nella saturazione di mezzi già presenti nella rete urbana al fine di ridurre il numero di veicoli commerciali e minimizzare le esternalità negative annesse. A supporto di questa iniziativa, nell'analisi verranno considerati veicoli autonomi elettrici a guida autonoma. La tesi è incentrata sulla definizione di un modello di ottimizzazione matematica, che mira a designare un network logistico-distributivo efficiente per le consegne dell'ultimo miglio e a minimizzare le distanze degli attori coinvolti. Il problema proposto rappresenta una variante del Vehicle Routing Problem con time windows e multi depots. Il problema è NP-hard, quindi computazionalmente complesso per cui sarà necessario, in fase di analisi, definire un approccio euristico che permetterà di ottenere una soluzione sub-ottima in un tempo di calcolo ragionevole per istanze maggiori. L'analisi è stata sviluppata nell'ambiente di sviluppo Eclipse, attraverso il risolutore Cplex, in linguaggio Java. Per poterne comprendere la validità, è prevista un'ultima fase in cui gli output del modello ottimo e dell'euristica vengono confrontati tra loro su parametri caratteristici. Bisogna tuttavia considerare che l' utilizzo di sistemi cyber-fisici a supporto della logistica non può prescindere da un costante sguardo verso il progresso.
Resumo:
L’idea di focalizzare la tesi sulla supply chain ed in particolare sulle tecniche lean per la sua ottimizzazione deriva dal fatto che si tratta di un nuovo modo di ragionare, di un approccio moderno perfettamente adattabile al contesto socio-economico attuale, teso ad accrescere la flessibilità e l’efficienza dell’impresa attraverso un ripensamento dell’intero flusso di creazione del valore. Verranno analizzate le caratteristiche generali di questo modello organizzativo, per poi addentrarsi nella sua applicazione ed infine i vantaggi e gli eventuali svantaggi che le organizzazioni devono affrontare per implementare operativamente le tecniche lean. L’analisi effettuata nella tesi è strutturata come segue: La parte iniziale del primo capitolo definisce il concetto generale di supply chain sottolineando il contesto di riferimento in cui oggi operano le attività produttive. Vengono poi riportati l’accezione e il valore della supply chain management e le sue problematiche annesse di gestione e controllo. Nella seconda parte del capitolo vengono analizzati e descritti i modelli letterari esistenti utili per descrivere, impostare e classificare una supply chain. Il secondo capitolo, dopo una breve esposizione storica che descrive le origini della metodologia lean production, è orientato alla raccolta delle definizioni e alle loro differenti visioni tratte dal mondo della letteratura. Segue una parte più analitica, dove vengono analizzati in maniera dettagliata gli obiettivi, gli strumenti ed i principi che la filosofia lean prevede. Nel terzo capitolo viene approfondita la VSM, uno degli strumenti di principale importanza secondo le logiche della lean manufacturing. Vengono analizzati gli step necessari per una corretta implementazione, illustrando prima la simbologia internazionale necessaria per una sua comprensione e realizzazione e poi definiti gli step da applicare non solo per una semplice realizzazione, ma per l’ottenimento di una value stream map in ottica lean.
Resumo:
Questo elaborato si pone come obiettivo l’introduzione e lo studio di due strumenti estremamente interessanti in Analisi Stocastica per le loro applicazioni nell’ambito del controllo ottimo stocastico e, soprattutto (per i fini di questo lavoro), della finanza matematica: le equazioni differenziali stocastiche backward (BSDEs) e le equazioni differenziali stocastiche forward-backward (FBSDEs). Innanzitutto, la trattazione verterà sull’analisi delle BSDEs. Partendo dal caso lineare, perfettamente esplicativo dei problemi di adattabilità che si riscontrano nella definizione di soluzione, si passerà allo studio delle BSDEs non lineari con coefficienti Lipschitziani, giungendo, in entrambe le situazioni, alla prova di risultati di esistenza e unicità della soluzione. Tale analisi sarà completata con un’indagine sulle relazioni che persistono con le PDEs, che porterà all’introduzione di una generalizzazione della formula di Feynman-Kac e si concluderà, dopo aver introdotto le FBSDEs, con la definizione di un metodo risolutivo per queste ultime, noto come Schema a quattro fasi. Tali strumenti troveranno applicazione nel quinto e ultimo capitolo come modelli teorici alla base della Formula di Black-Scholes per problemi di prezzatura e copertura di opzioni.
Resumo:
Questo lavoro compie un’indagine sulla situazione occupazionale delle donne nel settore della produzione cinematografica e audiovisiva in Italia, con particolare riferimento agli ultimi cinque anni. Il nucleo dello studio è composto da una ricerca che prende come campione di riferimento diciassette opere seriali finanziate dalla Emilia-Romagna Film Commission dal 2017 al 2021. Attraverso le informazioni pervenute dalle crew list e dalle interviste con questionario destinate alle case di produzione coinvolte, si analizza il numero di donne occupate, la composizione di genere nei diversi ruoli, le opinioni dei rispondenti riguardo al tema della parità di genere nel settore. A questi dati si affianca un approfondimento sull’ambito della formazione, prendendo in esame il numero di allieve e allievi di quattro diverse realtà formative nel quinquennio preso in considerazione (la Scuola Nazionale di Cinema, i corsi finanziati dalla Regione Emilia-Romagna attraverso il Fondo sociale europeo, la scuola di Bologna Rosencrantz & Guildenstern, il corso di studi CITEM dell’Università di Bologna), con il fine di individuare congruenze o meno rispetto all’ambito professionale. I risultati di tale indagine vengono preceduti da una panoramica delle attuali politiche a favore della parità di genere nel settore cinematografico e audiovisivo, in particolare attraverso l’osservazione dei criteri di valutazione dei bandi del MiC e della Emilia-Romagna Film Commission.
Resumo:
Background Le complicazioni dovute a disfunzioni dei muscoli respiratori sono tra le cause principali di morbilità e mortalità per i pazienti con malattie neuromuscolari. La fisioterapia respiratoria, nello specifico tramite l’utilizzo della macchina della tosse, assume quindi un ruolo fondamentale nella gestione della clearance bronchiale. Questo studio si pone l’obbiettivo di verificare se l’ecografia diaframmatica può rappresentare uno strumento di valutazione utile al fisioterapista nella titolazione dei corretti parametri della macchina della tosse. Metodi Lo studio è un trial clinico semi-randomizzato controllato a gruppi paralleli e monocentrico, iniziato a gennaio 2022 e concluso ad ottobre dello stesso anno. Il gruppo sperimentale, rispetto a quello di controllo, vede aggiunta l’ecografia diaframmatica all’adattamento della macchina della tosse. L’efficacia è stata valutata analizzando la reale indicazione al trattamento, l’aderenza e il numero di riacutizzazioni. Gli outcome sono stati valutati a 3 mesi dall’adattamento. Risultati 10 pazienti hanno soddisfatto i criteri di inclusione e sono stati randomizzati nel gruppo sperimentale (n=6) e nel gruppo di controllo (n=4). Il livello di significatività statistica è stato fissato pari a 0.05. I dati ottenuti dalle analisi (test χ2 e il test di Mann-Whitney) portano alla conclusione che non sono presenti differenze statisticamente significative legate al gruppo di appartenenza dei pazienti per nessuno degli outcome prefissati: indicazione al trattamento ( χ2=1.67; P=0.197), riacutizzazioni (χ2=0.08; P=0.778), aderenza (W=3; P=1). Conclusioni L’ecografia diaframmatica si è rivelata essere uno strumento affidabile e poco invasivo, utile a perfezionare il processo valutativo fisioterapico. I dati ottenuti non hanno però dimostrato la superiorità del suo impiego nell’adattamento alla macchina della tosse rispetto al gruppo di controllo. Tuttavia, sono necessari ulteriori studi per approfondirne l’efficacia.
Resumo:
Background:i soggetti con esiti di una lesione del SNC sono caratterizzati da un quadro clinico comprensivo di segni negativi e segni positivi come la spasticità e possono andare incontro a molteplici problematiche,come le contracture,che limitano il recupero motorio del paziente favorendo l’immobilità e l’aumento della spasticità,contribuendo alla persistenza della condizione stessa.Il casting si inserisce in questo contesto come trattamento conservativo sui fattori non neurali delle contracture e della spasticità e sembra portare beneficio anche ad alcuni meccanismi neurali della spasticità.Obiettivo:l’obiettivo di questa Scoping review è una mappatura della letteratura esistente sul ruolo del casting all’interno della riabilitazione dei soggetti neurologici,fornendo una descrizione dei protocolli nei vari studi e identificando evidenze e lacune per aiutare la ricerca futura.Metodi:sono state interrogate le banche dati PEDro,PubMed,Cochrane Library ponendo come limiti la lingua inglese,italiana e l’età dei partecipanti maggiore di 19 aa.Gli articoli ottenuti sono stati selezionati con i criteri di eleggibilità e sono stati inclusi SR,RCT,case report,case series e studi osservazionali.Risultati:la Review ha incluso 10 fonti di evidenza.Gli articoli fanno riferimento a diversi tipi di interventi di casting:unito alla tossina botulinica,allo splinting, allo stretching,al motor training o da solo.Conclusioni:dall’analisi delle fonti di evidenza emerge il potenziale degli interventi di casting in un contesto multidisciplinare.Si evidenzia la necessità di condurre ulteriori studi che descrivano i particolari del trattamento riabilitativo con casting,che si concentrino su una selezione di outcome e di scale di valutazione in linea con l'ICF e che approfondiscano il contributo del casting alla riabilitazione del soggetto neurologico,per guidare i clinici e i fisioterapisti nella scelta ed erogazione di tale intervento e fornire prove di efficacia ulteriori a suo supporto.