10 resultados para Predictability
em AMS Tesi di Dottorato - Alm@DL - Università di Bologna
Resumo:
The subject of this work concerns the study of the immigration phenomenon, with emphasis on the aspects related to the integration of an immigrant population in a hosting one. Aim of this work is to show the forecasting ability of a recent finding where the behavior of integration quantifiers was analyzed and investigated with a mathematical model of statistical physics origins (a generalization of the monomer dimer model). After providing a detailed literature review of the model, we show that not only such a model is able to identify the social mechanism that drives a particular integration process, but it also provides correct forecast. The research reported here proves that the proposed model of integration and its forecast framework are simple and effective tools to reduce uncertainties about how integration phenomena emerge and how they are likely to develop in response to increased migration levels in the future.
Resumo:
Earthquake prediction is a complex task for scientists due to the rare occurrence of high-intensity earthquakes and their inaccessible depths. Despite this challenge, it is a priority to protect infrastructure, and populations living in areas of high seismic risk. Reliable forecasting requires comprehensive knowledge of seismic phenomena. In this thesis, the development, application, and comparison of both deterministic and probabilistic forecasting methods is shown. Regarding the deterministic approach, the implementation of an alarm-based method using the occurrence of strong (fore)shocks, widely felt by the population, as a precursor signal is described. This model is then applied for retrospective prediction of Italian earthquakes of magnitude M≥5.0,5.5,6.0, occurred in Italy from 1960 to 2020. Retrospective performance testing is carried out using tests and statistics specific to deterministic alarm-based models. Regarding probabilistic models, this thesis focuses mainly on the EEPAS and ETAS models. Although the EEPAS model has been previously applied and tested in some regions of the world, it has never been used for forecasting Italian earthquakes. In the thesis, the EEPAS model is used to retrospectively forecast Italian shallow earthquakes with a magnitude of M≥5.0 using new MATLAB software. The forecasting performance of the probabilistic models was compared to other models using CSEP binary tests. The EEPAS and ETAS models showed different characteristics for forecasting Italian earthquakes, with EEPAS performing better in the long-term and ETAS performing better in the short-term. The FORE model based on strong precursor quakes is compared to EEPAS and ETAS using an alarm-based deterministic approach. All models perform better than a random forecasting model, with ETAS and FORE models showing better performance. However, to fully evaluate forecasting performance, prospective tests should be conducted. The lack of objective tests for evaluating deterministic models and comparing them with probabilistic ones was a challenge faced during the study.
Resumo:
The common thread of this thesis is the will of investigating properties and behavior of assemblies. Groups of objects display peculiar properties, which can be very far from the simple sum of respective components’ properties. This is truer, the smaller is inter-objects distance, i.e. the higher is their density, and the smaller is the container size. “Confinement” is in fact a key concept in many topics explored and here reported. It can be conceived as a spatial limitation, that yet gives origin to unexpected processes and phenomena based on inter-objects communication. Such phenomena eventually result in “non-linear properties”, responsible for the low predictability of large assemblies. Chapter 1 provides two insights on surface chemistry, namely (i) on a supramolecular assembly based on orthogonal forces, and (ii) on selective and sensitive fluorescent sensing in thin polymeric film. In chapters 2 to 4 confinement of molecules plays a major role. Most of the work focuses on FRET within core-shell nanoparticles, investigated both through a simulation model and through experiments. Exciting results of great applicative interest are drawn, such as a method of tuning emission wavelength at constant excitation, and a way of overcoming self-quenching processes by setting up a competitive deactivation channel. We envisage applications of these materials as labels for multiplexing analysis, and in all fields of fluorescence imaging, where brightness coupled with biocompatibility and water solubility is required. Adducts of nanoparticles and molecular photoswitches are investigated in the context of superresolution techniques for fluorescence microscopy. In chapter 5 a method is proposed to prepare a library of functionalized Pluronic F127, which gives access to a twofold “smart” nanomaterial, namely both (i)luminescent and (ii)surface-functionalized SCSSNPs. Focus shifts in chapter 6 to confinement effects in an upper size scale. Moving from nanometers to micrometers, we investigate the interplay between microparticles flowing in microchannels where a constriction affects at very long ranges structure and dynamics of the colloidal paste.
Resumo:
L’elaborato ha lo scopo di presentare le nuove opportunità di business offerte dal Web. Il rivoluzionario cambiamento che la pervasività della Rete e tutte le attività correlate stanno portando, ha posto le aziende davanti ad un diverso modo di relazionarsi con i propri consumatori, che sono sempre più informati, consapevoli ed esigenti, e con la concorrenza. La sfida da accettare per rimanere competitivi sul mercato è significativa e il mutamento in rapido sviluppo: gli aspetti che contraddistinguono questo nuovo paradigma digitale sono, infatti, velocità, mutevolezza, ma al tempo stesso misurabilità, ponderabilità, previsione. Grazie agli strumenti tecnologici a disposizione e alle dinamiche proprie dei diversi spazi web (siti, social network, blog, forum) è possibile tracciare più facilmente, rispetto al passato, l’impatto di iniziative, lanci di prodotto, promozioni e pubblicità, misurandone il ritorno sull’investimento, oltre che la percezione dell’utente finale. Un approccio datacentrico al marketing, attraverso analisi di monitoraggio della rete, permette quindi al brand investimenti più mirati e ponderati sulla base di stime e previsioni. Tra le più significative strategie di marketing digitale sono citate: social advertising, keyword advertising, digital PR, social media, email marketing e molte altre. Sono riportate anche due case history: una come ottimo esempio di co-creation in cui il brand ha coinvolto direttamente il pubblico nel processo di produzione del prodotto, affidando ai fan della Pagina Facebook ufficiale la scelta dei gusti degli yogurt da mettere in vendita. La seconda, caso internazionale di lead generation, ha permesso al brand di misurare la conversione dei visitatori del sito (previa compilazione di popin) in reali acquirenti, collegando i dati di traffico del sito a quelli delle vendite. Esempio di come online e offline comunichino strettamente.
Resumo:
This thesis is the result of a project aimed at the study of a crucial topic in finance: default risk, whose measurement and modelling have achieved increasing relevance in recent years. We investigate the main issues related to the default phenomenon, under both a methodological and empirical perspective. The topics of default predictability and correlation are treated with a constant attention to the modelling solutions and reviewing critically the literature. From the methodological point of view, our analysis results in the proposal of a new class of models, called Poisson Autoregression with Exogenous Covariates (PARX). The PARX models, including both autoregressive end exogenous components, are able to capture the dynamics of default count time series, characterized by persistence of shocks and slowly decaying autocorrelation. Application of different PARX models to the monthly default counts of US industrial firms in the period 1982-2011 allows an empirical insight of the defaults dynamics and supports the identification of the main default predictors at an aggregate level.
Resumo:
This thesis is divided in three chapters. In the first chapter we analyse the results of the world forecasting experiment run by the Collaboratory for the Study of Earthquake Predictability (CSEP). We take the opportunity of this experiment to contribute to the definition of a more robust and reliable statistical procedure to evaluate earthquake forecasting models. We first present the models and the target earthquakes to be forecast. Then we explain the consistency and comparison tests that are used in CSEP experiments to evaluate the performance of the models. Introducing a methodology to create ensemble forecasting models, we show that models, when properly combined, are almost always better performing that any single model. In the second chapter we discuss in depth one of the basic features of PSHA: the declustering of the seismicity rates. We first introduce the Cornell-McGuire method for PSHA and we present the different motivations that stand behind the need of declustering seismic catalogs. Using a theorem of the modern probability (Le Cam's theorem) we show that the declustering is not necessary to obtain a Poissonian behaviour of the exceedances that is usually considered fundamental to transform exceedance rates in exceedance probabilities in the PSHA framework. We present a method to correct PSHA for declustering, building a more realistic PSHA. In the last chapter we explore the methods that are commonly used to take into account the epistemic uncertainty in PSHA. The most widely used method is the logic tree that stands at the basis of the most advanced seismic hazard maps. We illustrate the probabilistic structure of the logic tree, and then we show that this structure is not adequate to describe the epistemic uncertainty. We then propose a new probabilistic framework based on the ensemble modelling that properly accounts for epistemic uncertainties in PSHA.
Resumo:
La tesi di ricerca si propone di indagare il riflesso che i principi/valori producono sul parametro nel sindacato di legittimità costituzionale, al fine di verificarne le implicazioni sulla legalità, in termini di prevedibilità e certezza. In particolare, delineata la connessione tra principi e valori costituzionali e, ricostruito, secondo la teoria dell'ordinamento, il rapporto tra valori e normatività,si analizzano i riflessi prodotti, sul piano interpretativo, dall’apertura del parametro costituzionale alla logica dei valori, enfatizzandone le ricadute sul controllo di costituzionalità delle leggi. Identificato il nesso tra principi e valori nella capacità funzionale dei primi di realizzare i diritti fondamentali, si è inteso rimarcare come la più estesa realizzazione dei principi-valori costituzionali potrebbe compiersi a spese della legge e della certezza del diritto, in una relazione inversamente proporzionale. Ciò apparirebbe evidente dall’ottica privilegiata della materia penale, per cui una legalità materiale, letta alla luce di criteri di adeguatezza e di ragionevole proporzione, seppur vicina alle esigenze di giustizia del caso concreto, se spinta in eccessi interpretativi rischia di invadere il campo del legislatore, unico deputato a compiere scelte di valore.
Resumo:
Nell’epoca di profonda transizione dell’era «pos-moderna», il modello tradizionale di legalità che conferisce al Parlamento il monopolio in materia penale entra in crisi in ragione della frammentazione delle fonti del diritto - a livello nazionale e sovranazionale - nonché delle spinte di globalizzazione capaci di incidere, ormai, ben oltre il mero piano economico. A fronte della incapacità del legislatore di rispondere in termini effettivi alla urgenza di razionalizzare e riformare il sistema penale, quindi, il potere giudiziario ha assunto una funzione di sostanziale supplenza, generando inevitabili attriti con il nullum crimen e i suoi corollari. Ne deriva che il Giudice di legittimità sempre più si preoccupa di assicurare la prevedibilità dei mutamenti interpretativi, specie se in malam partem, tenendo a mente gli ultimi approdi della giurisprudenza di Strasburgo in riferimento all’art. 7 CEDU. In particolare, tanto nelle motivazioni delle decisioni quanto nei contributi dottrinali, si diffonde graduale il riferimento a istituti propri del modello di common law: la recente riforma dell’art. 618, co 1 bis, c.p.p., del resto, è stata descritta a più voci come l’avvio della diffusione nell’ordinamento interno della c.d. “cultura del precedente”. In tale frangente, diviene utile approfondire l’opportunità dell’accostamento tra il modello di common law e di civil law, conducendo uno studio comparato tra i due ordinamenti quanto all’esercizio del potere punitivo che intende esaminare l’opportunità di acquisire rimedi propri della esperienza secolare del diritto judge-made in un ordinamento governato dalla soggezione del giudice alla legge.
Resumo:
La dimensione giuridica del tempo, cioè il ruolo del tempo nel diritto, ha contribuito a far emergere il lavoro quale concetto legale astratto dal prestatore, funzionale alla sua alienazione. Rompere l’unitarietà del tempo della persona, per consacrarne una parte al lavoro, ha dato ai rapporti di potere tra gli individui una forma giuridica in grado di legittimarli. Il primo capitolo si sofferma sulla costruzione legale del lavoro subordinato attraverso la definizione del suo tempo. Tra gli elementi essenziali del contratto tipizzato dall’art. 2094 c.c., il tempo nella causa, oltre a mostrare la non istantaneità dello scambio e la indeterminatezza del regolamento contrattuale, non assurge a criterio discretivo dalle collaborazioni o dal lavoro autonomo. Se dalla causa si passa ad indagare l’oggetto, l’interprete si imbatte nel pudore di svelare quale sia il vero elemento su cui incide il contratto, la persona del lavoratore, che induce a prediligere la finzione di allontanare l’attività dal corpo di chi la produce: l’orario è la tecnica giuridica che rende possibile la partecipazione del lavoro ad una logica di scambio. Il secondo e il terzo capitolo si concentrano sulla regolazione e interpretazione del tempo di lavoro in chiave diacronica. La legislazione lavoristica ha trovato i propri albori nella disciplina eteronoma dell’orario, come strumento per tutelare i prestatori dagli eccessi mercantilistici. L’attuale quadro normativo è molto attento alle ragioni creditorie ma la giurisprudenza della Corte di giustizia testimonia l’irrequietudine di una materia viva e in movimento. Non è un caso che il legislatore europeo, nei piccoli passi compiuti per rafforzare il diritto sociale comune agli Stati membri, abbia assegnato al tempo un ruolo centrale, come prevedibilità delle condizioni di lavoro (direttiva n. 1152 del 2019), come equilibrio tra attività professionale e vita familiare (direttiva n. 1158 del 2019) e un domani, forse, come diritto alla disconnessione.
Resumo:
Energy transition is the response of humankind to the concerning effects of fossil fuels depletion, climate change and energy insecurity, and calls for a deep penetration of renewable energy sources (RESs) in power systems and industrial processes. Despite the high potentials, low impacts and long-term availability, RESs present some limits which need to be overcome, such as the strong variability and difficult predictability, which result in scarce reliability and difficult applicability in steady-state processes. Some technological solutions relate to energy storage systems, equipment electrification and hybrid systems deployment, thus accomplishing distributed generation even in remote sites as offshore. However, all of these actions cannot disregard sustainability, which represents a founding principle for any project, bringing together economics, reliability and environmental protection. To entail sustainability in RESs-based innovative projects, previous knowledge and tools are often not tailored or miss the novel objectives. This research proposes three methodological approaches, bridging the gaps. The first contribute adapts literature-based indicators of inherent safety and energy efficiency to capture the specificities of novel process plants and hybrid systems. Minor case studies dealing with novel P2X processes exemplify the application of these novel indicators. The second method guides the conceptual design of hybrid systems for the valorisation of a RES in a site, by considering the sustainability performances of alternative design options. Its application is demonstrated through the comparison of two offshore sites where wave energy can be valorised. Finally, “OHRES”, a comprehensive tool for the sustainable optimisation of hybrid renewable energy systems is proposed. “OHRES” hinges on the exploitation of multiple RESs, by converting ex-post sustainability indicators into discrimination markers screening a large number of possible system configurations, according to the location features. Five case studies demonstrate “OHRES” versatility in the sustainable valorisation of multiple RESs.