7 resultados para RANDOM PERMUTATION MODEL

em AMS Tesi di Dottorato - Alm@DL - Università di Bologna


Relevância:

80.00% 80.00%

Publicador:

Resumo:

La catena respiratoria mitocondriale è principalmente costituita da proteine integrali della membrana interna, che hanno la capacità di accoppiare il flusso elettronico, dovuto alle reazioni redox che esse catalizzano, al trasporto di protoni dalla matrice del mitocondrio verso lo spazio intermembrana. Qui i protoni accumulati creano un gradiente elettrochimico utile per la sintesi di ATP ad opera dell’ATP sintasi. Nonostante i notevoli sviluppi della ricerca sulla struttura e sul meccanismo d’azione dei singoli enzimi della catena, la sua organizzazione sovramolecolare, e le implicazioni funzionali che ne derivano, rimangono ancora da chiarire in maniera completa. Da questa problematica trae scopo la presente tesi volta allo studio dell’organizzazione strutturale sovramolecolare della catena respiratoria mediante indagini sia cinetiche che strutturali. Il modello di catena respiratoria più accreditato fino a qualche anno fa si basava sulla teoria delle collisioni casuali (random collision model) che considera i complessi come unità disperse nel doppio strato lipidico, ma collegate funzionalmente tra loro da componenti a basso peso molecolare (Coenzima Q10 e citocromo c). Recenti studi favoriscono invece una organizzazione almeno in parte in stato solido, in cui gli enzimi respiratori si presentano sotto forma di supercomplessi (respirosoma) con indirizzamento diretto (channeling) degli elettroni tra tutti i costituenti, senza distinzione tra fissi e mobili. L’importanza della comprensione delle relazioni che si instaurano tra i complessi , deriva dal fatto che la catena respiratoria gioca un ruolo fondamentale nell’invecchiamento, e nello sviluppo di alcune malattie cronico degenerative attraverso la genesi di specie reattive dell’ossigeno (ROS). E’ noto, infatti, che i ROS aggrediscono, anche i complessi respiratori e che questi, danneggiati, producono più ROS per cui si instaura un circolo vizioso difficile da interrompere. La nostra ipotesi è che, oltre al danno a carico dei singoli complessi, esista una correlazione tra le modificazioni della struttura del supercomplesso, stress ossidativo e deficit energetico. Infatti, la dissociazione del supercomplesso può influenzare la stabilità del Complesso I ed avere ripercussioni sul trasferimento elettronico e protonico; per cui non si può escludere che ciò porti ad un’ulteriore produzione di specie reattive dell’ossigeno. I dati sperimentali prodotti a sostegno del modello del respirosoma si riferiscono principalmente a studi strutturali di elettroforesi su gel di poliacrilammide in condizioni non denaturanti (BN-PAGE) che, però, non danno alcuna informazione sulla funzionalità dei supercomplessi. Pertanto nel nostro laboratorio, abbiamo sviluppato una indagine di tipo cinetico, basata sull’analisi del controllo di flusso metabolico,in grado di distinguere, funzionalmente, tra supercomplessi e complessi respiratori separati. Ciò è possibile in quanto, secondo la teoria del controllo di flusso, in un percorso metabolico lineare composto da una serie di enzimi distinti e connessi da intermedi mobili, ciascun enzima esercita un controllo (percentuale) differente sull’intero flusso metabolico; tale controllo è definito dal coefficiente di controllo di flusso, e la somma di tutti i coefficienti è uguale a 1. In un supercomplesso, invece, gli enzimi sono organizzati come subunità di una entità singola. In questo modo, ognuno di essi controlla in maniera esclusiva l’intero flusso metabolico e mostra un coefficiente di controllo di flusso pari a 1 per cui la somma dei coefficienti di tutti gli elementi del supercomplesso sarà maggiore di 1. In questa tesi sono riportati i risultati dell’analisi cinetica condotta su mitocondri di fegato di ratto (RLM) sia disaccoppiati, che accoppiati in condizioni fosforilanti (stato 3) e non fosforilanti (stato 4). L’analisi ha evidenziato l’associazione preferenziale del Complesso I e Complesso III sia in mitocondri disaccoppiati che accoppiati in stato 3 di respirazione. Quest’ultimo risultato permette per la prima volta di affermare che il supercomplesso I+III è presente anche in mitocondri integri capaci della fosforilazione ossidativa e che il trasferimento elettronico tra i due complessi possa effettivamente realizzarsi anche in condizioni fisiologiche, attraverso un fenomeno di channeling del Coenzima Q10. Sugli stessi campioni è stata eseguita anche un analisi strutturale mediante gel-elettroforesi (2D BN/SDS-PAGE) ed immunoblotting che, oltre a supportare i dati cinetici sullo stato di aggregazione dei complessi respiratori, ci ha permesso di evidenziare il ruolo del citocromo c nel supercomplesso, in particolare per il Complesso IV e di avviare uno studio comparativo esteso ai mitocondri di cuore bovino (BHM), di tubero di patata (POM) e di S. cerevisiae.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The papers included in this thesis deal with a few aspects of insurance economics that have seldom been dealt with in the applied literature. In the first paper I apply for the first time the tools of the economics of crime to study the determinants of frauds, using data on Italian provinces. The contributions to the literature are manifold: -The price of insuring has a positive correlation with the propensity to defraud -Social norms constraint fraudulent behavior, but their strength is curtailed in economic downturns -I apply a simple extension of the Random Coefficient model, which allows for the presence of time invariant covariates and asymmetries in the impact of the regressors. The second paper assesses how the evolution of macro prudential regulation of insurance companies has been reflected in their equity price. I employ a standard event study methodology, deriving the definition of the “control” and “treatment” groups from what is implied by the regulatory framework. The main results are: -Markets care about the evolution of the legislation. Their perception has shifted from a first positive assessment of a possible implicit “too big to fail” subsidy to a more negative one related to its cost in terms of stricter capital requirement -The size of this phenomenon is positively related to leverage, size and on the geographical location of the insurance companies The third paper introduces a novel methodology to forecast non-life insurance premiums and profitability as function of macroeconomic variables, using the simultaneous equation framework traditionally employed macroeconometric models and a simple theoretical model of insurance pricing to derive a long term relationship between premiums, claims expenses and short term rates. The model is shown to provide a better forecast of premiums and profitability compared with the single equation specifications commonly used in applied analysis.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Earthquake prediction is a complex task for scientists due to the rare occurrence of high-intensity earthquakes and their inaccessible depths. Despite this challenge, it is a priority to protect infrastructure, and populations living in areas of high seismic risk. Reliable forecasting requires comprehensive knowledge of seismic phenomena. In this thesis, the development, application, and comparison of both deterministic and probabilistic forecasting methods is shown. Regarding the deterministic approach, the implementation of an alarm-based method using the occurrence of strong (fore)shocks, widely felt by the population, as a precursor signal is described. This model is then applied for retrospective prediction of Italian earthquakes of magnitude M≥5.0,5.5,6.0, occurred in Italy from 1960 to 2020. Retrospective performance testing is carried out using tests and statistics specific to deterministic alarm-based models. Regarding probabilistic models, this thesis focuses mainly on the EEPAS and ETAS models. Although the EEPAS model has been previously applied and tested in some regions of the world, it has never been used for forecasting Italian earthquakes. In the thesis, the EEPAS model is used to retrospectively forecast Italian shallow earthquakes with a magnitude of M≥5.0 using new MATLAB software. The forecasting performance of the probabilistic models was compared to other models using CSEP binary tests. The EEPAS and ETAS models showed different characteristics for forecasting Italian earthquakes, with EEPAS performing better in the long-term and ETAS performing better in the short-term. The FORE model based on strong precursor quakes is compared to EEPAS and ETAS using an alarm-based deterministic approach. All models perform better than a random forecasting model, with ETAS and FORE models showing better performance. However, to fully evaluate forecasting performance, prospective tests should be conducted. The lack of objective tests for evaluating deterministic models and comparing them with probabilistic ones was a challenge faced during the study.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In the present work we perform an econometric analysis of the Tribal art market. To this aim, we use a unique and original database that includes information on Tribal art market auctions worldwide from 1998 to 2011. In Literature, art prices are modelled through the hedonic regression model, a classic fixed-effect model. The main drawback of the hedonic approach is the large number of parameters, since, in general, art data include many categorical variables. In this work, we propose a multilevel model for the analysis of Tribal art prices that takes into account the influence of time on artwork prices. In fact, it is natural to assume that time exerts an influence over the price dynamics in various ways. Nevertheless, since the set of objects change at every auction date, we do not have repeated measurements of the same items over time. Hence, the dataset does not constitute a proper panel; rather, it has a two-level structure in that items, level-1 units, are grouped in time points, level-2 units. The main theoretical contribution is the extension of classical multilevel models to cope with the case described above. In particular, we introduce a model with time dependent random effects at the second level. We propose a novel specification of the model, derive the maximum likelihood estimators and implement them through the E-M algorithm. We test the finite sample properties of the estimators and the validity of the own-written R-code by means of a simulation study. Finally, we show that the new model improves considerably the fit of the Tribal art data with respect to both the hedonic regression model and the classic multilevel model.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le tecniche di Machine Learning sono molto utili in quanto consento di massimizzare l’utilizzo delle informazioni in tempo reale. Il metodo Random Forests può essere annoverato tra le tecniche di Machine Learning più recenti e performanti. Sfruttando le caratteristiche e le potenzialità di questo metodo, la presente tesi di dottorato affronta due casi di studio differenti; grazie ai quali è stato possibile elaborare due differenti modelli previsionali. Il primo caso di studio si è incentrato sui principali fiumi della regione Emilia-Romagna, caratterizzati da tempi di risposta molto brevi. La scelta di questi fiumi non è stata casuale: negli ultimi anni, infatti, in detti bacini si sono verificati diversi eventi di piena, in gran parte di tipo “flash flood”. Il secondo caso di studio riguarda le sezioni principali del fiume Po, dove il tempo di propagazione dell’onda di piena è maggiore rispetto ai corsi d’acqua del primo caso di studio analizzato. Partendo da una grande quantità di dati, il primo passo è stato selezionare e definire i dati in ingresso in funzione degli obiettivi da raggiungere, per entrambi i casi studio. Per l’elaborazione del modello relativo ai fiumi dell’Emilia-Romagna, sono stati presi in considerazione esclusivamente i dati osservati; a differenza del bacino del fiume Po in cui ai dati osservati sono stati affiancati anche i dati di previsione provenienti dalla catena modellistica Mike11 NAM/HD. Sfruttando una delle principali caratteristiche del metodo Random Forests, è stata stimata una probabilità di accadimento: questo aspetto è fondamentale sia nella fase tecnica che in fase decisionale per qualsiasi attività di intervento di protezione civile. L'elaborazione dei dati e i dati sviluppati sono stati effettuati in ambiente R. Al termine della fase di validazione, gli incoraggianti risultati ottenuti hanno permesso di inserire il modello sviluppato nel primo caso studio all’interno dell’architettura operativa di FEWS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The study of random probability measures is a lively research topic that has attracted interest from different fields in recent years. In this thesis, we consider random probability measures in the context of Bayesian nonparametrics, where the law of a random probability measure is used as prior distribution, and in the context of distributional data analysis, where the goal is to perform inference given avsample from the law of a random probability measure. The contributions contained in this thesis can be subdivided according to three different topics: (i) the use of almost surely discrete repulsive random measures (i.e., whose support points are well separated) for Bayesian model-based clustering, (ii) the proposal of new laws for collections of random probability measures for Bayesian density estimation of partially exchangeable data subdivided into different groups, and (iii) the study of principal component analysis and regression models for probability distributions seen as elements of the 2-Wasserstein space. Specifically, for point (i) above we propose an efficient Markov chain Monte Carlo algorithm for posterior inference, which sidesteps the need of split-merge reversible jump moves typically associated with poor performance, we propose a model for clustering high-dimensional data by introducing a novel class of anisotropic determinantal point processes, and study the distributional properties of the repulsive measures, shedding light on important theoretical results which enable more principled prior elicitation and more efficient posterior simulation algorithms. For point (ii) above, we consider several models suitable for clustering homogeneous populations, inducing spatial dependence across groups of data, extracting the characteristic traits common to all the data-groups, and propose a novel vector autoregressive model to study of growth curves of Singaporean kids. Finally, for point (iii), we propose a novel class of projected statistical methods for distributional data analysis for measures on the real line and on the unit-circle.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Background There is a wide variation of recurrence risk of Non-small-cell lung cancer (NSCLC) within the same Tumor Node Metastasis (TNM) stage, suggesting that other parameters are involved in determining this probability. Radiomics allows extraction of quantitative information from images that can be used for clinical purposes. The primary objective of this study is to develop a radiomic prognostic model that predicts a 3 year disease free-survival (DFS) of resected Early Stage (ES) NSCLC patients. Material and Methods 56 pre-surgery non contrast Computed Tomography (CT) scans were retrieved from the PACS of our institution and anonymized. Then they were automatically segmented with an open access deep learning pipeline and reviewed by an experienced radiologist to obtain 3D masks of the NSCLC. Images and masks underwent to resampling normalization and discretization. From the masks hundreds Radiomic Features (RF) were extracted using Py-Radiomics. Hence, RF were reduced to select the most representative features. The remaining RF were used in combination with Clinical parameters to build a DFS prediction model using Leave-one-out cross-validation (LOOCV) with Random Forest. Results and Conclusion A poor agreement between the radiologist and the automatic segmentation algorithm (DICE score of 0.37) was found. Therefore, another experienced radiologist manually segmented the lesions and only stable and reproducible RF were kept. 50 RF demonstrated a high correlation with the DFS but only one was confirmed when clinicopathological covariates were added: Busyness a Neighbouring Gray Tone Difference Matrix (HR 9.610). 16 clinical variables (which comprised TNM) were used to build the LOOCV model demonstrating a higher Area Under the Curve (AUC) when RF were included in the analysis (0.67 vs 0.60) but the difference was not statistically significant (p=0,5147).