114 resultados para Statistica


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work we aim to propose a new approach for preliminary epidemiological studies on Standardized Mortality Ratios (SMR) collected in many spatial regions. A preliminary study on SMRs aims to formulate hypotheses to be investigated via individual epidemiological studies that avoid bias carried on by aggregated analyses. Starting from collecting disease counts and calculating expected disease counts by means of reference population disease rates, in each area an SMR is derived as the MLE under the Poisson assumption on each observation. Such estimators have high standard errors in small areas, i.e. where the expected count is low either because of the low population underlying the area or the rarity of the disease under study. Disease mapping models and other techniques for screening disease rates among the map aiming to detect anomalies and possible high-risk areas have been proposed in literature according to the classic and the Bayesian paradigm. Our proposal is approaching this issue by a decision-oriented method, which focus on multiple testing control, without however leaving the preliminary study perspective that an analysis on SMR indicators is asked to. We implement the control of the FDR, a quantity largely used to address multiple comparisons problems in the eld of microarray data analysis but which is not usually employed in disease mapping. Controlling the FDR means providing an estimate of the FDR for a set of rejected null hypotheses. The small areas issue arises diculties in applying traditional methods for FDR estimation, that are usually based only on the p-values knowledge (Benjamini and Hochberg, 1995; Storey, 2003). Tests evaluated by a traditional p-value provide weak power in small areas, where the expected number of disease cases is small. Moreover tests cannot be assumed as independent when spatial correlation between SMRs is expected, neither they are identical distributed when population underlying the map is heterogeneous. The Bayesian paradigm oers a way to overcome the inappropriateness of p-values based methods. Another peculiarity of the present work is to propose a hierarchical full Bayesian model for FDR estimation in testing many null hypothesis of absence of risk.We will use concepts of Bayesian models for disease mapping, referring in particular to the Besag York and Mollié model (1991) often used in practice for its exible prior assumption on the risks distribution across regions. The borrowing of strength between prior and likelihood typical of a hierarchical Bayesian model takes the advantage of evaluating a singular test (i.e. a test in a singular area) by means of all observations in the map under study, rather than just by means of the singular observation. This allows to improve the power test in small areas and addressing more appropriately the spatial correlation issue that suggests that relative risks are closer in spatially contiguous regions. The proposed model aims to estimate the FDR by means of the MCMC estimated posterior probabilities b i's of the null hypothesis (absence of risk) for each area. An estimate of the expected FDR conditional on data (\FDR) can be calculated in any set of b i's relative to areas declared at high-risk (where thenull hypothesis is rejected) by averaging the b i's themselves. The\FDR can be used to provide an easy decision rule for selecting high-risk areas, i.e. selecting as many as possible areas such that the\FDR is non-lower than a prexed value; we call them\FDR based decision (or selection) rules. The sensitivity and specicity of such rule depend on the accuracy of the FDR estimate, the over-estimation of FDR causing a loss of power and the under-estimation of FDR producing a loss of specicity. Moreover, our model has the interesting feature of still being able to provide an estimate of relative risk values as in the Besag York and Mollié model (1991). A simulation study to evaluate the model performance in FDR estimation accuracy, sensitivity and specificity of the decision rule, and goodness of estimation of relative risks, was set up. We chose a real map from which we generated several spatial scenarios whose counts of disease vary according to the spatial correlation degree, the size areas, the number of areas where the null hypothesis is true and the risk level in the latter areas. In summarizing simulation results we will always consider the FDR estimation in sets constituted by all b i's selected lower than a threshold t. We will show graphs of the\FDR and the true FDR (known by simulation) plotted against a threshold t to assess the FDR estimation. Varying the threshold we can learn which FDR values can be accurately estimated by the practitioner willing to apply the model (by the closeness between\FDR and true FDR). By plotting the calculated sensitivity and specicity (both known by simulation) vs the\FDR we can check the sensitivity and specicity of the corresponding\FDR based decision rules. For investigating the over-smoothing level of relative risk estimates we will compare box-plots of such estimates in high-risk areas (known by simulation), obtained by both our model and the classic Besag York Mollié model. All the summary tools are worked out for all simulated scenarios (in total 54 scenarios). Results show that FDR is well estimated (in the worst case we get an overestimation, hence a conservative FDR control) in small areas, low risk levels and spatially correlated risks scenarios, that are our primary aims. In such scenarios we have good estimates of the FDR for all values less or equal than 0.10. The sensitivity of\FDR based decision rules is generally low but specicity is high. In such scenario the use of\FDR = 0:05 or\FDR = 0:10 based selection rule can be suggested. In cases where the number of true alternative hypotheses (number of true high-risk areas) is small, also FDR = 0:15 values are well estimated, and \FDR = 0:15 based decision rules gains power maintaining an high specicity. On the other hand, in non-small areas and non-small risk level scenarios the FDR is under-estimated unless for very small values of it (much lower than 0.05); this resulting in a loss of specicity of a\FDR = 0:05 based decision rule. In such scenario\FDR = 0:05 or, even worse,\FDR = 0:1 based decision rules cannot be suggested because the true FDR is actually much higher. As regards the relative risk estimation, our model achieves almost the same results of the classic Besag York Molliè model. For this reason, our model is interesting for its ability to perform both the estimation of relative risk values and the FDR control, except for non-small areas and large risk level scenarios. A case of study is nally presented to show how the method can be used in epidemiology.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The intensity of regional specialization in specific activities, and conversely, the level of industrial concentration in specific locations, has been used as a complementary evidence for the existence and significance of externalities. Additionally, economists have mainly focused the debate on disentangling the sources of specialization and concentration processes according to three vectors: natural advantages, internal, and external scale economies. The arbitrariness of partitions plays a key role in capturing these effects, while the selection of the partition would have to reflect the actual characteristics of the economy. Thus, the identification of spatial boundaries to measure specialization becomes critical, since most likely the model will be adapted to different scales of distance, and be influenced by different types of externalities or economies of agglomeration, which are based on the mechanisms of interaction with particular requirements of spatial proximity. This work is based on the analysis of the spatial aspect of economic specialization supported by the manufacturing industry case. The main objective is to propose, for discrete and continuous space: i) a measure of global specialization; ii) a local disaggregation of the global measure; and iii) a spatial clustering method for the identification of specialized agglomerations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro presentato si propone di fornire un contributo all'implementazione di indagini finalizzate a misurare l'evoluzione delle intenzioni d'acquisto del consumatore italiano nei confronti degli OGM, data anche l'impossibilità  al momento di avere indicazioni e dati sul comportamento (vista la quasi totale assenza dei prodotti OGM nella distribuzione, se si eccettuano i prodotti d'allevamento di animali alimentati con OGM per cui non è previsto nessun obbligo di etichettatura). Le coltivazioni transgeniche (Organismi Geneticamente Modificati) si stanno diffondendo abbastanza rapidamente nel contesto mondiale, dal 1996, primo anno in cui sono uscite dalla fase sperimentale, ad oggi. Nel 2008 la superficie globale delle colture biotech è stata di 125 milioni di ettari, circa il 9% in più rispetto ai 114 milioni del 2007, mentre il numero dei Paesi che hanno adottato varietà  GM è giunto a 25. Di questi sono soprattutto Usa, Canada, Argentina, Brasile, Cina e India a trainare la crescita; le colture più diffuse sono soia, mais, cotone e colza, prodotti destinati principalmente al segmento feed e al segmento no-food e solo in minima parte al segmento food (cioè all'alimentazione diretta umana). Molte più resistenze ha incontrato tale sviluppo nei Paesi dell'Unione europea. A tutt'oggi le coltivazioni GM hanno raggiunto estensioni significative solamente in Spagna, con alcune decine di migliaia di ettari di mais GM. Mais che peraltro è l'unica produzione per cui è stata autorizzata una varietà  GM alla coltivazione. Si intuisce in sostanza come in Europa si sia assunto un atteggiamento molto più prudente verso l'utilizzo su larga scala di tale innovazione scientifica, rispetto a quanto accaduto nei grandi Paesi citati in precedenza. Una prudenza dettata dal serrato dibattito, tuttora in corso, tra possibilisti e contrari, con contrapposizioni anche radicali, al limite dell'ideologia. D'altro canto, le indagini di Eurobarometro hanno messo in luce un miglioramento negli ultimi anni nella percezione dei cittadini europei verso le biotecnologie: dopo aver raggiunto un livello minimo di fiducia nel 1999, si è manifestata una lenta risalita verso i livelli di inizio anni '90, con percentuali di "fiduciosi" intorno al 55-60% sul totale della popolazione. Tuttavia, sebbene sulle biotecnologie in genere (l'Eurobarometro individua quattro filoni: alimenti contenenti OGM, terapie geniche, nanotecnologie e farmaci contenenti OGM), il giudizio sia abbastanza positivo, sugli alimenti permane un certo scetticismo legato soprattutto a considerazioni di inutilità  della tecnologia, di rischio percepito e di accettabilità morale: per citare il caso italiano, che, contrariamente a quello che si potrebbe pensare, è tra i più elevati nel contesto europeo, solamente un cittadino su tre valuta positivamente gli alimenti contenenti OGM. Se si analizza, inoltre, il sentiment del settore agricolo, nel quale il tema riveste anche un'importanza di natura economico-produttiva, in quanto incidente sui comportamenti e sulla strategie aziendali, sembra emergere un'apertura significativamente più elevata, se non una vera e propria frattura rispetto all'opinione pubblica. Infatti, circa due maiscoltori lombardi su tre (Demoskopea, 2008), cioè la tipologia di agricoltori che potrebbe beneficiare di tale innovazione, coltiverebbero mais GM se la normativa lo consentisse. Ebbene, in tale contesto diventa d'estremo interesse, sebbene di non facile praticabilità , lo studio e l'implementazione di modelli volti a monitorare le componenti che concorrono a formare l'intenzione e, in ultima analisi, il comportamento, dei consumatori verso gli OGM. Un esercizio da attuare per lo più tramite una serie di misurazioni indirette che devono fermarsi necessariamente all'intenzione nel caso italiano, mentre in altri Paesi che hanno avuto legislazioni più favorevoli all'introduzione degli OGM stessi nella produzione food può perseguire approcci d'analisi field, focalizzati non solo sull'intenzione, ma anche sul legame tra intenzione ed effettivo comportamento. Esiste una vasta letteratura che studia l'intenzione del consumatore verso l'acquisto di determinati beni. Uno degli approcci teorici che negli ultimi anni ha avuto più seguito è stato quello della Teoria del Comportamento Pianificato (Ajzen, 1991). Tale teoria prevede che l'atteggiamento (cioè l'insieme delle convinzioni, credenze, opinioni del soggetto), la norma soggettiva (cioè l'influenza dell'opinione delle persone importanti per l'individuo) e il controllo comportamentale percepito (ovvero la capacità , auto-percepita dal soggetto, di riuscire a compiere un determinato comportamento, in presenza di un'intenzione di ugual segno) siano variabili sufficienti a spiegare l'intenzione del consumatore. Tuttavia, vari ricercatori hanno e stanno cercando di verificare la correlazione di altre variabili: per esempio la norma morale, l'esperienza, l'attitudine al rischio, le caratteristiche socio-demografiche, la cosiddetta self-identity, la conoscenza razionale, la fiducia nelle fonti d'informazione e via discorrendo. In tale lavoro si è cercato, quindi, di esplorare, in un'indagine "pilota" quali-quantitativa su un campione ragionato e non probabilistico, l'influenza sull'intenzione d'acquisto di prodotti alimentari contenenti OGM delle variabili tipiche della Teoria del Comportamento Pianificato e di alcune altre variabili, che, nel caso degli OGM, appaiono particolarmente rilevanti, cioè conoscenza, fiducia nelle fonti d'informazione ed elementi socio-demografici. Tra i principali risultati da porre come indicazioni di lavoro per successive analisi su campioni rappresentativi sono emersi: - La conoscenza, soprattutto se tecnica, sembra un fattore, relativamente al campione ragionato analizzato, che conduce ad una maggiore accettazione degli OGM; le stesse statistiche descrittive mettono in luce una netta differenza in termini di intenzione d'acquisto dei prodotti contenenti OGM da parte del sub-campione più preparato sull'argomento; - L'esplorazione della fiducia nelle fonti d'informazione è sicuramente da approfondire ulteriormente. Dall'indagine effettuata risulta come l'unica fonte che influenza con le sue informazioni la decisione d'acquisto sugli OGM è la filiera agroalimentare. Dato che tali attori si caratterizzano per lo più con indicazioni contrarie all'introduzione degli OGM nei loro processi produttivi, è chiaro che se il consumatore dichiara di avere fiducia in loro, sarà  anche portato a non acquistare gli OGM; - Per quanto riguarda le variabili della Teoria del Comportamento Pianificato, l'atteggiamento mette in luce una netta preponderanza nella spiegazione dell'intenzione rispetto alla norma soggettiva e al controllo comportamentale percepito. Al contrario, queste ultime appaiono variabili deboli, forse perchè a tutt'oggi la possibilità  concreta di acquistare OGM è praticamente ridotta a zero ; - Tra le variabili socio-demografiche, l'influenza positiva del titolo di studio sulla decisione d'acquisto sembra confermare almeno in parte quanto emerso rispetto alla variabile "conoscenza"; - Infine, il fatto che il livello di reddito non influisca sull'intenzione d'acquisto appare abbastanza scontato, se si pensa, ancora una volta, come a tutt'oggi gli OGM non siano presenti sugli scaffali. Il consumatore non ha al momento nessuna idea sul loro prezzo. Decisamente interessante sarà  indagare l'incidenza di tale variabile quando il "fattore OGM" sarà  prezzato, presumibilmente al ribasso rispetto ai prodotti non OGM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tutte le scuole di pensiero economico riconoscono l’importanza dell’attività di ricerca e sviluppo per rafforzare la competitività delle imprese, e per promuovere quindi la crescita economica di lungo periodo di ogni paese. Si tratta di un tema di indiscussa rilevanza, e ben presente nel dibattito politico ed economico a livello nazionale ed internazionale. A partire dal fondamentale lavoro di Solow (1957), molti studi si sono interessati al ruolo centrale che il cambiamento tecnologico ha nella crescita economica, contribuendo ad una vasta letteratura riguardante il rapporto tra il capitale tecnologico, o gli investimenti in ricerca e sviluppo, e la crescita della produttività. In questo contesto, il presente lavoro ha come obiettivo l’analisi degli effetti degli investimenti in ricerca e sviluppo sulla produttività delle imprese manifatturiere e del settore agroalimentare italiano. L’industria agroalimentare italiana è caratterizzata da alcuni elementi specifici, che ne rendono lo studio particolarmente interessante: il suo necessario confrontarsi con le pressioni provenienti dall’emergere di nuove tendenze comportamentali del consumatore, da un lato e, dall’altro, dalla radicale trasformazione del sistema produttivo, commerciale e distributivo, che a sua volta si interfaccia con il processo di globalizzazione che interessa l’intera economia mondiale. Il settore agroalimentare riveste nel nostro Paese una notevole importanza sia in termini di fatturato, che per numero di imprese, che di occupazione, e risulta tipicamente caratterizzato dalla predominanza, dal punto di vista numerico, della classe dimensionale delle piccole imprese. È chiaro che acquisire competitività su mercati ormai globali presuppone costanti sforzi negli investimenti in ricerca ed innovazione; tuttavia, a questo proposito, le performances italiane risultano essere inferiori alla media europea. È proprio alla luce di queste considerazioni che uno studio sul ruolo che gli investimenti in ricerca e sviluppo rivestono nel sistema agroalimentare italiano, in rapporto a quanto avviene per l’intero settore manifatturiero, riveste quindi un particolare interesse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This PhD thesis aims at providing an evaluation of EU Cohesion policy impact on regional growth. It employs methodologies and data sources never before applied for this purpose. Main contributions to the literature concerning EU regional policy effectiveness have been extensively analysed. Moreover, having carried out an overview of the current literature on Cohesion Policy, we deduce that this work introduces innovative features in the field. The work enriches the current literature with regards to two aspects. The first aspect concerns the use of the instrument of Regression Discontinuity Design in order to examine the presence of a different outcome in terms of growth between Objectives 1 regions and non-Objective 1 regions at the cut-off point (75 percent of EU-15 GDP per capita in PPS) during the two programming periods, 1994-1999 and 2000-2006. The results confirm a significant difference higher than 0.5 percent per year between the two groups. The other empirical evaluation regards the study of a cross-section regression model based on the convergence theory that analyses the dependence relation between regional per capita growth and EU Cohesion policy expenditure in several fields of interventions. We have built a very fine dataset of spending variables (certified expenditure), using sources of data directly provided from the Regional Policy Directorate of the European Commission.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

PROBLEM In the last few years farm tourism or agritourism as it is also referred to has enjoyed increasing success because of its generally acknowledged role as a promoter of economic and social development of rural areas. As a consequence, a plethora of studies have been dedicated to this tourist sector, focusing on a variety of issues. Nevertheless, despite the difficulties of many farmers to orient their business towards potential customers, the contribution of the marketing literature has been moderate. PURPOSE This dissertation builds upon studies which advocate the necessity of farm tourism to innovate itself according to the increasingly demanding needs of customers. Henceforth, the purpose of this dissertation is to critically evaluate the level of professionalism reached in the farm tourism market within a marketing approach. METHODOLOGY This dissertation is a cross-country perspective incorporating the marketing of farm tourism studied in Germany and Italy. Hence, the marketing channels of this tourist sector are examined both from the supply and the demand side by means of five exploratory studies. The data collection has been conducted in the timeframe of 2006 to 2009 in manifold ways (online survey, catalogues of industry associations, face-to-face interviews, etc.) according to the purpose of the research of each study project. The data have been analyzed using multivariate statistical analysis. FINDINGS A comprehensive literature review provides the state of the art of the main differences and similarities of farm tourism in the two countries of study. The main findings contained in the empirical chapters provide insights on many aspects of agritourism including how the expectations of farm operators and customers differ, which development scenarios of farm tourism are more likely to meet individuals’ needs, how new technologies can impact the demand for farm tourism, etc. ORIGINALITY/VALUE The value of this study is in the investigation of the process by which farmers’ participation in the development of this sector intersects with consumer consumption patterns. Focusing on this process should allow farm operators and others including related businesses to more efficiently allocate resources.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The aim of the thesi is to formulate a suitable Item Response Theory (IRT) based model to measure HRQoL (as latent variable) using a mixed responses questionnaire and relaxing the hypothesis of normal distributed latent variable. The new model is a combination of two models already presented in literature, that is, a latent trait model for mixed responses and an IRT model for Skew Normal latent variable. It is developed in a Bayesian framework, a Markov chain Monte Carlo procedure is used to generate samples of the posterior distribution of the parameters of interest. The proposed model is test on a questionnaire composed by 5 discrete items and one continuous to measure HRQoL in children, the EQ-5D-Y questionnaire. A large sample of children collected in the schools was used. In comparison with a model for only discrete responses and a model for mixed responses and normal latent variable, the new model has better performances, in term of deviance information criterion (DIC), chain convergences times and precision of the estimates.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The thesis studies the economic and financial conditions of Italian households, by using microeconomic data of the Survey on Household Income and Wealth (SHIW) over the period 1998-2006. It develops along two lines of enquiry. First it studies the determinants of households holdings of assets and liabilities and estimates their correlation degree. After a review of the literature, it estimates two non-linear multivariate models on the interactions between assets and liabilities with repeated cross-sections. Second, it analyses households financial difficulties. It defines a quantitative measure of financial distress and tests, by means of non-linear dynamic probit models, whether the probability of experiencing financial difficulties is persistent over time. Chapter 1 provides a critical review of the theoretical and empirical literature on the estimation of assets and liabilities holdings, on their interactions and on households net wealth. The review stresses the fact that a large part of the literature explain households debt holdings as a function, among others, of net wealth, an assumption that runs into possible endogeneity problems. Chapter 2 defines two non-linear multivariate models to study the interactions between assets and liabilities held by Italian households. Estimation refers to a pooling of cross-sections of SHIW. The first model is a bivariate tobit that estimates factors affecting assets and liabilities and their degree of correlation with results coherent with theoretical expectations. To tackle the presence of non normality and heteroskedasticity in the error term, generating non consistent tobit estimators, semi-parametric estimates are provided that confirm the results of the tobit model. The second model is a quadrivariate probit on three different assets (safe, risky and real) and total liabilities; the results show the expected patterns of interdependence suggested by theoretical considerations. Chapter 3 reviews the methodologies for estimating non-linear dynamic panel data models, drawing attention to the problems to be dealt with to obtain consistent estimators. Specific attention is given to the initial condition problem raised by the inclusion of the lagged dependent variable in the set of explanatory variables. The advantage of using dynamic panel data models lies in the fact that they allow to simultaneously account for true state dependence, via the lagged variable, and unobserved heterogeneity via individual effects specification. Chapter 4 applies the models reviewed in Chapter 3 to analyse financial difficulties of Italian households, by using information on net wealth as provided in the panel component of the SHIW. The aim is to test whether households persistently experience financial difficulties over time. A thorough discussion is provided of the alternative approaches proposed by the literature (subjective/qualitative indicators versus quantitative indexes) to identify households in financial distress. Households in financial difficulties are identified as those holding amounts of net wealth lower than the value corresponding to the first quartile of net wealth distribution. Estimation is conducted via four different methods: the pooled probit model, the random effects probit model with exogenous initial conditions, the Heckman model and the recently developed Wooldridge model. Results obtained from all estimators accept the null hypothesis of true state dependence and show that, according with the literature, less sophisticated models, namely the pooled and exogenous models, over-estimate such persistence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi decenni il concetto di variabile latente ha riscosso un enorme successo nelle discipline statistiche come attestano i numerosi lavori scientifici presenti in letteratura. In particolare, nelle scienze sociali e in psicometria, l’uso del concetto di variabile latente è stato largamente adottato per far fronte al problema di misurare quantità che, in natura, non possono essere direttamente osservate. La vasta letteratura riguardante questa metodologia si espande, in maniera più limitata, anche al campo della ricerca economica ed econometrica. Nonostante esistano studi di modelli a struttura latente applicati a variabili di tipo economico, molto pochi sono i lavori che considerano variabili finanziarie e, finora, praticamente nessun ricercatore ha messo in connessione la teoria standard di portafoglio con la metodologia dei modelli statistici a variabili latenti. L’obiettivo del lavoro è quello di ricorrere alle potenzialità esplicative ed investigative dei metodi statistici a variabili latenti per l’analisi dei fenomeni finanziari. Si fa riferimento, in particolare, ai modelli a classe latente che consentono di sviluppare soluzioni metodologicamente corrette per importanti problemi ancora aperti in campo finanziario. In primo luogo, la natura stessa delle variabili finanziarie è riconducibile al paradigma delle variabili latenti. Infatti, variabili come il rischio ed il rendimento atteso non possono essere misurate direttamente e necessitano di approssimazioni per valutarne l’entità. Tuttavia, trascurare la natura non osservabile delle variabili finanziarie può portare a decisioni di investimento inopportune o, talvolta, addirittura disastrose. Secondariamente, vengono prese in considerazione le capacità dei modelli a classi latenti nel contesto della classificazione. Per i prodotti finanziari, infatti, una corretta classificazione sulla base del profilo (latente) di rischio e rendimento rappresenta il presupposto indispensabile per poter sviluppare efficaci strategie di investimento. Ci si propone, inoltre, di sviluppare un collegamento, finora mancante, tra uno dei principali riferimenti della finanza moderna, la teoria classica del portafoglio di Markowitz, e la metodologia statistica dei modelli a variabili latenti. In questo contesto, si vogliono investigare, in particolare, i benefici che i modelli a variabili latenti possono dare allo studio di ottimizzazione del profilo rischio - rendimento atteso di un portafoglio di attività finanziarie. Lo sviluppo di numeri indici dei prezzi delle attività finanziarie caratterizzati da una solida base metodologica rappresenta un ulteriore aspetto nel quale i modelli a classe latente possono svolgere un ruolo di fondamentale importanza. In particolare, si propone di analizzare il contesto dei numeri indici dei prezzi settoriali, che costituiscono uno dei riferimenti più importanti nelle strategie di diversificazione del rischio. Infine, il passaggio da una specificazione statica ad una analisi dinamica coglie aspetti metodologici di frontiera che possono essere investigati nell’ambito dei modelli markoviani a classi latenti. Il profilo latente di rischio – rendimento può essere, così, investigato in riferimento alle diverse fasi dei mercati finanziari, per le quali le probabilità di transizione consentono valutazioni di tipo previsivo di forte interesse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La leishmaniosi è una malattia protozoaria importante che interessa l’ambito della sanità animale e umana, in relazione al carattere zoonotico dell’infezione. In Italia l’infezione è sostenuta da Leishmania infantum, i cui ceppi viscerotropi sono responsabili della leishmaniosi canina (LCan) e della forma viscerale zoonotica (LVZ), ed i ceppi dermotropi della forma cutanea sporadica nell’uomo (LCS). La trasmissione dell’infezione è sostenuta da femmine ematofaghe di ditteri appartenenti al genere Phlebotomus, che hanno il ruolo di vettori biologici attivi. L’unico serbatoio domestico riconosciuto è il cane. In Italia la LCan è in forte espansione. Fino agli anni ottanta era presente in forma endemica nel centro-sud Italia e nelle isole mentre il nord Italia, fatta eccezione per la Liguria e una piccola parte dell’Emilia-Romagna risultava indenne. A partire dagli anni novanta, parallelamente ad un aumento della consistenza e del numero dei focolai nelle aree storicamente endemiche, sono iniziate, nelle regioni del Nord, le segnalazioni di focolai autoctoni stabili. Le attività del network scientifico LeishMap™, tra il 2002 e il 2005, hanno evidenziato un nuovo quadro epidemiologico in tutte le regioni del nord Italia, confermato anche da indagini successive. Alla riemergenza della leishmaniosi hanno concorso una serie di fattori ecologico-ambientali e umani. Tra i primi si ricorda il cambiamento climatico che ha influito sulla distribuzione e sulla densità della popolazione vettoriale; tra i secondi, ruolo fondamentale ha giocato la maggiore movimentazione di animali, provenienti da aree indenni, in zone interessate dalla malattia. La valutazione di tutti questi aspetti è stato il punto di partenza per la messa a punto di un progetto per la realizzazione della sorveglianza della leishmaniosi in Emilia-Romagna. Parte delle attività previste da tale progetto costituiscono la prima parte della presente tesi. Mediante la realizzazione di una banca dati e, la successiva georeferenziazione, dei casi di leishmaniosi canina (LCan) in cani di proprietà della regione e zone limitrofe (Pesaro-Urbino, Repubblica di San Marino), sono stati evidenziati 538 casi, la maggior parte dei quali nelle province di Bologna e Rimini (235 e 204, rispettivamente). Nelle due province sono stati individuati clusters di aggregazione importanti in base alla densità di casi registrati/km2 (4 nella provincia di Bologna e 3 in quella di Rimini). Nella seconda parte della presente tesi è stato approfondito l’aspetto diagnostico della malattia. Molte sono le metodiche applicabili alla diagnosi di LCan: da quelle dirette, come i metodi parassitologici e molecolari, a quelle indirette, come le tecniche sierologiche. Nella II parte sperimentale della presente tesi, 100 sieri di cane sono stati esaminati in Immunofluorescenza Indiretta (IFI), Enzyme-Linked Immunosorbent Assay (ELISA) e Western Blot (WB), al fine di valutare l’applicazione di queste metodiche a scopi diagnostici ed epidemiologici. L’elaborazione statistica dei risultati ottenuti conferma l’IFI metodica gold standard per la diagnosi della LCan. Inoltre, si è osservato che il grado di concordanza tra l’IFI e le altre due metodiche aumenta quando nell’animale si instaura una risposta anticorpale forte, che, corrisponderebbe ad uno stato di infezione in atto.