963 resultados para Cochran regressione lineare stima inferenza statistica
Resumo:
L’elaborato finale presentato per la tesi di Dottorato analizza e riconduce a unitarietà, per quanto possibile, alcune delle attività di ricerca da me svolte durante questi tre anni, il cui filo conduttore è l'impatto ambientale delle attività umane e la promozione dello sviluppo sostenibile. Il mio filone di ricerca è stato improntato, dal punto di vista di politica economica, sull'analisi storica dello sviluppo del settore agricolo dall'Unità d'Italia ai giorni nostri e dei cambiamenti avvenuti in contemporanea nel contesto socio-economico e territoriale nazionale, facendo particolare riferimento alle tematiche legate ai consumi e alla dipendenza energetica ed all'impatto ambientale. Parte della mia ricerca è stata, infatti, incentrata sull'analisi dello sviluppo della Green Economy, in particolare per quanto riguarda il settore agroalimentare e la produzione di fonti di energia rinnovabile. Enfasi viene posta sia sulle politiche implementate a livello comunitario e nazionale, sia sul cambiamento dei consumi, in particolare per quanto riguarda gli acquisti di prodotti biologici. La Green Economy è vista come fattore di sviluppo e opportunità per uscire dall'attuale contesto di crisi economico-finanziaria. Crisi, che è strutturale e di carattere duraturo, affiancata da una crescente problematica ambientale dovuta all'attuale modello produttivo, fortemente dipendente dai combustibili fossili. Difatti la necessità di cambiare paradigma produttivo promuovendo la sostenibilità è visto anche in ottica di mitigazione del cambiamento climatico e dei suoi impatti socio-economici particolare dal punto di vista dei disastri ambientali. Questo punto è analizzato anche in termini di sicurezza internazionale e di emergenza umanitaria, con riferimento al possibile utilizzo da parte delle organizzazioni di intervento nei contesti di emergenza di tecnologie alimentate da energia rinnovabile. Dando così una risposta Green ad una problematica esacerbata dall'impatto dello sviluppo delle attività umane.
Resumo:
Lo scopo della tesi è quello di studiare una delle applicazioni della teoria dei campi finiti: il segnale GPS. A questo scopo si descrivono i registri a scorrimento a retroazione lineare (linear feedback shift register, LFSR), dispositivi utili in applicazioni che richiedono la generazione molto rapida di numeri pseudo-casuali. I ricevitori GPS sfruttano il determinismo di questi dispositivi per identificare il satellite da cui proviene il segnale e per sincronizzarsi con esso. Si inizia con una breve introduzione al funzionamento del GPS, poi si studiano i campi finiti: sottocampi, estensioni di campo, gruppo moltiplicativo e costruzione attraverso la riduzione modulo un polinomio irriducibile, fattorizzazione di polinomi, formula per il numero e metodi per la determinazione di polinomi irriducibili, radici di polinomi irriducibili, coniugati, teoria di Galois (automorfismo ed orbite di Frobenius, gruppo e corrispondenza di Galois), traccia, polinomio caratteristico, formula per il numero e metodi per la determinazione di polinomi primitivi. Successivamente si introducono e si esaminano sequenze ricorrenti lineari, loro periodicità, la sequenza risposta impulsiva, il polinomio caratteristico associato ad una sequenza e la sequenza di periodo massimo. Infine, si studiano i registri a scorrimento che generano uno dei segnali GPS. In particolare si esamina la correlazione tra due sequenze. Si mostra che ogni polinomio di grado n-1 a coefficienti nel campo di Galois di ordine 2 può essere rappresentato univocamente in n bit; la somma tra polinomi può essere eseguita come XOR bit-a-bit; la moltiplicazione per piccoli coefficienti richiede al massimo uno shift ed uno XOR. Si conclude con la dimostrazione di un importante risultato: è possibile inizializzare un registro in modo tale da fargli generare una sequenza di periodo massimo poco correlata con ogni traslazione di se stessa.
Resumo:
Nei decenni passati sono stati svolti numerosi studi su sistemi di generazione di potenza elettrica da applicare al settore spaziale, in particolar modo a satelliti e sonde. Ne sono un esempio le analisi riportate dalla Nasa oppure quelle condotte in paesi come il Giappone dall’agenzia spaziale JAXA. Uno dei sistemi spesso utilizzati per generare potenza elettrica si basa sull’applicazione di motori Stirling accoppiati ad un generatore lineare; la differenza di temperatura necessaria per il funzionamento del motore è ottenuta tramite il calore fornito dai radioisotopi di plutonio 238, mentre il raffreddamento del motore avviene mediante scambio termico con l’ambiente esterno.
Resumo:
La mancanza di procedure standard per la verifica delle strutture in compositi, al contrario dei materiali metallici, porta all’esigenza di una continua ricerca nel settore, al fine di ottenere risultati significativi che culminino in una standardizzazione delle procedure. In tale contesto si colloca la ricerca svolta per la stesura del presente elaborato, condotta presso il laboratorio DASML del TU Delft, nei Paesi Bassi. Il materiale studiato è un prepreg (preimpregnated) costituito da fibre di carbonio (M30SC) e matrice epossidica (DT120) con la particolare configurazione [0°/90°/±45°/±45°/90°/0°]. L’adesivo utilizzato per l’incollaggio è di tipo epossidico (FM94K). Il materiale è stato assemblato in laboratorio in modo da ottenere i provini da testare, di tipo DCB, ENF e CCP. Due differenti qualità dello stesso materiale sono state ottenute, una buona ottenuta seguendo le istruzione del produttore, ed una povera ottenuta modificando il processo produttivo suggerito, che risulta in un incollaggio di qualità nettamente inferiore rispetto al primo tipo di materiale. Lo scopo era quello di studiare i comportamenti di entrambe le qualità sotto due diversi modi di carico, modo I o opening mode e modo II o shear mode, entrambi attraverso test quasi-statici e a fatica, così da ottenere risultati comparabili tra di essi che permettano in futuro di identificare se si dispone di un materiale di buona qualità prima di procedere con il progetto dell’intera struttura. L’approccio scelto per lo studio dello sviluppo della delaminazione è un adattamento della teoria della Meccanica della Frattura Lineare Elastica (LEFM)
Resumo:
Uno dei principali passi della catena di produzione di circuiti integrati è quello di testare e valutare una serie di chip campione per verificare che essi rientrino nei valori e nelle specifiche scelte. Si tratta di un passaggio molto importante che determina le caratteristiche del prodotto nella realtà, mostrando le proprie capacità o i propri limiti, permettendo così di valutare un’eventuale produzione su larga scala. Ci permette inoltre di stimare quali dei chip rispetto agli altri presi in esame è migliore in alcuni aspetti, oppure quale risulta più lontano dalle specifiche volute. Il lavoro alle spalle di questa tesi è proprio questo: si è cercato di caratterizzare un microchip chiamato Carbonio, nato nei laboratori della II Facoltà di Ingegneria di Cesena, creando un banco di misura automatico, tramite l’ausilio del software Labview e di una scheda hardware realizzata ad hoc, che desse la possibilità di eseguire alcuni test consecutivi su ogni singolo circuito integrato in modo da caratterizzarlo estrapolando tutte le informazioni cercate e verificandone il funzionamento. Tutti i valori estratti sono stati poi sottoposti a una breve analisi statistica per stabilire per esempio quale circuito integrato fosse meno immune ai disturbi dovuti al rumore elettrico oppure per eseguire un’indagine al fine di vedere come i valori dei parametri scelti si disponessero rispetto ai lori rispettivi valori medi.
Resumo:
Obiettivo: dimostrare l'equivalenza tra la sensibilità del Verde Indocianina e quella del Tecnezio radioattivo nella detezione del linfonodo sentinella(LS), nei pazienti affetti da carcinoma mammario allo stadio iniziale. Metodi: linfoscintigrafia con Tc99m-marcato, attraverso Gammacamera e con Verde Indocianina, attraverso Photo Dinamic Eye, per la detezione del LS. Utilizzo della sonda Gamma Probe per la discriminazione dei linfonodi radioattivi da quelli non radioattivi. Analisi statistica dei dati. Risultati: sono stati studiati 200 pazienti per un totale di 387 linfonodi asportati; la sensibilità del ICG risulta essere del 98,09%. Studi statistici hanno confermato la non significatività dei parametri di BMI, taglia mammaria, dose iniettata, tempo iniezione-incisione per il rintracciamento del numero corretto di linfonodi (al massimo 2). Conclusioni: l'elevata sensibilità del ICG permette di affermare l'equivalenza tra la capacità di detezione dei LS con le due sostanze(Tc e ICG). A livello operativo la tecnica con ICG facilita l'asportazione del LS. Data la non significatività della dose di ICG iniettata per la detezione del numero corretto di linfonodi, clinicamente conviene iniettare sempre la dose minima di farmaco.
Resumo:
L’analisi presentata è stata ottenuta a partire dai dati acquisiti durante uno studio clinico presso il reparto di emodialisi dell'ospedale Ceccarini di Riccione. L’obiettivo principale dello studio clinico è quello di misurare la correlazione tra la concentrazione di sodio nel plasma del paziente misurata tramite emogas analizzatore e la conducibilità plasmatica stimata dal biosensore Diascan in vari istanti temporali intradialitici e valutare la bontà della stima della sodiemia, ottenuta dalle formule di correlazione, rispetto alle effettive misure di concentrazione. La correlazione globale ottenuta risulta discreta ma inferiore rispetto a precedenti risultati pubblicati in letteratura; si ipotizza che questo scostamento possa dipendere dalla struttura del protocollo di sperimentazione.
Resumo:
This doctoral thesis is devoted to the study of the causal effects of the maternal smoking on the delivery cost. The interest of economic consequences of smoking in pregnancy have been studied fairly extensively in the USA, and very little is known in European context. To identify the causal relation between different maternal smoking status and the delivery cost in the Emilia-Romagna region two distinct methods were used. The first - geometric multidimensional - is mainly based on the multivariate approach and involves computing and testing the global imbalance, classifying cases in order to generate well-matched comparison groups, and then computing treatment effects. The second - structural modelling - refers to a general methodological account of model-building and model-testing. The main idea of this approach is to decompose the global mechanism into sub-mechanisms though a recursive decomposition of a multivariate distribution.
Resumo:
Environmental computer models are deterministic models devoted to predict several environmental phenomena such as air pollution or meteorological events. Numerical model output is given in terms of averages over grid cells, usually at high spatial and temporal resolution. However, these outputs are often biased with unknown calibration and not equipped with any information about the associated uncertainty. Conversely, data collected at monitoring stations is more accurate since they essentially provide the true levels. Due the leading role played by numerical models, it now important to compare model output with observations. Statistical methods developed to combine numerical model output and station data are usually referred to as data fusion. In this work, we first combine ozone monitoring data with ozone predictions from the Eta-CMAQ air quality model in order to forecast real-time current 8-hour average ozone level defined as the average of the previous four hours, current hour, and predictions for the next three hours. We propose a Bayesian downscaler model based on first differences with a flexible coefficient structure and an efficient computational strategy to fit model parameters. Model validation for the eastern United States shows consequential improvement of our fully inferential approach compared with the current real-time forecasting system. Furthermore, we consider the introduction of temperature data from a weather forecast model into the downscaler, showing improved real-time ozone predictions. Finally, we introduce a hierarchical model to obtain spatially varying uncertainty associated with numerical model output. We show how we can learn about such uncertainty through suitable stochastic data fusion modeling using some external validation data. We illustrate our Bayesian model by providing the uncertainty map associated with a temperature output over the northeastern United States.
Resumo:
This thesis is the result of a project aimed at the study of a crucial topic in finance: default risk, whose measurement and modelling have achieved increasing relevance in recent years. We investigate the main issues related to the default phenomenon, under both a methodological and empirical perspective. The topics of default predictability and correlation are treated with a constant attention to the modelling solutions and reviewing critically the literature. From the methodological point of view, our analysis results in the proposal of a new class of models, called Poisson Autoregression with Exogenous Covariates (PARX). The PARX models, including both autoregressive end exogenous components, are able to capture the dynamics of default count time series, characterized by persistence of shocks and slowly decaying autocorrelation. Application of different PARX models to the monthly default counts of US industrial firms in the period 1982-2011 allows an empirical insight of the defaults dynamics and supports the identification of the main default predictors at an aggregate level.
Resumo:
Superconduttori bulk in MgB2, ottenuti con tecnologia Mg-RLI brevettata da Edison Spa, sono stati oggetto di un'approfondita analisi in termini di forze di levitazione. Questo studio è stato preliminare per la progettazione di un innovativo sistema di levitazione lineare. I risultati ottenuti sperimentalmente sono stati validati attraverso modelli numerici sviluppati ad hoc. I campioni oggetto dello studio sono tre bulk in MgB2 rappresentativi delle tipiche forme usate nelle applicazioni reali: un disco, un cilindro, una piastra. I bulk sono stati misurati con un sistema di misura per le forze di levitazione realizzato a tale scopo. Un protocollo sperimentale è stato seguito per la caratterizzazione di base, sia in condizioni Field Cooling sia Zero Field Cooling, al quale sono state affiancate prove specifiche come la possibilità di mantenere inalterate le proprietà superconduttive attraverso la giunzione di più campioni con la tecnologia Mg-RLI. Un modello numerico è stato sviluppato per convalidare i risultati sperimentali e per studiare l'elettrodinamica della levitazione. Diverse configurazioni di rotori magnetici sono state accoppiate con un cilindro in MgB2 con lo scopo di valutare la soluzione ottimale; questo tema è stato apporofondito attraverso lo sviluppo di un software di simulazione che può tenere conto sia del numero di magneti sia della presenza di anelli in materiale magneti intercalati fra di essi. Studi analoghi sono stati portati avanti su una piastra di MgB2 per simulare il comportamento di una geometria piana. Un sistema di raffreddamento innovativo basato sull'azoto solido è stato studiato per poterlo accoppiare con un sistema di levitazione. Il criostato progettato è costituito da due dewar, uno dentro l'altro; quello interno ha lo scopo di raffreddare l'MgB2 mentre quello esterno di limitare delle perdite verso l'esterno. Il criopattino così ottenuto è accoppiato in condizioni FC ad una rotaia formata da magneti permanenti in NdFeB.
Resumo:
L'obiettivo della tesi è stato quello di sviluppare un sensore che, applicato su una linea ematica, fosse in grado di rilevare le variazioni di conducibilità del liquido posto all'interno della linea stessa. La conducibilità è una grandezza correlata alla concentrazione ionica di un liquido ed è molto importante nel campo dialitico poiché da essa si può ottenere una stima della quantità di elettroliti presente nel sangue. Per lo studio in esame è stata eseguita dapprima una modellazione agli elementi finiti per stabilire una configurazione adeguata del sistema sia dal punto di vista geometrico che da quello elettrico e successivamente sono stati realizzati modelli sperimentali. Per le prove sperimentali si è fatto uso di soluzioni saline poste all'interno di una linea ematica sulla quale sono state eseguite misure tramite un analizzatore di impedenza. È stata quindi studiata la relazione tra l'impedenza misurata ed il valore noto di conducibilità delle soluzioni con la quale è stato dimostrato che il sensore sviluppato è un valido strumento di indagine poiché è riuscito a rilevare le variazioni di conducibilità delle soluzioni in esame con un alto grado di sensibilità.
Resumo:
L'elaborato ha avuto come obiettivo l'analisi di vulnerabilità del liceo scientifico Sabin. Tramite le informazioni ricavate dai rilievi e dalla documentazione disponibile in merito allo stabile, è stato creato un modello agli elementi finiti per compiere una serie di analisi dinamiche lineari a spettro di risposta. Tali analisi sono servite per giungere ad una stima dell'accelerazione orizzontale al suolo di collasso per la struttura. Tale valore è stato poi messo a paragone con quello ottenuto tramite la metodologia speditiva denominata "resisto".
Resumo:
La Correlazione digitale d’immagini (digital image correlation, DIC) è una tecnica di misura delle deformazioni e degli spostamenti, relativamente nuova, che permette di fare misure a tutto campo di tipo non invasivo. In questa tesi di Laurea Magistrale in Ingegneria Meccanica si è proceduto alla sua ottimizzazione e validazione per un’applicazione di tipo biomeccanico (distribuzione di deformazioni in segmenti ossei). Sono stati indagati i parametri di post-processo, di pre-acquisizione e di preparazione del provino. Per la validazione dello strumento sono stati confrontati i risultati ottenuti da provini di forma semplice con quelli teorici, così da avere una stima di quanto il dato misurato si discosti da quello reale. Infine, quanto appreso prima, è stato applicato a una vertebra umana, oltrepassando il limite, finora presente, di misure puntuali con estensimentri.
Resumo:
Background: Clinical trials have demonstrated that selected secondary prevention medications for patients after acute myocardial infarction (AMI) reduce mortality. Yet, these medications are generally underprescribed in daily practice, and older people are often absent from drug trials. Objectives: To examine the relationship between adherence to evidence-based (EB) drugs and post-AMI mortality, focusing on the effects of single therapy and polytherapy in very old patients (≥80 years) compared with elderly and adults (<80 years). Methods: Patients hospitalised for AMI between 01/01/2008 and 30/06/2011 and resident in the Local Health Authority of Bologna were followed up until 31/12/2011. Medication adherence was calculated as the proportion of days covered for filled prescriptions of angiotensin-converting enzyme inhibitors (ACEIs)/angiotensin receptor blockers (ARBs), β-blockers, antiplatelet drugs, and statins. We adopted a risk set sampling method, and the adjusted relationship between medication adherence (PDC≥75%) and mortality was investigated using conditional multiple logistic regression. Results: The study population comprised 4861 patients. During a median follow-up of 2.8 years, 1116 deaths (23.0%) were observed. Adherence to the 4 EB drugs was 7.1%, while nonadherence to any of the drugs was 19.7%. For both patients aged ≥80 years and those aged <80 years, rate ratios of death linearly decreased as the number of EB drugs taken increased. There was a significant inverse relationship between adherence to each of 4 medications and mortality, although its magnitude was higher for ACEIs/ARBs (adj. rate ratio=0.60, 95%CI=0.52–0.69) and statins (0.60, 0.50–0.72), and lower for β-blockers (0.75, 0.61–0.92) and antiplatelet drugs (0.73, 0.63–0.84). Conclusions: The beneficial effect of EB polytherapy on long-term mortality following AMI is evident also in nontrial older populations. Given that adherence to combination therapies is largely suboptimal, the implementation of strategies and initiatives to increase the use of post-AMI secondary preventive medications in old patients is crucial.