908 resultados para analisi non lineari
Resumo:
Le prove di fatica a flessione rotante su componenti in scala reale sono molto dispendiosi. Il metodo più veloce ed economico per ottenere gli stessi risultati è quello di operare su un provino in scala. Dal momento che non esiste nessun campione standardizzato è stato creato un provino ad-hoc e sono state eseguite le prove. Inoltre è stato creato un modello tridimensionale in grado di valutare le sollecitazioni. I due risultati sono stati comparati e i provini utilizzati per le prove sono stati attentamente analizzati.
Resumo:
L'infezione da HIV-1 resta ancora oggi una delle principali problematiche nell'ambito della sanità mondiale, con circa 35 milioni di individui infetti in tutto il mondo. L'introduzione della terapia antiretrovirale combinata (cART) ha drasticamente modificato l’evoluzione di questa infezione, che da patologia a sviluppo terminale dopo alcuni anni dalla trasmissione, è diventata una patologia cronica con una lunga aspettativa di vita per i pazienti. Tuttavia, la cART non è in grado di eradicare l’infezione e nei pazienti HIV-infetti trattati è possibile notare un aumento della comparsa di comorbidità, tra le quali le più frequentemente riscontrate sono lesioni al sistema nervoso centrale, ai reni, al tessuto osseo, al fegato e al sistema cardiovascolare. I danni al sistema cardiocircolatorio derivano da una serie di concause virologiche, comportamentali, ambientali e farmacologiche che alterano la parete vascolare, il metabolismo dei lipidi e la regolazione della coagulazione, inducendo la formazione di lesioni strutturali di tipo aterosclerotico che sono alla base dell’aumentata incidenza di infarti, ictus e alterazioni del circolo osservabili nei pazienti HIV-positivi. Dalla recente letteratura è emerso come l’omeostasi del tessuto endoteliale sia regolata anche a livello delle cellule staminali mesenchimali (MSC) presenti nella parete vascolare. Per questo abbiamo voluto analizzare possibili effetti dell’infezione di HIV, delle sue proteine e di alcune molecole antiretrovirali sulla vitalità e sul differenziamento delle MSC purificate dalla parete arteriosa umana. I risultati ottenuti indicano come l’infezione da HIV e l’azione delle proteine gp120 e Tat attivino il meccanismo di apoptosi nelle MSC e una profonda alterazione nel differenziamento verso la filiera adipocitaria e verso quella endoteliale. Inoltre, alcune molecole ad azione antiretrovirale (in particolare specifici inibitori della proteasi virale) sono in grado bloccare il differenziamento delle MSC verso le cellule endoteliali. Dall’insieme di queste osservazioni emergono nuovi meccanismi patogenetici correlati al danno cardiovascolare riscontrato nei pazienti HIV-positivi.
Resumo:
Il Tumore a Cellule Giganti dell’osso (TCG) è una rara neoplasia che rappresenta il 5% dei tumori di natura ossea; sebbene venga considerato un tumore a decorso benigno può manifestare caratteri di aggressività locale dando origine a recidive locali nel 10-25% dei casi, e nel 2-4% dei casi metastatizza a livello polmonare. In questo studio è stata valutata l’espressione dei miRNA mediante miRNA microarray in 10 pazienti affetti da TCG, 5 con metastasi e 5 liberi da malattia; sono stati riscontrati miRNA differenzialmente espressi tra i 2 gruppi di pazienti e la successiva validazione mediante Real Time PCR ha confermato una differenza significativa per il miR-136 (p=0.04). Mediante analisi bioinformatica con il software TargetScan abbiamo identificato RANK e NF1B come target del miR-136 e ne abbiamo studiato l’espressione mediante Real Time PCR su una più ampia casistica di pazienti affetti da TCG, metastatico e non, evidenziando una maggior espressione di NF1B nel gruppo di pazienti metastatici, mentre RANK non ha dimostrato una differenza significativa. L’analisi di Western Blot ha rilevato una maggiore espressione di entrambe le proteine nei pazienti metastatici rispetto ai non metastatici. Successivamente è stato condotto uno studio di immunoistochimica su TMA di 163 campioni di pazienti affetti da TCG a diverso decorso clinico che ha dimostrato una maggiore e significativa espressione di entrambe i target nei pazienti con metastasi rispetto ai non metastatici; le analisi di popolazione mediante Kaplan-Meier hanno confermato la correlazione tra over-espressione di RANK, NF1B e ricaduta con metastasi (p=0.001 e p<0.0005 rispettivamente). Lo studio di immunoistochimica è stato ampliato alle proteine maggiormente coinvolte nell’osteolisi che risultano avere un significato prognostico; tuttavia mediante analisi di ROC, la co-over-espressione di RANK, RANKL e NF1B rappresenta il migliore modello per predire la comparsa di metastasi (AUC=0.782, p<0.0005).
Resumo:
La Correlazione digitale d’immagini (digital image correlation, DIC) è una tecnica di misura delle deformazioni e degli spostamenti, relativamente nuova, che permette di fare misure a tutto campo di tipo non invasivo. In questa tesi di Laurea Magistrale in Ingegneria Meccanica si è proceduto alla sua ottimizzazione e validazione per un’applicazione di tipo biomeccanico (distribuzione di deformazioni in segmenti ossei). Sono stati indagati i parametri di post-processo, di pre-acquisizione e di preparazione del provino. Per la validazione dello strumento sono stati confrontati i risultati ottenuti da provini di forma semplice con quelli teorici, così da avere una stima di quanto il dato misurato si discosti da quello reale. Infine, quanto appreso prima, è stato applicato a una vertebra umana, oltrepassando il limite, finora presente, di misure puntuali con estensimentri.
Resumo:
Il mantenimento delle condizioni termoigrometriche ottimali all’interno di edifici mediante l’uso di unità di trattamento dell'aria comporta generalmente consumi energetici notevoli. Ciò che determina il livello entalpico di immissione dell’aria è il fabbisogno energetico dell’involucro edilizio: la geometria, i materiali di costruzione, unitamente ai carichi interni, alle infiltrazioni d’aria indesiderate, e ovviamente, alla zona climatica in cui l’edificio sorge, giocano un ruolo fondamentale nel computo dei consumi energetici. Nella pratica, esistono diverse soluzioni tecniche volte alla riduzione dei consumi e quindi dei costi di gestione di queste tipologie di impianto. Tra queste, occorre senz’altro ricordare l’inserimento del “cappotto termico” e delle cosiddette facciate ventilate. Ciascuna di queste due soluzioni interviene direttamente sull’involucro edilizio, riducendone il fabbisogno energetico. Si trovano poi soluzioni che non interessano direttamente l’involucro, ma che sono inserite all’interno dell’impianto in modo da ridurne i consumi. E’ il caso dei recuperatori di calore, scambiatori di calore che utilizzano l’aria prelevata dal locale condizionato per preriscaldare o preraffreddare l’aria esterna. Lo scopo di questo elaborato è quello di analizzare le prestazioni energetiche di un impianto di condizionamento che utilizzi, combinandole, due di queste soluzioni: l’intercapedine ventilata, con convezione di tipo forzata, e il recuperatore di calore. In particolare, si è fatto in modo che la facciata ventilata sia una sorta di componente dell’impianto, che risulta quindi “integrato nell’involucro”: l’idea è quella di studiare l’effetto della frazione di portata elaborata dall’impianto che viene inviata alla parete sui consumi energetici. Si è posta l’attenzione principalmente sulla stagione estiva, nella quale l’impianto studiato fa anche uso della tecnica del cosiddetto mist cooling: umidificando la portata d’aria di ripresa sia a monte che all’interno dell’intercapedine ventilata, si abbatte la temperatura dell’aria, con un conseguente abbattimento della temperatura di parete e con un notevole miglioramento delle prestazioni del recuperatore di calore.
Resumo:
OBIETTIVO: sintetizzare le evidenze disponibili sulla relazione tra i fattori di rischio (personali e lavorativi) e l’insorgenza della Sindrome del Tunnel Carpale (STC). METODI: è stata condotta una revisione sistematica della letteratura su database elettronici considerando gli studi caso-controllo e di coorte. Abbiamo valutato la qualità del reporting degli studi con la checklist STROBE. Le stime studio-specifiche sono state espresse come OR (IC95%) e combinate con una meta-analisi condotta con un modello a effetti casuali. La presenza di eventuali bias di pubblicazione è stata valutata osservando l’asimmetria del funnel plot e con il test di Egger. RISULTATI: Sono stati selezionati 29 studi di cui 19 inseriti nella meta-analisi: 13 studi caso-controllo e 6 di coorte. La meta-analisi ha mostrato un aumento significativo di casi di STC tra i soggetti obesi sia negli studi caso-controllo [OR 2,4 (1,9-3,1); I(2)=70,7%] che in quelli di coorte [OR 2,0 (1,6-2,7); I(2)=0%]. L'eterogeneità totale era significativa (I(2)=59,6%). Risultati simili si sono ottenuti per i diabetici e soggetti affetti da malattie della tiroide. L’esposizione al fumo non era associata alla STC sia negli studi caso-controllo [OR 0,7 (0,4-1,1); I(2)=83,2%] che di coorte [OR 0,8 (0,6-1,2); I(2)=45,8%]. A causa delle molteplici modalità di valutazione non è stato possibile calcolare una stima combinata delle esposizioni professionali con tecniche meta-analitiche. Dalla revisione, è risultato che STC è associata con: esposizione a vibrazioni, movimenti ripetitivi e posture incongrue di mano-polso. CONCLUSIONI: I risultati della revisione sistematica confermano le evidenze dell'esistenza di un'associazione tra fattori di rischio personali e STC. Nonostante la diversa qualità dei dati sull'esposizione e le differenze degli effetti dei disegni di studio, i nostri risultati indicano elementi di prova sufficienti di un legame tra fattori di rischio professionali e STC. La misurazione dell'esposizione soprattutto per i fattori di rischio professionali, è un obiettivo necessario per studi futuri.
Resumo:
La green chemistry può essere definita come l’applicazione dei principi fondamentali di sviluppo sostenibile, al fine di ridurre al minimo l’impiego o la formazione di sostanze pericolose nella progettazione, produzione e applicazione di prodotti chimici. È in questo contesto che si inserisce la metodologia LCA (Life Cycle Assessment), come strumento di analisi e di valutazione. Il presente lavoro di tesi è stato condotto con l’intenzione di offrire una valutazione degli impatti ambientali associati al settore dei processi chimici di interesse industriale in una prospettiva di ciclo di vita. In particolare, è stato studiato il processo di produzione di acroleina ponendo a confronto due vie di sintesi alternative: la via tradizionale che impiega propilene come materia prima, e l’alternativa da glicerolo ottenuto come sottoprodotto rinnovabile di processi industriali. Il lavoro si articola in due livelli di studio: un primo, parziale, in cui si va ad esaminare esclusivamente il processo di produzione di acroleina, non considerando gli stadi a monte per l’ottenimento delle materie prime di partenza; un secondo, più dettagliato, in cui i confini di sistema vengono ampliati all’intero ciclo produttivo. I risultati sono stati confrontati ed interpretati attraverso tre tipologie di analisi: Valutazione del danno, Analisi di contributo ed Analisi di incertezza. Dal confronto tra i due scenari parziali di produzione di acroleina, emerge come il processo da glicerolo abbia impatti globalmente maggiori rispetto al tradizionale. Tale andamento è ascrivibile ai diversi consumi energetici ed in massa del processo per l’ottenimento dell’acroleina. Successivamente, per avere una visione completa di ciascuno scenario, l’analisi è stata estesa includendo le fasi a monte di produzione delle due materie prime. Da tale confronto emerge come lo scenario più impattante risulta essere quello di produzione di acroleina partendo da glicerolo ottenuto dalla trans-esterificazione di olio di colza. Al contrario, lo scenario che impiega glicerolo prodotto come scarto della lavorazione di sego sembra essere il modello con i maggiori vantaggi ambientali. Con l’obiettivo di individuare le fasi di processo maggiormente incidenti sul carico totale e quindi sulle varie categorie d’impatto intermedie, è stata eseguita un’analisi di contributo suddividendo ciascuno scenario nei sotto-processi che lo compongono. È stata infine eseguita un’analisi di incertezza tramite il metodo Monte Carlo, verificando la riproducibilità dei risultati.
Resumo:
Nella seguente tesi sono stati affrontati differenti protocolli di purificazione di componenti della DNA polimerasi III di Escherichia coli, previamente sovraespressi nel microrganismo. A distanza di oltre 20 anni dall’identificazione della DNA polimerasi III quale enzima responsabile della replicazione del genoma di E. coli, sono stati fatti progressi riguardo la sua conoscenza. Tuttavia molti sono gli aspetti rimasti incogniti riguardo al meccanismo d’azione dell’enzima, così come il ruolo svolto dalle sue subunità e parte della loro struttura. Al fine di migliorare la comprensione di questo enzima, è necessario insistere sulla diffrattometria di raggi X, per la quale è indispensabile l’isolamento di cristalli delle proteine. Si intuisce la necessità di sviluppare metodi appropriati che consentano di ottenere una resa il più possibile elevata dei suoi componenti. Una metodica generale per la sovraespressione del core catalitico e della singola subunità α, deputata all’attività polimerasica a carico di entrambi i filamenti di DNA, era già stata perfezionata presso il laboratorio ospitante. Con il presente lavoro sono stati sperimentati alcuni procedimenti, volti ad aumentare la resa di purificazione, adottando differenti soluzioni. In primo luogo, si è cercato di recuperare le proteine contenute nel flow through eluito da una colonna cromatografica Q-Sepharose, alla quale non erano riuscite a legarsi durante il primo stadio di purificazione. Inoltre, sono stati sperimentati metodi alternativi di lisi cellulare di estrazione delle proteine. In sintesi, il contenuto della tesi potrebbe agevolare la valutazione di diverse strategie per incrementare la resa di purificazione della subunità α e del core polimerasico della DNA Polimerasi III di E. coli.
Resumo:
In questo elaborato viene studiato un nuovo strumento satellitare chiamato MIPAS2k: uno spettrometro a trasformata di Fourier, in grado di misurare gli spettri di emissione dei gas atmosferici attraverso la tecnica di misure al lembo. Lo scopo di MIPAS2k è quello di determinare la distribuzione spaziale di quantità atmosferiche tra cui il VMR delle specie chimiche: ozono, acqua, acido nitrico e protossido di azoto. La necessità di idearne un successore è nata dopo la perdita di contatto con lo strumento MIPAS da cui MIPAS2k, pur preservandone alcune caratteristiche, presenta differenze fondamentali quali: i parametri osservazionali, il tipo di detector utilizzato per eseguire le scansioni al lembo e la logica attraverso cui vengono ricavate le distribuzioni dei parametri atmosferici. L’algoritmo attraverso cui viene effettuata l’inversione dei dati di MIPAS2k, chiamato FULL2D, usa la stessa logica di base di quello utilizzato per MIPAS chiamato Geo-Fit. La differenza fondamentale tra i due metodi risiede nel modo in cui i parametri sono rappresentati. Il Geo-Fit ricostruisce il campo atmosferico delle quantità da determinare tramite profili verticali mentre il FULL2D rappresenta i valori del campo atmosferico all’interno degli elementi della discretizzazione bidimensionale dell’atmosfera. Non avendo a disposizione misure del nuovo strumento si è dovuto valutarne le performance attraverso l’analisi su osservati simulati creati ricorrendo al modello diretto del trasferimento radiativo e utilizzando un’atmosfera di riferimento ad alta risoluzione. Le distribuzioni bidimensionali delle quantità atmosferiche di interesse sono state quindi ricavate usando il modello di inversione dei dati FULL2D applicato agli osservati simulati di MIPAS2k. I valori dei parametri ricavati sono stati confrontati con i valori dell’atmosfera di riferimento e analizzati utilizzando mappe e quantificatori. Con i risultati di queste analisi e' stato possibile determinare la risoluzione spaziale e la precisione dei prodotti di MIPAS2k per due diverse risoluzioni spettrali.
Resumo:
Riconoscendo l’importanza delle traduzioni all’interno della cosiddetta repubblica democratica dell’infanzia, il lavoro analizza le prime traduzioni tedesche e italiane del classico della letteratura per l’infanzia I ragazzi della Via Pál di Ferenc Molnár, al fine di metterne in luce i processi non solo prettamente traduttivi, ma anche più ampiamente culturali, che hanno influenzato la prima ricezione del romanzo in due contesti linguistici spesso legati per tradizione storico-letteraria alla letteratura ungherese. Rispettando la descrizione ormai comunemente accettata della letteratura per ragazzi come luogo di interazione tra più sistemi – principalmente quello letterario, quello pedagogico e quello sociale –, il lavoro ricostruisce innanzitutto le dinamiche proprie dei periodi storici di interesse, focalizzando l’attenzione sulla discussione circa l’educazione patriottica e militare del bambino. In relazione a questa tematica si approfondisce l’aspetto della “leggerezza” nell’opera di Molnár, ricostruendo attraverso le recensioni del tempo la prima ricezione del romanzo in Ungheria e presentando i temi del patriottismo e del gioco alla guerra in dialogo con le caratteristiche linguistico-formali del romanzo. I risultati raggiunti – una relativizzazione dell’intento prettamente pedagogico a vantaggio di una visione critica della società e del militarismo a tutti i costi – vengono messi alla prova delle traduzioni. L’analisi critica si basa su un esame degli elementi paratestuali, sull’individuazione di processi di neutralizzazione dell’alterità culturale e infine sull’esame delle isotopie del “gioco alla guerra” e dei “simboli della patria”. Si mostra come, pur senza un intervento censorio o manipolazioni sensibili al testo, molte traduzioni italiane accentuano l’aspetto patriottico e militaresco in chiave pedagogica. Soprattutto in Italia, il romanzo viene uniformato così al contesto letterario ed educativo dell’epoca, mentre in area tedesca la ricezione nell’ambito della letteratura per ragazzi sembra aprire al genere del romanzo delle bande.
Resumo:
L’attuale rilevanza rappresentata dalla stretta relazione tra cambiamenti climatici e influenza antropogenica ha da tempo posto l’attenzione sull’effetto serra e sul surriscaldamento planetario così come sull’aumento delle concentrazioni atmosferiche dei gas climaticamente attivi, in primo luogo la CO2. Il radiocarbonio è attualmente il tracciante ambientale per eccellenza in grado di fornire mediante un approccio “top-down” un valido strumento di controllo per discriminare e quantificare il diossido di carbonio presente in atmosfera di provenienza fossile o biogenica. Ecco allora che ai settori applicativi tradizionali del 14C, quali le datazioni archeometriche, si affiancano nuovi ambiti legati da un lato al settore energetico per quanto riguarda le problematiche associate alle emissioni di impianti, ai combustibili, allo stoccaggio geologico della CO2, dall’altro al mercato in forte crescita dei cosiddetti prodotti biobased costituiti da materie prime rinnovabili. Nell’ambito del presente lavoro di tesi è stato quindi esplorato il mondo del radiocarbonio sia dal punto di vista strettamente tecnico e metodologico che dal punto di vista applicativo relativamente ai molteplici e diversificati campi d’indagine. E’ stato realizzato e validato un impianto di analisi basato sul metodo radiometrico mediante assorbimento diretto della CO2 ed analisi in scintillazione liquida apportando miglioramenti tecnologici ed accorgimenti procedurali volti a migliorare le performance del metodo in termini di semplicità, sensibilità e riproducibilità. Il metodo, pur rappresentando generalmente un buon compromesso rispetto alle metodologie tradizionalmente usate per l’analisi del 14C, risulta allo stato attuale ancora inadeguato a quei settori applicativi laddove è richiesta una precisione molto puntuale, ma competitivo per l’analisi di campioni moderni ad elevata concentrazione di 14C. La sperimentazione condotta su alcuni liquidi ionici, seppur preliminare e non conclusiva, apre infine nuove linee di ricerca sulla possibilità di utilizzare questa nuova classe di composti come mezzi per la cattura della CO2 e l’analisi del 14C in LSC.
Resumo:
Lo scopo di questa tesi è quella di analizzare in dettaglio i principali software usati a livello mondiale per la pubblicazione degli open data, per fornire una guida a sviluppatori che non conoscono i programmi adatti a questa fase. La prima parte della tesi sarà concentrata ad introdurre il mondo degli open data, con definizioni, concetti e leggi sull’argomento. La seconda parte sarà invece il fulcro dell’analisi tra diversi software già largamente utilizzati per pubblicare open data.
Resumo:
Abbiamo analizzato il comportamento di dispositivi mobili allo scopo di acquisire, ricostruire ed analizzare dati rotazionali da veicoli in movimento. E' possibile ricostruire solo l'urto iniziale di un incidente tra automobili attraverso segnale GPS e accelerometri interni ai veicoli, non è possibile ricostruire l'intera dinamica dell'incidente poiché si perde la rotazione assunta dai mezzi di trasporto dopo l'urto. Per questo scopo abbiamo studiato il comportamento di un dispositivo mobile capace di percepire movimenti rotatori. Abbiamo creato un'architettura software per ricostruire graficamente ed analizzare le rotazioni di una piattaforma Arduino, ovvero un prototipo dotato di accelerometro e giroscopio. Per studiare le rotazioni è stata applicata la matematica dei quaternioni. Abbiamo trovato algoritmi che ricavano le rotazioni attraverso le velocità angolari fornite dalla piattaforma, ed anche attraverso componenti hardware specializzati in rotazioni. Entrambe le soluzioni riescono ad interpretare correttamente la rotazioni del dispositivo nell'intervallo di tempo in cui si può sviluppare un incidente.
Analisi e riprogettazione del processo di ict risk management: un caso applicativo in Telecom Italia
Resumo:
Questo lavoro di tesi muove da tematiche relative alla sicurezza IT e risulta dagli otto mesi di lavoro all’interno della funzione Technical Security di Telecom Italia Information Technology. Il compito primario di questa unità di business è ridurre il rischio informatico dei sistemi di Telecom Italia per mezzo dell’attuazione del processo di ICT Risk Management, che coinvolge l’intera organizzazione ed è stato oggetto di una riprogettazione nel corso del 2012. Per estendere tale processo a tutti i sistemi informatici, nello specifico a quelli caratterizzati da non conformità, all’inizio del 2013 è stato avviato il Programma Strutturato di Sicurezza, un aggregato di quattro progetti dalla durata triennale particolarmente articolato e complesso. La pianificazione di tale Programma ha visto coinvolto, tra gli altri, il team di cui ho fatto parte, che ha collaborato con Telecom Italia assolvendo alcune delle funzioni di supporto tipiche dei Project Management Office (PMO).
Resumo:
Il successo di XML ha rinnovato l'interesse per il controllo delle modifiche sugli alberi e i dati semi-strutturati. Le necessità principali sono gestire le revisioni dei documenti, interrogare e monitorare i cambiamenti e scambiare efficientemente i documenti e i loro aggiornamenti. I cambiamenti che si verificano tra due versioni di un documento sono sconosciuti al sistema. Quindi, un algoritmo di diffing viene utilizzato per costruire un delta che rappresenta i cambiamenti. Sono stati proposti vari algoritmi di diffing. Alcuni considerano la struttura ad albero dei documenti XML, mentre altri non lo fanno. Inoltre, alcuni algoritmi possono trovare una sequenza più "sintetica" delle modifiche. Questo migliora la qualità del monitoraggio e l'interrogazione delle modifiche. Esistono altri approcci sviluppati per monitorare i cambiamenti sui documenti XML, differenti dagli algoritmi di diffing, ma che comunque ottengono risultati quasi identici ed offrono un'interrogazione delle modifiche più agevole per gli utenti umani. Esistono infatti programmi di editing con strumenti di change tracking, che permettono a più autori di modificare diverse versioni dei documenti contemporaneamente e registrando in tempo reale tutti i cambiamenti da loro apportati. In questo lavoro studio i diversi strumenti e confronto i loro risultati sulla base di esperimenti condotti su documenti XML opportunamente modificati per riconoscere determinati cambiamenti. Ci sono anche diverse proposte di formati del delta per rappresentare i cambiamenti in XML, ma non vi è ancora alcuno standard. Espongo le principali proposte in base alle loro specifiche, le loro implementazioni e sui risultati degli esperimenti condotti. L'obiettivo è di fornire una valutazione della qualità degli strumenti e, sulla base di questo, guidare gli utenti nella scelta della soluzione appropriata per le loro applicazioni.