984 resultados para Analisi Vulnerabilità - sismica - verifiche - muratura
Resumo:
Il successo di XML ha rinnovato l'interesse per il controllo delle modifiche sugli alberi e i dati semi-strutturati. Le necessità principali sono gestire le revisioni dei documenti, interrogare e monitorare i cambiamenti e scambiare efficientemente i documenti e i loro aggiornamenti. I cambiamenti che si verificano tra due versioni di un documento sono sconosciuti al sistema. Quindi, un algoritmo di diffing viene utilizzato per costruire un delta che rappresenta i cambiamenti. Sono stati proposti vari algoritmi di diffing. Alcuni considerano la struttura ad albero dei documenti XML, mentre altri non lo fanno. Inoltre, alcuni algoritmi possono trovare una sequenza più "sintetica" delle modifiche. Questo migliora la qualità del monitoraggio e l'interrogazione delle modifiche. Esistono altri approcci sviluppati per monitorare i cambiamenti sui documenti XML, differenti dagli algoritmi di diffing, ma che comunque ottengono risultati quasi identici ed offrono un'interrogazione delle modifiche più agevole per gli utenti umani. Esistono infatti programmi di editing con strumenti di change tracking, che permettono a più autori di modificare diverse versioni dei documenti contemporaneamente e registrando in tempo reale tutti i cambiamenti da loro apportati. In questo lavoro studio i diversi strumenti e confronto i loro risultati sulla base di esperimenti condotti su documenti XML opportunamente modificati per riconoscere determinati cambiamenti. Ci sono anche diverse proposte di formati del delta per rappresentare i cambiamenti in XML, ma non vi è ancora alcuno standard. Espongo le principali proposte in base alle loro specifiche, le loro implementazioni e sui risultati degli esperimenti condotti. L'obiettivo è di fornire una valutazione della qualità degli strumenti e, sulla base di questo, guidare gli utenti nella scelta della soluzione appropriata per le loro applicazioni.
Resumo:
L'oggetto della tesi è la costruzione di un modello organizzativo e funzionale per le nuove strutture previste a livello nazionale per l'assistenza primaria e denominate Unità Complesse di Cure Primarie (UCCP). Il modello è composto da un profilo organizzativo, un'architettura funzionale e un sistema di indicatori per il monitoraggio di un insieme di prestazioni rilevanti.
Resumo:
Il presente lavoro di tesi si è svolto in collaborazione con il Consiglio Nazionale delle Ricerche - Istituto di Ricerca per la Protezione Idrogeologica di Padova CNR IRPI. Questo elaborato è finalizzato allo studio dei dissesti per frana che coinvolgono le opere d’arte stradali della S.S. 52 Carnica nella zona del Passo della Morte, tra i comuni di Forni di Sotto e Ampezzo, in provincia di Udine. La presenza di un’arteria viaria di primaria importanza, qual è la strada statale 52 Carnica che collega le province di Udine e Belluno, ha reso necessario un accurato studio idrogeologico. Lo studio mira principalmente ad individuare una possibile relazione tra la sorgente sita all’interno della Galleria di S. Lorenzo S.S. 52 e la galleria drenante posta al di sotto di quest’ultima per permettere la progettazione di eventuali ulteriori opere di mitigazione del rischio da frana. Il lavoro è suddiviso in tre parti: la prima, introduttiva, include una caratterizzazione geografica, geologica e morfologica dell’area di studio. La seconda descrive l’opera in esame - la galleria di S. Lorenzo S.S. 52 Carnica - e le criticità derivanti dalla complessità dell’area. Infine, la terza, fondamentale, comprende un studio idrogeologico svolto raccogliendo sul campo i dati indispensabili alle ricerche. La metodologia è caratterizzata da un’analisi statistica basata sulla cross-correlazione tra i dati di precipitazione e quelli di portata in continuo della sorgente e della galleria drenante. Infine, a fronte dei dati ottenuti, si è ricavato un modello concettuale dei complessi fenomeni idrogeologici che si sviluppano nell’area di Passo della Morte.
Resumo:
Introduzione. Le cellule mesenchimali derivate dal tessuto adiposo (hASC) rappresentano un importante strumento per la terapia cellulare, in quanto derivano da un tessuto adulto abbondante e facilmente reperibile. Con il dispositivo medico Lipogems l’isolamento di tali cellule è eseguito esclusivamente mediante sollecitazioni meccaniche. Il prodotto ottenuto è quindi minimamente manipolato e subito utilizzabile. Ad oggi, il condizionamento pro-differenziativo delle staminali è per lo più attuato mediante molecole di sintesi. Tuttavia, altri fattori possono modulare la fisiologia cellulare, come gli stimoli fisici e molecole naturali. Onde elettromagnetiche hanno indotto in modelli cellulari staminali l’espressione di alcuni marcatori di differenziamento e, in cellule adulte, una riprogrammazione, mentre estratti embrionali di Zebrafish sono risultati antiproliferativi sia in vitro che in vivo. Metodi. La ricerca di nuove strategie differenziative sia di natura fisica che molecolare, nel particolare onde acustiche ed estratti embrionali di Zebrafish, è stata condotta utilizzando come modello cellulare le hASC isolate con Lipogems. Onde acustiche sono state somministrate mediante l’utilizzo di due apparati di trasduzione, un generatore di onde meccaniche e il Cell Exciter . I trattamenti con gli estratti embrionali sono stati effettuati utilizzando diverse concentrazioni e diversi tempi sperimentali. Gli effetti sull’espressione dei marcatori di staminalità e differenziamento relativi ai trattamenti sono stati saggiati in RT-PCR quantitativa relativa e/o in qPCR. Per i trattamenti di tipo molecolare è stata valutata anche la proliferazione. Risultati e conclusioni. La meta-analisi dei dati delle colture di controllo mostra la stabilità d’espressione genica del modello. I trattamenti con i suoni inducono variazioni dell’espressione genica, suggerendo un ruolo regolatorio di tali stimoli, in particolare del processo di commitment cardiovascolare. Due degli estratti embrionali di Zebrafish testati inibiscono la proliferazione alle 72 ore dalla somministrazione. L’analisi d’espressione associata ai trattamenti antiproliferativi suggerisce che tale effetto abbia basi molecolari simili ai processi di differenziamento.
Resumo:
Lo scopo di questa tesi è quello di analizzare dapprima l’impatto ambientale di tali impianti e poi analizzare il contributo effettivo che oggi la tecnologia innovativa dei cicli Rankine organici può dare nella valorizzazione elettrica del calore di scarto di processi industriali, focalizzando l’obiettivo principalmente sulle turbine a gas ed eseguendo un caso di studio in un settore ancora poco esplorato da questa tecnologia, quello Oil&Gas. Dopo aver effettuato il censimento degli impianti a fonti fossili e rinnovabili, cogenerativi e non, presenti in Emilia-Romagna, è stato sviluppato un software chiamato MiniBref che permette di simulare il funzionamento di una qualsiasi centrale termoelettrica grazie alla possibilità di combinare la tecnologia dell’impianto con il tipo di combustibile consentendo la valutazione delle emissioni inquinanti ed i potenziali di inquinamento. Successivamente verranno illustrati gli ORC, partendo dalle caratteristiche impiantistiche e termodinamiche fino ad arrivare alla scelta del fluido organico, fondamentale per le performance del ciclo. Dopo aver effettuato una ricognizione dello stato dell’arte delle applicazioni industriali degli ORC nel recupero termico, verranno eseguite simulazioni numeriche per ricostruire gli ORC ed avere una panoramica il più completa ed attendibile delle prestazioni effettive di questi sistemi. In ultimo verranno illustrati i risultati di un caso di studio che vede l’adozione di recupero mediante ciclo organico in un’installazione esistente del settore Oil&Gas. Si effettuerà uno studio delle prestazione dell’impianto al variare delle pressioni massime e minime del ciclo ed al variare del fluido impiegato al fine di mostrare come questi parametri influenzino non solo le performance ma anche le caratteristiche impiantistiche da adottare. A conclusione del lavoro si riporteranno i risultati relativi all’analisi condotte considerando l’impianto ai carichi parziali ed in assetto cogenerativo.
Resumo:
Nella presente tesi indaghiamo la potenzialità di LCM e Reverse Phase Protein microarray negli studi clinici. Si analizza la possibilità di creare una bio banca con line cellular primarie, al fine di conseguire drug test di sensibilità prima di decidere il trattamento da somministrare ai singoli pazienti. Sono stati ottenuti profili proteomici da biopsie pre e post terapia. I risultati dimostrano che questa piattaforma mostra il meccanismo di resistenza acquisito durante la terapia biologica. Questo ci ha portato ad analizzare una possibile stratificazione per pazienti con mCRC . I dati hanno rivelato distinti pathway di attivazione tra metastasi resecabile e non resecabili. I risultati mostrano inoltre due potenziali bersagli farmacologici. Ma la valutazione dell'intero tumore tramite singole biopsie sembra essere un problema a causa dell’eterogeneità intratumorale a livello genomico. Abbiamo indagato questo problema a livello dell'architettura del segnale in campioni di mCRC e ccRCC . I risultati indicano una somiglianza complessiva nei profili proteomici all'interno dello stesso tumore. Considerando che una singola biopsia è rappresentativa di un intera lesione , abbiamo studiato la possibilità di creare linee di cellule primarie, per valutare il profilo molecolare di ogni paziente. Fino ad oggi non c'era un protocollo per creare linee cellulari immortalizzate senza alcuna variazione genetica . abbiamo cosiderato, però, l'approccio innovativo delle CRCs. Ad oggi , non è ancora chiaro se tali cellule mimino il profilo dei tessuti oppure I passaggi in vitro modifichino i loro pathways . Sulla base di un modello di topo , i nostri dati mostrano un profilo di proteomica simile tra le linee di cellule e tessuti di topo LCM. In conclusione, i nostri dati dimostrano l'utilità della piattaforma LCM / RPPA nella sperimentazione clinica e la possibilità di creare una bio - banca di linee cellulari primarie, per migliorare la decisione del trattamento.
Resumo:
Introduzione: L’indicazione alla rivascolarizzazione carotidea è comunemente posta in base alla percentuale di stenosi, alla presenza di sintomi neurologici ed alle condizioni cliniche del paziente. Una placca ad elevato potenziale embolico viene definita “vulnerabile”; la sua caratterizzazione, tuttavia, non è universalmente accettata ai fini della rivascolarizzazione. Lo scopo dello studio è indagare il ruolo del mezzo di contrasto ecografico (CEUS) nell’identificazione della placca carotidea vulnerabile. Materiali e Metodi: I pazienti sottoposti a endoarterectomia carotidea, sono stati valutati mediante TC cerebrale preoperatoria e CEUS. Le microbolle di contrasto rilevate nella placca, indicative di neovascolarizzazione, sono state quantificate in dB-E ed istologicamente valutate per cinque caratteristiche: (densità dei microvasi, spessore del cappuccio fibroso, estensione delle calcificazioni, infiltrato infiammatorio e core lipidico) il valore da 1 a 5, ottenuto in cieco, indica in grado di vulnerabilità della placca. L'ANOVA test, il test di Fisher e t Student sono stati usati per correlare le caratteristiche dei pazienti ed istologiche col valore di dB-E. Risultati: Di 22 pazienti (range 2-7.8, media 4.85 ±1.9 SD) vi era un numero più alto di sintomatici (7.40 ± 0.5) rispetto agli asintomatici (3.5 ± 1.4) (p = 0.002). Un più alto valore di dB-E si associava con la presenza di un sottile cappuccino fibroso (<200 µm, 5.96±1.5 vs. 3 ± 1,p = 0.01) ed un maggiore infiltrato infiammatorio (3.2 ± 0.9 vs. 6.4 ± 1.2, p = 0.03). Placche con vulnerabilità 5 si associavano ad un valore più alto di dB-E rispetto alle placche con vulnerabilità 1 (7.6 ± 0.2 vs. 2.5 ± 0.6, rispettivamente, p=0.001). Preoperatoriamente, le lesioni emboliche ipsilaterali alla TC, correlavano con un più alto valore di dB-E (5.96±1.5 vs. 3.0±1.0, p=0.01). Conclusioni: Il valore di dB-E alla CEUS indica l’estensione della neovascolarizzazione della placca carotidea e può essere utilizzato come marker di vulnerabilità della placca.
Resumo:
The goal of this thesis was the study of the cement-bone interface in the tibial component of a cemented total knee prosthesis. One of the things you can see in specimens after in vivo service is that resorption of bone occurs in the interdigitated region between bone and cement. A stress shielding effect was investigated as a cause to explain bone resorption. Stress shielding occurs when bone is loaded less than physiological and therefore it starts remodeling according to the new loading conditions. µCT images were used to obtain 3D models of the bone and cement structure and a Finite Element Analysis was used to simulate different kind of loads. Resorption was also simulated by performing erosion operations in the interdigitated bone region. Finally, 4 models were simulated: bone (trabecular), bone with cement, and two models of bone with cement after progressive erosions of the bone. Compression, tension and shear test were simulated for each model in displacement-control until 2% of strain. The results show how the principal strain and Von Mises stress decrease after adding the cement on the structure and after the erosion operations. These results show that a stress shielding effect does occur and rises after resorption starts.
Resumo:
A causa delle complesse problematiche ambientali e in accordo con gli obiettivi della legislazione internazionale e comunitaria, le aziende sempre più frequentemente adottano sistemi di gestione per miglioramento continuo delle proprie prestazioni ambientali. La tesi si pone come obiettivo l’analisi dell’efficienza energetica di una grande azienda del settore alimentare: sono state valutate le prestazioni in relazione agli impianti di produzione di energia e i consumi di energia dei singoli reparti di lavorazione e impianti; per ogni reparto sono stati inoltre analizzati dati e indicatori di tipo generale e puntuale, sulla base delle indicazioni riportate nella norma CEI EN ISO 50001: 2011. I risultati mostrano che i reparti di produzione energetica operano in assetto di Cogenerazione ad Alto Rendimento e che negli ultimi due anni si è registrata una riduzione delle emissioni di CO2 rispetto ai MWh prodotti; dal 2008 al 2013 si è assistito ad un trend di aumento dei consumi di energia elettrica rispetto ai prodotti realizzati, a differenza dei consumi di energia termica. Infine sulla base delle priorità di intervento individuate, è stato creato un piano d’azione teso al miglioramento delle performance energetiche. Inoltre la tesi si pone l’obiettivo di creare e applicare un metodo per calcolare la significatività degli aspetti ambientali dell’azienda, al fine di valutare gli impatti associati, in modo da permetterne una classificazione e da individuare le priorità di intervento per il miglioramento delle performance ambientali, in accordo con la norma UNI EN ISO 14001: 2004. Il metodo è stato progettato sulla base di dati aziendali e in modo da garantire oggettività, modulabilità e ripetibilità nella maggiore misura possibile; tale metodo è stato applicato ad un reparto di lavorazione e ha permesso di classificare gli aspetti ambientali, individuando le priorità di intervento, quali consumi idrici ed energetici.
Resumo:
Internet of Energy è un progetto di ricerca europeo nato con lo scopo di sviluppare infrastrutture hardware e software volte a introdurre la mobilità elettrica veicolare nei moderni contesti urbani. È stato oggetto di tesi di Federco Montori il quale ha sviluppato un primo prototipo di piattaforma comprendente un servizio cittadino di gestione delle ricariche, un’applicazione mobile che vi interagiva e infine un simulatore necessario al test della piattaforma. Nel corso di oltre un anno di sviluppo ho riscritto tutte le componenti software che costituivano il progetto ampliandone notevolmente le funzionalità, rendendole modulari e ben ingegnerizzate. Del progetto originario è stata ereditata l’architettura ontology-based basata sullo scambio di informazioni tramite il Semantic Information Broker (SIB). Il mio contributo è iniziato nel 2012 con la riscrittura dell’applicazione mobile che inizialmente funzionava solo in presenza del simulatore. Attualmente permette di interfacciarsi a un veicolo reale tramite la tecnologia Blue&Me di Fiat. Questo approccio è stato reso possibile grazie all’opportunità offerta dal Centro Ricerche Fiat, che ci ha permesso di testare presso loro sede l’applicazione mobile su un prototipo di Daily elettrico. Ho inoltre introdotto lo studio del profilo altimetrico e consumo energetico che separa il possessore dello smartphone da una determinata destinazione. Nel 2013 ho deciso di riscrivere il Servizio Cittadino per renderlo conforme a un nuovo protocollo di prenotazione. Ho colto l’occasione per rendere il servizio altamente performante grazie a tecniche quali: pool di thread, pool di oggetti e caching. Infine a cavallo tra il 2013 e il 2014 ho riscritto il simulatore al fine di ottimizzare il consumo di risorse, velocizzare il setup delle simulazioni e sopratutto renderlo più conforme alla realtà. Questo lavoro ha permesso di avere una piattaforma software che permette di valutare realisticamente gli scenari di mobilità elettrica veicolare.
Resumo:
Lo studio indaga le relazioni tra la scelta del percorso dei ciclisti e le caratteristiche operativo – funzionali delle diverse dotazioni ciclabili, partendo dall’ osservazione che alcuni archi realizzati in promiscuità con pedoni vengono esclusi dalla scelta del percorso di alcuni utenti. Uno dei fattori cui viene posta maggiore, soprattutto tra coloro che utilizzano la bicicletta per spostamenti sistematici casa-lavoro o scuola, è la velocità media. Se su un arco tale velocità risulta bassa l'utente può associare a tale arco una bassa utilità ed escluderlo quindi durante la fase di scelta del percorso. La condivisione dello spazio con pedoni determina interferenze e conflitti, che possono indurre una riduzione della velocità media, che può determinare una minore attrattività della dotazione. È stata condotta una campagna di indagine su tre archi ciclabili della rete ciclabile del Comune di Bologna, che ha visto l’utilizzo di telecamera portatile montata su casco di sicurezza, consentendo di poter usufruire di diversi vantaggi nel verificare l’entità delle interferenze e quantificarne l’ effetto sulla prestazione di velocità. Attraverso l’analisi statistica, non solo della velocità media mantenuta dagli operatori su pista e su strada, ma anche della sua variazione percentuale, si definisce il peso che viene attribuito alla presenza di altri utenti, pedoni, nell’ utilizzo delle infrastrutture ciclabili condivise attraverso la determinazione di un coefficiente di equivalenza bici-pedoni.
Resumo:
I processi microbiologici rivestono una grande importanza nello sviluppo di combustibili e sostanze chimiche da fonti rinnovabili (biomassa), quali: il biometano e le bioplastiche, come i poli(idrossialcanoati), PHA. I PHA sono poliesteri ottenuti per condensazione di 3-idrossiacidi, il più comune dei quali è il poli(3-idrossibutirrato, PHB). Gli alti costi di produzione del PHA da colture microbiche singole ha portato a valutare nuove strategie, tra cui l’utilizzo di colture microbiche miste (MMC) e substrati di scarto. Il bio-olio ottenuto dalla pirolisi di biomassa potrebbe essere un substrato interessante per la produzione di biogas e PHA. Gli acidi a catena corta (acidi grassi volatili, VFA), infatti, sono i prodotti intermedi nella produzione sia di biogas che di PHA. L’analisi di questi ultimi viene normalmente effettuata tramite GC-FID o GC-MS. La degradazione termica (pirolisi, Py) di PHA produce acidi alchenoici caratteristici, come l’acido crotonico. Il metodo tradizionale per la determinazione del PHA è la metanolisi seguita da un’analisi GC-MS, una procedura laboriosa con uso di solventi clorurati e sostanze corrosive. Lo scopo principale di questa tesi è stato quello di sviluppare un nuovo metodo di analisi dei PHA. Il metodo studiato si basa sulla pirolisi diretta della biomassa e determinazione degli acidi alchenoici prodotti dalla degradazione del PHA in GC-FID. La pirolisi analitica è stata studiata tramite analisi di polimeri puri (per la calibrazione) e poi è stata applicata a campioni batterici derivanti da MMC e a ceppi selezionati. Il confronto con il metodo convenzionale ha dimostrato che la Py/GC-FID è un metodo valido per l’identificazione dei PHA e per la loro quantificazione nelle matrici batteriche. Il pre-trattamento del campione è minimo e non richiede l’uso di solventi e reagenti chimici. Inoltre, è stata applicata una tecnica di analisi dei VFA nei test di biometanazione basata sull’estrazione con una microquantità di dimetilcarbonato.
Resumo:
Dal punto di vista geometrico, il tracciato delle linee AV/AC è determinato in funzione delle velocità di progetto, attualmente variabili tra 250 e 300 km/h, e in modo da limitare i parametri cinematici. In questa maniera è assicurata la corretta qualità di marcia dei treni ad alta velocità. La sovrastruttura ferroviaria è realizzata in modo da sopportare i carichi dinamici trasmessi dai convogli transitanti a elevate velocità, e da garantire la sicurezza della circolazione e il comfort di marcia. In particolare, la qualità del binario ferroviario è determinata attraverso una serie di parametri geometrici fondamentali, definiti da Rete Ferroviaria Italiana. A seconda dei valori assunti da tali parametri, il binario rientra in un livello di qualità geometrica: sono definiti tre livelli per i quali la circolazione ferroviaria avviene senza limitazioni e un livello che richiede l’imposizione di vincoli all’esercizio (rallentamenti o interruzioni). L’introduzione dei parametri geometrici e dei rispettivi valori di riferimento ha lo scopo di mantenere elevati livelli qualitativi e di sicurezza per l’infrastruttura ferroviaria, in materia di geometria dell’armamento. Infatti, il superamento di certe soglie da parte dei parametri, implica l’intervento manutentivo sul binario, al fine di ripristinare la corretta geometria e di garantire così la qualità della marcia dei treni. La politica è quella d’intervento prima del raggiungimento del quarto livello di qualità, per il quale sono necessarie restrizioni alla circolazione e interventi correttivi immediati.
Resumo:
Il calore del sole diventa energia frigorifera sostenibile economicamente ed energticamente. Gli sviluppi tecnologici degli ultimi anni nel campo dell’energia solare consentono consentono di realizzare quanto apparentemente in contraddizione con i fondamentali teoremi della fisica classica ed in particolare della termodinamica. Questo elaborato vuole analizzare come, se e in quali casi sia conveniente l'installazione di un impianto di solar cooling per la climatizzazione estiva di un edificio. Partendo dal problema, sempre più attuale, dei crescenti consumi di energia elettrica per il condizionamento estivo degli edifici, dalla ricerca bibliografica è emerso come inizi a farsi strada, come soluzione percorribile e logicamente interessante, l’utilizzo dell’energia solare, fruttata in impianti che prendono il nome di impianti di solar cooling.
Resumo:
In molti sistemi di distribuzione idrici una percentuale significativa di acqua viene persa passando dagli impianti di trattamento alle utenze, a causa di danneggiamenti nei diversi componenti delle reti. Le perdite idriche sono un problema costoso, non solo in termini di spreco di una preziosa risorsa naturale, ma anche in termini economici. L’obiettivo principale di questo lavoro è stato quello di identificare possibili sviluppi per le attrezzature e metodi già esistenti al fine di rilevare in modo automatico perdite idriche in condotte in plastica. A questo proposito è stata studiata l’efficacia di metodi basati sull’analisi di vibrazioni e suoni. In particolare ci si è concentrati sull’uso di accelerometri e idrofoni e, successivamente, sull’uso di sensori di emissioni acustiche. Dopo una prima fase di ricerca approfondita sulla dinamica dei fenomeni vibro-acustici che si verificano nelle condotte, sulla teoria delle emissioni acustiche, sulla caratterizzazione di segnali di perdita in condotte in plastica e sulle principali attrezzature usate attualmente per l’individuazione delle perdite, si è passati alla fase sperimentale. La fase sperimentale può essere distinta in due parti. La prima ha avuto come obiettivo il confronto tra segnali acquisiti da accelerometro e idrofono relativamente all’efficacia nell’individuazione di perdite idriche mediante apposito algoritmo ed ha coinvolto numerosi test sul campo, eseguiti sotto condizioni controllate in un impianto di rilevamento perdite sperimentale, appositamente costruito, adiacente alla sede della Divisione Reti R & S di Hera a Forlì. La seconda fase, invece, ha avuto come obiettivo la determinazione dell’efficacia del metodo delle emissioni acustiche per l’individuazione di perdite idriche ed ha visto l’esecuzione di altrettanti test, eseguiti sotto condizioni controllate, in un impianto sperimentale più semplice del precedente.