164 resultados para DMTCP ULPM Checkpoint Restart Migrazione Processi Linux Sistemi Virtuali
Resumo:
Enzyveba, a partially characterized complex consortium of not-adapted microorganisms developed through prolonged stabilization of organic wastes, was found to markedly intensify the aerobic remediation of aged PAH- and PCB-contaminated soil by acting as a source of exogenous specialized microorganisms and nutrients. Thus, Enzyveba was tested in the bioremediation of Diesel (G1) and HiQ Diesel (G2) contaminated soils under aerobic slurry-phase conditions by means of a chemical, microbiological, ecotoxicological integrated analytical procedure. The addition of Enzyveba resulted in a higher availability of cultivable specialized bacteria and fungi but this resulted in a slight intensification of soil remediation, probably because of the high content of nutrients and specialized microorganisms of the soil. In many cases, the biotreatability of soils impacted by diesel fuel is limited by their poor content of autochthonous pollutant-degrading microorganisms. Thus, bioaugmentation with stable and reproducible cultures with the required broad substrate specificity might be the solution for a successful remediation. Two microbial consortia, ENZ-G1 and ENZ-G2, were enriched from Enzyveba on G1 and G2. Both consortia consist of a similar composition of bacterial and fungal species. They exhibited a comparable and significant biodegradation capability by removing about 90% of 1 g/l of diesel fuel under liquid culture conditions. Given their remarkable biodegradation potential, richness of quite diverse microbes, stability and resistance after cryopreservation at -20 °C for several months, both consortia appear very interesting candidates for bioaugmentation on site. The mycoflora of a soil historically contaminated by high concentration of PCBs was characterised before, at the beginning and at the end of the biotreatment mentioned above. Several mitosporic fungi isolated from soil grew in presence of a mixture of three PCBs congeners when also glucose was provided. This is the first study in which 5 strains of mitosporic species able to biodegrade PCB are reported in the literature.
Resumo:
Lo scopo di questa tesi di dottorato di ricerca consiste nel fornire la giusta collocazione della manutenzione fra le discipline dell'ingegneria, raccogliendo e formalizzando le metodologie di analisi di affidabilità e di pianificazione degli interventi all'interno di un unico processo di progettazione e di controllo. In linea di principio, un processo di analisi dei guasti e di programmazione della manutenzione deve essere in grado di fornire chiare e sicure risposte ai seguenti interrogativi: Quali sono le funzioni richieste e con quali criteri di prestazioni il sistema è chiamato ad assolverle? Qual'è l'andamento della disponibilità del sistema in funzione del tempo? Quanti guasti e di quale tipo si possono verificare durante la vita del sistema? Quali possono essere le conseguenze che ledono la sicurezza e la protezione ambientale? Quanti pezzi di ricambio sono necessari? Che tipo di interventi di manutenzione preventiva risultano tecnicamente fattibili? A quali scadenze devono essere programmati? A quanto ammonta la previsione del costo di esercizio del sistema? Quante squadre di manutenzione devono essere assegnate al sistema? Come deve essere organizzata la logistica di manutenzione? Con quali tecniche si prevede di riconoscere i guasti e quali procedure devono essere attivate per farvi fronte? E' possibile implementare tecniche di `condition monitoring' delle macchine? Su quali tempi di preavviso sui guasti si può contare? In tal senso, la manutenzione necessita delle tecniche e degli opportuni strumenti che siano in grado di misurarne l'efficacia e l'efficienza. L'efficacia in primo luogo, in quanto l'obiettivo principe consiste nel garantire che il sistema oggetto di studio continui a svolgere le proprie funzioni nei limiti di prestazioni accettabili, secondo le specifiche richieste degli utilizzatori. L'efficienza in secondo luogo, ma non per questo di minore importanza, in quanto perseguendo l'obiettivo di cui sopra, occorre impegnare il minimo di risorse possibili, organizzando con razionalità il supporto logistico del sistema al fine di raggiungere i massimi livelli di rendimento di gestione. La migliore strategia di manutenzione può essere pianificata, a priori, solo se si è in grado di prevedere con la necessaria precisione l'evoluzione del sistema nel suo contesto operativo futuro. E' allora possibile formulare un modello matematico del sistema, studiarne la dinamica ed osservare le reazioni alla simulazione di eventuali stimoli esterni. I metodi ed i modelli noti dell'ingegneria dei sistemi possono essere molto utili per la risoluzione di casi semplici, ma sovente richiedono la formulazione di ipotesi troppo restrittive che aumentano in modo inaccettabile la distanza del modello dalla realtà. Una strada alternativa ed affascinante, che ho percorso con entusiasmo durante questi tre anni di studi e ricerca, consiste nella simulazione numerica della vita del sistema, utilizzando il metodo Monte Carlo per la gestione dei processi stocastici di guasto e per l'esecuzione degli interventi di manutenzione. Ho quindi messo a punto il codice di simulazione RAMSES, perseguendo l'idea di costruire uno strumento di misura dell'efficacia e dell'efficienza di una politica di manutenzione simulata al calcolatore. Nella tesi si presentano i concetti di base dell'ingegneria dei sistemi applicata al caso della manutenzione e si introduce il formalismo della Reliability Centred Maintenance come miglior guida nella pianificazione delle schede di manutenzione. Si introducono le nozioni di base per fornire una struttura solida e corretta alla simulazione numerica dei sistemi riparabili e si presenta il codice RAMSES corredando le informazioni tecniche con i dovuti esempi ed applicazioni pratiche. Si conclude il lavoro, infine, con la presentazione di un modello di massima verosimiglianza particolarmente utile per le analisi dei dati sperimentali di guasto dei componenti.
Resumo:
Nei processi di progettazione e produzione tramite tecnologie di colata di componenti in alluminio ad elevate prestazioni, risulta fondamentale poter prevedere la presenza e la quantità di difetti correlabili a design non corretti e a determinate condizioni di processo. Fra le difettologie più comuni di un getto in alluminio, le porosità con dimensioni di decine o centinaia di m, note come microporosità, hanno un impatto estremamente negativo sulle caratteristiche meccaniche, sia statiche che a fatica. In questo lavoro, dopo un’adeguata analisi bibliografica, sono state progettate e messe a punto attrezzature e procedure sperimentali che permettessero la produzione di materiale a difettologia e microstruttura differenziata, a partire da condizioni di processo note ed accuratamente misurabili, che riproducessero la variabilità delle stesse nell’ambito della reale produzione di componenti fusi. Tutte le attività di progettazione delle sperimentazioni, sono state coadiuvate dall’ausilio di software di simulazione del processo fusorio che hanno a loro volta beneficiato di tarature e validazioni sperimentali ad hoc. L’apparato sperimentale ha dimostrato la propria efficacia nella produzione di materiale a microstruttura e difettologia differenziata, in maniera robusta e ripetibile. Utilizzando i risultati sperimentali ottenuti, si è svolta la validazione di un modello numerico di previsione delle porosità da ritiro e gas, ritenuto ad oggi allo stato dell’arte e già implementato in alcuni codici commerciali di simulazione del processo fusorio. I risultati numerici e sperimentali, una volta comparati, hanno evidenziato una buona accuratezza del modello numerico nella previsione delle difettologie sia in termini di ordini di grandezza che di gradienti della porosità nei getti realizzati.
Resumo:
L’attività di ricerca contenuta in questa tesi si è concentrata nello sviluppo e nell’implementazione di tecniche per la co-simulazione e il co-progetto non lineare/elettromagnetico di sistemi wireless non convenzionali. Questo lavoro presenta un metodo rigoroso per considerare le interazioni tra due sistemi posti sia in condizioni di campo vicino che in condizioni di campo lontano. In sostanza, gli effetti del sistema trasmittente sono rappresentati da un generatore equivalente di Norton posto in parallelo all’antenna del sistema ricevente, calcolato per mezzo del teorema di reciprocità e del teorema di equivalenza. La correttezza del metodo è stata verificata per mezzo di simulazioni e misure, concordi tra loro. La stessa teoria, ampliata con l’introduzione degli effetti di scattering, è stata usata per valutare una condizione analoga, dove l’elemento trasmittente coincide con quello ricevente (DIE) contenuto all’interno di una struttura metallica (package). I risultati sono stati confrontati con i medesimi ottenibili tramite tecniche FEM e FDTD/FIT, che richiedono tempi di simulazione maggiori di un ordine di grandezza. Grazie ai metodi di co-simulazione non lineari/EM sopra esposti, è stato progettato e verificato un sistema di localizzazione e identificazione di oggetti taggati posti in ambiente indoor. Questo è stato ottenuto dotando il sistema di lettura, denominato RID (Remotely Identify and Detect), di funzioni di scansione angolare e della tecnica di RADAR mono-pulse. Il sistema sperimentale, creato con dispositivi low cost, opera a 2.5 GHz ed ha le dimensioni paragonabili ad un normale PDA. E’ stato sperimentata la capacità del RID di localizzare, in scenari indoor, oggetti statici e in movimento.
Resumo:
L’utilizzo del reservoir geotermico superficiale a scopi termici / frigoriferi è una tecnica consolidata che permette di sfruttare, tramite appositi “geoscambiatori”, un’energia presente ovunque ed inesauribile, ad un ridotto prezzo in termini di emissioni climalteranti. Pertanto, il pieno sfruttamento di questa risorsa è in linea con gli obiettivi del Protocollo di Kyoto ed è descritto nella Direttiva Europea 2009/28/CE (Comunemente detta: Direttiva Rinnovabili). Considerato il notevole potenziale a fronte di costi sostenibili di installazione ed esercizio, la geotermia superficiale è stata sfruttata già dalla metà del ventesimo secolo in diversi contesti (geografici, geologici e climatici) e per diverse applicazioni (residenziali, commerciali, industriali, infrastrutturali). Ciononostante, solo a partire dagli anni 2000 la comunità scientifica e il mercato si sono realmente interessati ed affacciati all’argomento, a seguito di sopraggiunte condizioni economiche e tecniche. Una semplice ed immediata dimostrazione di ciò si ritrova nel fatto che al 2012 non esiste ancora un chiaro riferimento tecnico condiviso a livello internazionale, né per la progettazione, né per l’installazione, né per il testing delle diverse applicazioni della geotermia superficiale, questo a fronte di una moltitudine di articoli scientifici pubblicati, impianti realizzati ed associazioni di categoria coinvolte nel primo decennio del ventunesimo secolo. Il presente lavoro di ricerca si colloca all’interno di questo quadro. In particolare verranno mostrati i progressi della ricerca svolta all’interno del Dipartimento di Ingegneria Civile, Ambientale e dei Materiali nei settori della progettazione e del testing dei sistemi geotermici, nonché verranno descritte alcune tipologie di geoscambiatori innovative studiate, analizzate e testate nel periodo di ricerca.
Resumo:
Nell’ambito della Chimica Sostenibile e dell’applicazione dei suoi principi per la salvaguardia dell’ambiente, il progetto di dottorato ha riguardato lo sviluppo di materiali innovativi e lo studio della loro interazione con sistemi biologici e biomimetici. In particolare l’attività si è focalizzata sulla sintesi di liquidi ionici ed indagini delle interazioni con membrane cellulari e sull’utilizzo ed isolamento di molecole da fonti rinnovabili. I liquidi ionici sono sali organici liquidi a temperature inferiori ai 100 °C; sono considerati promettenti solventi a ridotta tossicità, ma vanno chiarite a pieno le modalità di interazione con i sistemi biologici ed i meccanismi di tossicità. A questo scopo è stata impiegata una batteria di test bio-chimici, con saggi di fluorescenza e colorimetrici, che hanno permesso di discriminare le diverse tipologie di interazioni con varie strutture di membrana. Le informazioni raccolte sono servite per progettare sostanze meno dannose per le strutture cellulari, al fine di scegliere le funzionalità molecolari che consentano ai liquidi ionici di mantenere la loro attività ma di essere meno dannosi per l’ambiente. Per quanto riguarda l’utilizzo ed isolamento di molecole da fonte rinnovabili, si è utilizzata la tecnica della pirolisi per l’ottenimento di starting materials ed il loro impiego nella sintesi di chemicals in alternativa a composti derivanti da fonti fossili. La pirolisi tradizionale della cellulosa fornisce una molecola interessante, per semplicità denominata LAC, in quantità insufficienti ad un uso applicativo. Nell’ambito delle ricerche svolte è stato scoperto che la pirolisi condotta in presenza di catalizzatori meso-strutturati (MCM-41) drogati con metalli di transizione, fornisce buone quantità di LAC. LAC si è dimostrato promettente sia per la produzione di nuove molecole con possibili applicazioni nella chimica fine e farmaceutica, che come monomero per nuovi polimeri (copolimero ed omopolimero).
Resumo:
La ricerca inquadra all’interno dell’opera dell’autore, lo specifico tema della residenza. Esso costituisce il campo di applicazione del progetto di architettura, in cui più efficacemente ricercare i tratti caratteristici del metodo progettuale dell’architetto, chiave di lettura dello studio proposto. Il processo che giunge alla costituzione materiale dell’architettura, viene considerato nelle fasi in cui è scomposto, negli strumenti che adotta, negli obbiettivi che si pone, nel rapporto con i sistemi produttivi, per come affronta il tema della forma e del programma e confrontato con la vasta letteratura presente nel pensiero di alcuni autori vicini a Ignazio Gardella. Si definiscono in tal modo i tratti di una metodologia fortemente connotata dal realismo, che rende coerente una ricerca empirica e razionale, legata ad un’idea di architettura classica, di matrice illuministica e attenta alle istanze della modernità, all’interno della quale si realizza l’eteronomia linguistica che caratterizza uno dei tratti caratteristici delle architetture di Ignazio Gardella; aspetto più volte interpretato come appartenenza ai movimenti del novecento, che intersecano costantemente la lunga carriera dell’architetto. L’analisi dell’opera della residenza è condotta non per casi esemplari, ma sulla totalità dei progetti che si avvale anche di contributi inediti. Essa è intesa come percorso di ricerca personale sui processi compositivi e sull’uso del linguaggio e permette un riposizionamento della figura di Gardella, in relazione al farsi dell’architettura, della sua realizzazione e non alla volontà di assecondare stili o norme a-priori. E’ la dimensione pratica, del mestiere, quella che meglio si presta all’interpretazione dei progetti di Gardella. Le residenze dell’architetto si mostrano per la capacità di adattarsi ai vincoli del luogo, del committente, della tecnologia, attraverso la re-interpretazione formale e il trasferimento da un tema all’altro, degli elementi essenziali che mostrano attraverso la loro immagine, una precisa idea di casa e di architettura, non autoriale, ma riconoscibile e a-temporale.
Resumo:
Lo studio svolto in merito alle tecniche di produzione di componenti strutturali in materiale composito ha permesso il raggiungimento di una precisa consapevolezza dello stato dell’arte del settore, in particolare in riferimento ai processi attualmente utilizzati per l’industrializzazione in media-grande serie. Con l’obiettivo di sintetizzare i principali vantaggi delle tecnologie suddette e permettere la realizzazione di forme più complesse, si è proceduto all’analisi di fattibilità, attraverso uno studio funzionale e una prima progettazione di una tecnologia di produzione per nastratura automatizzata di componenti strutturali in materiale composito. Si è voluto quindi dimostrare la flessibilità e la consistenza del processo disegnando un telaio nastrato in carbonio, intercambiabile al telaio FSAE 2009 in tubolare d’acciaio (stessi punti di attacco motore, punti di attacco telaietto posteriore, attacchi sospensioni anteriori) e che garantisca un sostanziale vantaggio in termini di peso, a pari rigidezza torsionale. La caratterizzazione di tale telaio è stata eseguita mediante l'utilizzo del calcolo strutturale, validato da prove sperimentali.
Resumo:
Questa dissertazione tratterà l’argomento dello studio di metodi di progettazione e processi tecnologici innovativi per l’industrializzazione in medio-grande serie di componenti strutturali in materiale composito. L’interesse della ricerca verso questo ambito è suscitato dai notevoli vantaggi che l’utilizzo di materiali dall’alto rapporto prestazioni meccaniche/peso danno nella ricerca di elevate prestazioni in applicazioni sportive e diminuzione dei consumi ed emissioni inquinanti in mezzi di trasporto di grande serie. Lo studio di componenti in materiale composito è caratterizzato dalla peculiarità di non poter disgiungere la progettazione della geometria della parte da quella del materiale e del processo, ed in questo senso nella figura del progettista si vanno a riassumere sinergicamente competenze riguardanti i tre ambiti. Lo scopo di questo lavoro è la proposizione di una metodologia di progettazione e produzione di componenti strutturali che permetta l’utilizzazione ottimale della natura fibrosa del materiale composito sia dal punto di vista del trasferimento dei carichi tra diversi componenti, sia dal punto di vista del processo di laminazione che avviene per nastratura automatizzata. Lo studio è volto a mostrare in quali termini tale tecnologia sia potenzialmente in grado di superare i vincoli di forma ed i limiti di efficienza meccanica delle giunzioni tra le parti e di garantire maggiore produttività e costi inferiori rispetti ai diversi metodi di produzione che rappresentano oggi lo stato dell’arte dell’industrializzazione in medio-grande serie. Particolare attenzione verrà posta sull’utilizzo della tecnologia oggetto di studio per la produzione di telai automobilistici.
Resumo:
Mitochondria have a central role in energy supply in cells, ROS production and apoptosis and have been implicated in several human disease and mitochondrial dysfunctions in hypoxia have been related with disorders like Type II Diabetes, Alzheimer Disease, inflammation, cancer and ischemia/reperfusion in heart. When oxygen availability becomes limiting in cells, mitochondrial functions are modulated to allow biologic adaptation. Cells exposed to a reduced oxygen concentration readily respond by adaptive mechanisms to maintain the physiological ATP/ADP ratio, essential for their functions and survival. In the beginning, the AMP-activated protein kinase (AMPK) pathway is activated, but the responsiveness to prolonged hypoxia requires the stimulation of hypoxia-inducible factors (HIFs). In this work we report a study of the mitochondrial bioenergetics of primary cells exposed to a prolonged hypoxic period . To shine light on this issue we examined the bioenergetics of fibroblast mitochondria cultured in hypoxic atmospheres (1% O2) for 72 hours. Here we report on the mitochondrial organization in cells and on their contribution to the cellular energy state. Our results indicate that prolonged hypoxia cause a significant reduction of mitochondrial mass and of the quantity of the oxidative phosphorylation complexes. Hypoxia is also responsible to damage mitochondrial complexes as shown after normalization versus citrate synthase activity. HIF-1α plays a pivotal role in wound healing, and its expression in the multistage process of normal wound healing has been well characterized, it is necessary for cell motility, expression of angiogenic growth factor and recruitment of endothelial progenitor cells. We studied hypoxia in the pathological status of diabetes and complications of diabetes and we evaluated the combined effect of hyperglycemia and hypoxia on human dermal fibroblasts (HDFs) and human dermal micro-vascular endothelial cells (HDMECs) that were grown in high glucose, low glucose concentrations and mannitol as control for the osmotic challenge.
Resumo:
Recenti analisi sull’intero trascrittoma hanno rivelato una estensiva trascrizione di RNA non codificanti (ncRNA), le quali funzioni sono tuttavia in gran parte sconosciute. In questo lavoro è stato dimostrato che alte dosi di camptotecina (CPT), un farmaco antitumorale inibitore della Top1, aumentano la trascrizione di due ncRNA antisenso in 5’ e 3’ (5'aHIF-1α e 3'aHIF-1α rispettivamente) al locus genico di HIF-1α e diminuiscono i livelli dell’mRNA di HIF-1α stesso. Gli effetti del trattamento sono Top1-dipendenti, mentre non dipendono dal danno al DNA alla forca di replicazione o dai checkpoint attivati dal danno al DNA. I ncRNA vengono attivati in risposta a diversi tipi di stress, il 5'aHIF-1α è lungo circa 10 kb e possiede sia il CAP in 5’ sia poliadenilazione in 3’ (in letteratura è noto che il 3'aHIF-1α è un trascritto di 1,7 kb, senza 5’CAP né poliadenilazione). Analisi di localizzazione intracellulare hanno dimostrato che entrambi sono trascritti nucleari. In particolare 5'aHIF-1α co-localizza con proteine del complesso del poro nucleare, suggerendo un suo possibile ruolo come mediatore degli scambi della membrana nucleare. È stata dimostrata inoltre la trascrizione dei due ncRNA in tessuti di tumore umano del rene, evidenziandone possibili ruoli nello sviluppo del cancro. È anche noto in letteratura che basse dosi di CPT in condizioni di ipossia diminuiscono i livelli di proteina di HIF-1α. Dopo aver dimostrato su diverse linee cellulari che i due ncRNA sopracitati non potessero essere implicati in tale effetto, abbiamo studiato le variazioni dell’intero miRnoma alle nuove condizioni sperimentali. In tal modo abbiamo scoperto che il miR-X sembra essere il mediatore molecolare dell’abbattimento di HIF-1α dopo trattamento con basse dosi di CPT in ipossia. Complessivamente, questi risultati suggeriscono che il fattore di trascrizione HIF-1α venga finemente regolato da RNA non-codificanti indotti da danno al DNA.
Resumo:
Nell’attuale contesto, caratterizzato da un’elevata attenzione alla qualità e alla sicurezza degli alimenti e alle soluzioni tese a garantirli, l’implementazione di sistemi microelettronici per il controllo del prodotto attraverso supporti miniaturizzati e a basso costo può risultare un’opportunità strategica. Oggetto della ricerca di dottorato sono stati lo studio dell’utilizzo di sensori e strumentazione innovativi per la misurazione ed il controllo di parametri ambientali di conservazione di prodotti alimentari e per la loro identificazione mediante la tecnologia della radiofrequenza. Allo scopo è stato studiato il contesto in cui operano gli attori principali della filiera agroalimentare ed è stata sviluppata un’idea di etichetta progettata per essere in grado di emettere attivamente segnale di allarme in caso di necessità (etichetta RFID intelligente semi-passiva). Il prototipo di chip, realizzato in via sperimentale, è stato validato positivamente, sia come strumento di misura, sia in termini di prestazione nel caso studio del monitoraggio della conservazione di un prodotto alimentare in condizioni controllate di temperatura e radiazione luminosa. Le significative evidenze analitiche di reazioni di degradazione dello stato qualitativo del prodotto, quali analisi di pH e colore, raccolte durante il periodo di osservazione di 64 giorni, hanno trovato riscontro con le misure rilevate dal chip prototipo. I risultati invitano ad individuare un partner industriale, con il quale sperimentare l’applicazione della tecnologia proposta.