936 resultados para funzione di massa, galassie, star-formig, quiescenti, modelli semi-analitici, Schechter, densità numerica, downsizing
Resumo:
La minaccia derivante da fattori di rischio esterni, come gli eventi catastrofici naturali, è stata recentemente riconosciuta come una questione importante riguardo la sicurezza degli impianti chimici e di processo. Gli incidenti causati dal rilascio di sotanze pericolose in seguito al danneggiamento di apparecchiature per effetto di eventi naturali sono stati definiti eventi NaTech, data la doppia componente naturale e tecnologica. È proprio la simultaneità del disastro naturale e dell’incidente tecnologico il problema principale di questo tipo di eventi, che, oltre a generare elevate difficoltà nella gestione delle emergenze, sono caratterizzati da un’elevata criticità in quanto la catastrofe naturale può essere la causa del cedimento contemporaneo di più apparecchiature in zone diverse dell’impianto. I cambiamenti climatici in corso porteranno inoltre ad un incremento della frequenza degli eventi idrometerologici estremi, con un conseguente aumento del rischio Natech. Si tratta quindi di un rischio emergente la cui valutazione deve essere effettuata attraverso metodologie e strumenti specifici. Solo recentemente è stato proposto un framework per la valutazione quantitativa di questo tipo di rischio. L’applicazione di tale procedura passa attraverso l’utilizzo di modelli di vulnerabilità che relazionano la probabilità di danneggiamento di una specifica apparecchiatura all’intensità dell’evento naturale di riferimento. Questo elaborato, facendo riferimento ai modelli di vulnerabilità e alle cartteristiche delle apparecchiature prese in esame, avrà inizialmente lo scopo di sviluppare una procedura a ritroso, calcolando l’intensità degli eventi di riferimento (terremoti e alluvioni) capace di causare un incremento di rischio non accettabile, al fine di poter determinare a priori se una data apparecchiatura con determinate condizioni operative e caratteristiche strutturali possa o meno essere installata in una zona specifica.
Resumo:
La produzione ontologica è un processo fondamentale per la crescita del Web Semantico in quanto le ontologie rappresentano i vocabolari formali con cui strutturare il Web of Data. Le notazioni grafiche ontologiche costituiscono il mezzo ideale per progettare ontologie OWL sensate e ben strutturate. Tuttavia la successiva fase di generazione ontologica richiede all'utente un fastidioso cambio sia di prospettiva sia di strumentazione. Questa tesi propone dunque GraMOS, Graffoo to Manchester OWL Syntax, un motore di trasformazione da modelli Graffoo a ontologie formali in grado di fondere le due fasi di progettazione e generazione ontologica.
Resumo:
Con il seguente elaborato si vuole evidenziare il percorso seguito per progettare e realizzare una macchina automatica adibita all’applicazione del sigillo di anti effrazione sulle diverse confezioni di farmaci presenti nel mercato farmaceutico. Obiettivo dunque del lavoro che viene presentato è quello di esplicitare e motivare le diverse scelte fatte in campo progettuale, grazie alle quali si è giunti alla realizzazione vera e propria della macchina in tutte le sue componenti e alla vendita di quest’ultima ad una casa farmaceutica del torinese. L’elaborato è così suddiviso: nella prima parte verrà descritta l’azienda demandante del progetto, la sua attività ed il suo campo di ricerca. Seguirà poi la descrizione dell’operazione per cui la macchina è stata concepita, i requisiti minimi di produttività che quest’ultima deve avere, e il campo di utilizzo. Nella seconda parte verranno presentati i vari gruppi che compongono la macchina, esplicitando la loro funzione, gli studi e le scelte fatte per la loro realizzazione, portando foto e disegni CAD dei componenti. Verranno poi descritti gli accorgimenti per la corretta installazione della macchina ed in fine verranno descritte le operazioni di collaudo effettuate sulla macchina, quali SAT (Site Acceptance Tests - Collaudo del sistema presso l’Utilizzatore) e FAT (Factory Acceptance Tests - Collaudo del sistema presso il costruttore)
Resumo:
La tricuspide è la valvola meno studiata tra quelle cardiache e per questo motivo le conoscenze su questa sono in genere approssimative. Le poche conoscenze sulla valvola, inoltre, non garantiscono una elevata percentuale di successo di un intervento chirurgico. Fino a qualche anno fa i parametri utilizzati per studiare la valvola e determinare il grado di severità delle patologie che la colpiscono (insufficienza e stenosi) erano ricavati da immagini ecografie bidimensionali. Questi però molto spesso risultano inadeguati. Così i ricercatori, negli ultimi tempi, hanno elaborato metodi che utilizzano l’ecocardiografia tridimensionale anche per la valvola tricuspide (prima l’ecocardiografia in clinica era utilizzata per valutare le valvole della parte sinistra del cuore) e si sono potuti così rivalutare i parametri precedentemente ricavati con analisi bidimensionale. Tutto ciò ha avuto ricadute positive sulla terapia chirurgica che si è potuta avvalere di protesi valvolari più fisiologiche derivate dalle più precise conoscenze anatomiche e funzionali con ovvie conseguenze positive sul benessere dei pazienti trattati. Naturalmente questi sono solamente i primi passi che la ricerca ha compiuto in questo campo e si prospettano nuovi sviluppi soprattutto per quanto riguarda il software che dovrebbe essere implementato in modo tale che lo studio della valvola tricuspide diventi di routine anche nella pratica clinica. In particolare, lo studio della valvola tricuspide mediante eco 3D consentirebbe anche la valutazione pre- operatoria ed il planning paziente-specifico dell'intervento da effettuare. In particolare questo elaborato prevede nel capitolo 1 la trattazione dell’anatomia e della fisiologia della valvola, nel capitolo 2 la descrizione delle patologie che colpiscono la tricuspide, nel capitolo 3 i parametri che si possono ricavare con esami strumentali e in particolare con ecocardiografia bidimensionale e infine nel capitolo 4 lo studio della valvola tricuspide con ecocardiografia tridimensionale.
Resumo:
In questo eleborato viene presentato uno studio focalizzato sull’ottimizzazione della geometria dei microcanali di un dissipatore di calore, con lo scopo di fornire una serie di relazioni operative e quindi direttamente utilizzabili per la progettazione di tali dispositivi. Alla definizione delle tradizionali funzioni obiettivo, legate ai Performance Evaluation Criteria (PEC), è stata aggiunta un’analisi dal punto di vista del secondo principio della termodinamica, per valutare l’entropia generata da un flusso fluido in un canale. Normalizzando l’entropia generata si è passati all’utilizzo di un numero di generazione entropica adimensionale e quindi più adatto alla valutazione delle prestazioni. Dopo una prima fase di analisi dal punto di vista fisico, il modello è stato applicato a casi concreti, in cui funzione obiettivo e numero di generazione entropica sono stati espressi in dipendenza dell’incognita geometrica da valutare. Inoltre, è stato approfondito anche il caso in cui non siano trascurabili gli effetti di dissipazione viscosa, che possono effettivamente incidere in modo determinante sullo scambio termico, soprattutto alle microscale.
Resumo:
Vista la necessità di migliorare le prestazioni sismiche delle costruzioni, in particolare di quelle prefabbricate, in questa tesi è stato studiato il comportamento di un particolare tipo di collegamento fra pilastro prefabbricato e plinto di fondazione, proposto e utilizzato dalla ditta APE di Montecchio Emilia. Come noto, l'assemblaggio degli elementi prefabbricati pone il problema delle modalità di collegamento nei nodi, le quali condizionano il comportamento statico e la risposta al sisma dell'insieme strutturale. Per studiare il comportamento del collegamento in questione, sono state effettuate delle prove di pressoflessione ciclica su due provini. Inoltre, sono stati sviluppati dei modelli numerici con l'obiettivo di simulare il comportamento reale. Si è utilizzato il software Opensees (the Open System for Earthquake Engineering Simulation), creato per la simulazione sismica delle strutture.
Resumo:
Il seguente lavoro di tesi è stato svolto in Hera S.p.A. Il caso di studio riguarda il passaggio dalla bolletta cartacea alla bolletta elettronica. In particolare, sono stati messi a confronto i due modelli di bollettazione attraverso l'analisi LCA. In seguito sono stati calcolati i risparmi energetici conseguiti, misurati in tep, attraverso i quali è stato possibile creare una proposta di scheda tecnica per la quantificazione dei risparmi di energia primaria.
Resumo:
Questo lavoro di tesi si è posto i seguenti obiettivi: - Analizzare come i singoli parametri infuenzano le prestazioni del modello, in maniera tale da capire su quali di essi il modello risulta essere più sensibile, al fine di ottimizzare le sue prestazioni; - Fare in modo che l'intervallo di confidenza del modello sia il più vicino possibile a quello dello strumento di misura utilizzato durante lo studio clinico \Socrathe(3 mmol/l). Riuscire a portare, infatti, la deviazione standard sull'errore globale ottenuta dal modello da 1,83 mmol/l a 1,50 mmol/l significa avere un IC95% uguale a quello dello strumento di misura; - Migliorare la predizione del modello negli istanti temporali in cui esso si discosta di più dal valore vero. Una volta messi in evidenza i parametri più significativi, grazie all'analisi di sensitività, si andrà ad effettuare una procedura di ottimizzazione di tali parametri al fine di minimizzare una funzione costo rappresentante il grado di scarto tra modello e realtà. La struttura della tesi consta di tre capitoli: il primo rigurda una introduzione alle funzioni del rene e alle terapie dialitiche, il secondo rigurda gli strumenti e i metodi utilizzato in questo lavoro, mentre il terzo capitolo illustra i risultati ottenuti.
Resumo:
La green chemistry può essere definita come l’applicazione dei principi fondamentali di sviluppo sostenibile, al fine di ridurre al minimo l’impiego o la formazione di sostanze pericolose nella progettazione, produzione e applicazione di prodotti chimici. È in questo contesto che si inserisce la metodologia LCA (Life Cycle Assessment), come strumento di analisi e di valutazione. Il presente lavoro di tesi è stato condotto con l’intenzione di offrire una valutazione degli impatti ambientali associati al settore dei processi chimici di interesse industriale in una prospettiva di ciclo di vita. In particolare, è stato studiato il processo di produzione di acroleina ponendo a confronto due vie di sintesi alternative: la via tradizionale che impiega propilene come materia prima, e l’alternativa da glicerolo ottenuto come sottoprodotto rinnovabile di processi industriali. Il lavoro si articola in due livelli di studio: un primo, parziale, in cui si va ad esaminare esclusivamente il processo di produzione di acroleina, non considerando gli stadi a monte per l’ottenimento delle materie prime di partenza; un secondo, più dettagliato, in cui i confini di sistema vengono ampliati all’intero ciclo produttivo. I risultati sono stati confrontati ed interpretati attraverso tre tipologie di analisi: Valutazione del danno, Analisi di contributo ed Analisi di incertezza. Dal confronto tra i due scenari parziali di produzione di acroleina, emerge come il processo da glicerolo abbia impatti globalmente maggiori rispetto al tradizionale. Tale andamento è ascrivibile ai diversi consumi energetici ed in massa del processo per l’ottenimento dell’acroleina. Successivamente, per avere una visione completa di ciascuno scenario, l’analisi è stata estesa includendo le fasi a monte di produzione delle due materie prime. Da tale confronto emerge come lo scenario più impattante risulta essere quello di produzione di acroleina partendo da glicerolo ottenuto dalla trans-esterificazione di olio di colza. Al contrario, lo scenario che impiega glicerolo prodotto come scarto della lavorazione di sego sembra essere il modello con i maggiori vantaggi ambientali. Con l’obiettivo di individuare le fasi di processo maggiormente incidenti sul carico totale e quindi sulle varie categorie d’impatto intermedie, è stata eseguita un’analisi di contributo suddividendo ciascuno scenario nei sotto-processi che lo compongono. È stata infine eseguita un’analisi di incertezza tramite il metodo Monte Carlo, verificando la riproducibilità dei risultati.
Resumo:
Viene analizzato il Cloud Computing, il suo utilizzo, i vari tipi di modelli di servizio. L'attenzione poi vira sul SLA (Service Level Agreement), contratti stipulati tra il provider e l'utente affinchè il servizio venga utilizzato al meglio e in modo sicuro rispettando le norme.Infine vengono analizzati la sicurezza, la privacy e l'accountability nel Cloud.
Resumo:
Una stella non è un sistema in "vero" equilibrio termodinamico: perde costantemente energia, non ha una composizione chimica costante nel tempo e non ha nemmeno una temperatura uniforme. Ma, in realtà, i processi atomici e sub-atomici avvengono in tempi così brevi, rispetto ai tempi caratteristici dell'evoluzione stellare, da potersi considerare sempre in equilibrio. Le reazioni termonucleari, invece, avvengono su tempi scala molto lunghi, confrontabili persino con i tempi di evoluzione stellare. Inoltre il gradiente di temperatura è dell'ordine di 1e-4 K/cm e il libero cammino medio di un fotone è circa di 1 cm, il che ci permette di assumere che ogni strato della stella sia uno strato adiabatico a temperatura uniforme. Di conseguenza lo stato della materia negli interni stellari è in una condizione di ``quasi'' equilibrio termodinamico, cosa che ci permette di descrivere la materia attraverso le leggi della Meccanica Statistica. In particolare lo stato dei fotoni è descritto dalla Statistica di Bose-Einstein, la quale conduce alla Legge di Planck; lo stato del gas di ioni ed elettroni non degeneri è descritto dalla Statistica di Maxwell-Boltzmann; e, nel caso di degenerazione, lo stato degli elettroni è descritto dalla Statistica di Fermi-Dirac. Nella forma più generale, l'equazione di stato dipende dalla somma dei contributi appena citati (radiazione, gas e degenerazione). Vedremo prima questi contributi singolarmente, e dopo li confronteremo tra loro, ottenendo delle relazioni che permettono di determinare quale legge descrive lo stato fisico di un plasma stellare, semplicemente conoscendone temperatura e densità. Rappresentando queste condizioni su un piano $\log \rho \-- \log T$ possiamo descrivere lo stato del nucleo stellare come un punto, e vedere in che stato è la materia al suo interno, a seconda della zona del piano in cui ricade. È anche possibile seguire tutta l'evoluzione della stella tracciando una linea che mostra come cambia lo stato della materia nucleare nelle diverse fasi evolutive. Infine vedremo come leggi quantistiche che operano su scala atomica e sub-atomica siano in grado di influenzare l'evoluzione di sistemi enormi come quelli stellari: infatti la degenerazione elettronica conduce ad una massa limite per oggetti completamente degeneri (in particolare per le nane bianche) detta Massa di Chandrasekhar.
Resumo:
In questa tesi si cercherà di passare in rassegna le caratteristiche fondamentali dei principali tipi galattici. Dopo un breve ex-cursus storico, si passerà al primo capitolo, nel quale si osserverà come le prime catalogazioni si siano basate sulla morfologia di questi oggetti. Si cercherà quindi di mostrare come molte grandezze fisiche siano strettamente legate all’aspetto che questi oggetti celesti mostrano. Nel secondo capitolo verranno trattate le principali caratteristiche fotometriche: si mostreranno isofote di galassie ellittiche, si accennerà al fenomeno dell’isophotal twist, si introdurranno diversi profili di brillanza, sia per galassie ellittiche che per galassie a spirale. Nel terzo ed ultimo capitolo si tratteranno le caratteristiche cinematiche dei due principali tipi galattici. Riusciremo, a questo punto, a trovare una relazione tra l’isophotal twist e le caratteristiche cinematiche delle galassie ellittiche. Dopo aver introdotto il concetto di dispersione di velocità, sarà possibile introdurre brevemente il piano fondamentale, importante relazione tra le caratteristiche principali delle galassie ellittiche. Si discuterà infine della particolare curva di rotazione delle galassie a spirale, la cui velocità si mantiene costante ben oltre i limiti di quanto si possa stimare osservando la materia visibile; questa peculiarità delle galassie a spirale ha portato direttamente all’idea che possa esserci della materia oscura in grado di esercitare una attrazione gravitazionale sulla materia ordinaria.
Resumo:
The aim of this work was to study the dense cloud structures and to obtain the mass distribution of the dense cores (CMF) within the NGC6357 complex, from observations of the dust continuum at 450 and 850~$\mu$m of a 30 $\times$ 30 arcmin$^2$ region containing the H\textsc{ii} regions, G353.2+0.9 and G353.1+0.6.
Resumo:
La Sindrome da Immunodeficienza Acquisita (AIDS o SIDA) causata da HIV-1 (Virus dell'Immunodeficienza umana) è caratterizzata dalla graduale compromissione del sistema immunitario del soggetto colpito. Le attuali terapie farmacologiche, purtroppo, non riescono a eliminare l'infezione a causa della comparsa di continui ceppi resistenti ai farmaci, e inoltre questi trattamenti non sono in grado di eliminare i reservoir virali latenti e permettere l'eradicazione definitiva del virus dall’organismo. E' in questo ambito che si colloca il progetto a cui ho lavorato principalmente in questi anni, cioè la creazione di una strategia per eradicare il provirus di HIV integrato nel genoma della cellula ospite. L'Integrasi di HIV-1 è un enzima che media l'integrazione del cDNA virale nel genoma della cellula ospite. La nostra idea è stata, quindi, quella di associare all'attività di legame dell'IN stessa, un'attività catalitica. A tal fine abbiamo creato una proteina chimerica costituita da un dominio DNA-binding, dato dall'Integrasi, e da un dominio con attività nucleasica fornito dall'enzima FokI. La chimera ottenuta è stata sottoposta a mutagenesi random mediante UV, ed è stata oggetto di selezione in vivo, al fine di ottenere una chimera capace di riconoscere, specificamente le LTR di HIV-1, e idrolizzare i siti di inserzione. Questo lavoro porterà a definire pertanto se l'IN di HIV può essere riprogrammata a catalizzare una nuova funzione mediante la sostituzione dell'attività del proprio dominio catalitico con quello di FokI.
Resumo:
Alcune patologie dell’occhio come la retinopatia diabetica, il pucker maculare, il distacco della retina possono essere curate con un intervento di vitrectomia. I rischi associati all’intervento potrebbero essere superati ricorrendo alla vitrectomia enzimatica con plasmina in associazione o in sostituzione della vitrectomia convenzionale. Inoltre, l’uso di plasmina autologa eviterebbe problemi di rigetto. La plasmina si ottiene attivando il plasminogeno con enzimi quali l’attivatore tissutale (tPA) e l’urochinasi ( uPA ) . La purificazione del plasminogeno dal sangue avviene normalmente attraverso cromatografia di affinità con resina. Tuttavia, le membrane di affinità costituiscono un supporto ideale per questa applicazione poiché possono essere facilmente impaccate prima dell’intervento, permettendo la realizzazione di un dispositivo monouso che fornisce un processo rapido ed economico. Obiettivo di questo lavoro è la preparazione di membrane di affinità per la purificazione del plasminogeno utilizzando L-lisina come ligando di affinità. Per questo scopo sono state usate membrane in cellulosa rigenerata ad attivazione epossidica, modificate con due diversi protocolli per l’immobilizzazione di L-lisina. La densità ligando è stata misurata mediante un saggio colorimetrico che usa l’acido arancio 7 come indicatore. La resa di immobilizzazione è stata studiata in funzione del tempo di reazione e della concentrazione di L-lisina. Le membrane ottimizzate sono state caratterizzate con esperimenti dinamici usando siero bovino e umano, i risultati sono stati confrontati con quelli ottenuti in esperimenti paralleli condotti con una resina commerciale di affinità con L-lisina. Durante gli esperimenti con siero, le frazioni provenienti da ogni fase cromatografica sono state raccolte e analizzate con HPLC ed elettroforesi SDS-PAGE. In particolare, l’elettroforesi dei campioni eluiti presenta una banda del plasminogeno ben definita indicando che le membrane di affinità con L-lisina sono adatte alla purificazione del plasminogeno. Inoltre, è emerso che le membrane hanno maggiore produttività della resina commerciale di riferimento.