998 resultados para Documentazione installazione banco prova analisi dati


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi di laurea nasce dall’esperienza maturata presso la VM Motori S.p.A., ufficio CRM (Centro Ricerca Motori) di ingegneria, divisione del reparto R&D (Research and Development) situato a Cento di Ferrara. Durante tale esperienza sono state affrontate le problematiche inerenti al settore automotive riguardo la ricerca e lo sviluppo dei motori endotermici diesel. Dopo un approccio introduttivo, che definisce l’ambito lavorativo in cui opera VM Motori S.p.A. e l’oggetto della tesi, si passa alla definizione ed alla calibrazione di un circuito low pressure EGR di un propulsore diesel da 200HP@3800rpm di potenza e 500Nm@1600rpm di coppia per uso automobilistico, mediante l’ausilio dei software AδαMO, INCA, Controldesk Next Generation, DoE, DIAdem ed INDICOM, software per lo studio della calibrazione al banco sviluppo. Si analizzano gli aspetti che contraddistinguono la VM Motori S.p.A. dalle altre aziende specializzate nel settore automotive, facendo riferimento ai campi produttivi in cui si applica l’ingegneria meccanica ed analizzandone gli aspetti tecnici, metodici e gestionali. Da notare il ruolo fondamentale delle automotive nell’economia mondiale in riferimento alla produzione dei principali propulsori diesel, primarie fonti produttive della VM.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nell'era di Internet e della digitalizzazione, anche la telefonia ha avuto la possibilità di evolversi, e grazie alle tecnologie Voice-over-IP è stato possibile realizzare servizi di comunicazione avanzata su reti di dati. Anche se la comunicazione vocale è l'aspetto chiave di questi sistemi, le reti VoIP supportano altri tipi di servizi, tra cui video, messaggistica istantanea, condivisione di file, ecc. Il successo di questa nuova tipologia di rete è dovuto ad una migliore flessibilità rispetto ai vecchi sistemi analogici, grazie ad architetture aperte e implementazioni a livello software, e soprattutto ad un minor costo legato alle apparecchiature ed ai collegamenti utilizzati, ed ai nuovi modelli di business e di consumo sempre più orientati allo sfruttamento della connettività a banda larga. Tuttavia, l'implementazione dei sistemi VoIP rappresenta anche un grado di complessità maggiore in termini di architetture di rete, di protocolli, e di implementazione, e con questo ne segue un incremento delle possibili vulnerabilità. Una falla nella sicurezza in questi sistemi può portare a disservizi e violazione della privacy per gli utenti con conseguenti ripercussioni economiche per i relativi gestori. La tesi analizza la sicurezza delle reti VoIP concentrandosi sul protocollo che sta alla base dei servizi multimediali, il protocollo SIP. SIP è un protocollo di livello applicativo realizzato per creare, modificare e terminare delle sessioni multimediali tra due o più utenti. Dopo un'introduzione alle generalità del protocollo, vengono esaminate le classi di vulnerabilità delle reti VoIP e gli attacchi a SIP, e vengono presentate alcune contromisure attuabili. Viene mostrato un esempio di come vengano attuati alcuni dei principali attacchi a SIP tramite l'utilizzo di appositi strumenti. L'eborato conclude con alcune considerazioni sulle minacce al protocollo e sugli obiettivi futuri che la comunità scientifica dovrebbe perseguire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi di dottorato è inserita nell’ambito della convenzione tra ARPA_SIMC (che è l’Ente finanziatore), l’Agenzia Regionale di Protezione Civile ed il Dipartimento di Scienze della Terra e Geologico - Ambientali dell’Ateneo di Bologna. L’obiettivo principale è la determinazione di possibili soglie pluviometriche di innesco per i fenomeni franosi in Emilia Romagna che possano essere utilizzate come strumento di supporto previsionale in sala operativa di Protezione Civile. In un contesto geologico così complesso, un approccio empirico tradizionale non è sufficiente per discriminare in modo univoco tra eventi meteo innescanti e non, ed in generale la distribuzione dei dati appare troppo dispersa per poter tracciare una soglia statisticamente significativa. È stato quindi deciso di applicare il rigoroso approccio statistico Bayesiano, innovativo poiché calcola la probabilità di frana dato un certo evento di pioggia (P(A|B)) , considerando non solo le precipitazioni innescanti frane (quindi la probabilità condizionata di avere un certo evento di precipitazione data l’occorrenza di frana, P(B|A)), ma anche le precipitazioni non innescanti (quindi la probabilità a priori di un evento di pioggia, P(A)). L’approccio Bayesiano è stato applicato all’intervallo temporale compreso tra il 1939 ed il 2009. Le isolinee di probabilità ottenute minimizzano i falsi allarmi e sono facilmente implementabili in un sistema di allertamento regionale, ma possono presentare limiti previsionali per fenomeni non rappresentati nel dataset storico o che avvengono in condizioni anomale. Ne sono esempio le frane superficiali con evoluzione in debris flows, estremamente rare negli ultimi 70 anni, ma con frequenza recentemente in aumento. Si è cercato di affrontare questo problema testando la variabilità previsionale di alcuni modelli fisicamente basati appositamente sviluppati a questo scopo, tra cui X – SLIP (Montrasio et al., 1998), SHALSTAB (SHALlow STABility model, Montgomery & Dietrich, 1994), Iverson (2000), TRIGRS 1.0 (Baum et al., 2002), TRIGRS 2.0 (Baum et al., 2008).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Progettazione dell'amplificatore, allestimento del banco di misure e misurazione del rumore di drain nei MOSFET di potenza

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Con gli strumenti informatici disponibili oggi per le industrie, in particolar modo coi software CAE, le possibile simulare in maniera più che soddisfacente i fenomeni fisici presenti in natura. Anche il raffreddamento di un manufatto in polimero può venire simulato, a patto che si conoscano tutti i dati dei materiali e delle condizioni al contorno. Per quanto riguarda i dati dei materiali, i produttori di polimeri sono molto spesso in grado di fornirli, mentre le condizioni al contorno devono essere padroneggiate dal detentore della tecnologia. Nella pratica, tale conoscenza è al più incompleta, quindi si fanno ipotesi per colmare le lacune. Una tra le ipotesi più forti fatte è quella di una perfetta conduzione all'interfaccia tra due corpi. Questo è un vincolo troppo forte, se paragonato alla precisione di tutti gli altri dati necessari alla simulazione, e quindi si è deciso di eseguire una campagna sperimentale per stimare la resistenza al passaggio flusso termico all'interfaccia polimero-stampo ovvero determinare la conduttanza termica di contatto. L'attività svolta in questa tesi di dottorato ha come scopo quello di fornire un contributo significativo allo sviluppo e al miglioramento dell'efficienza termica degli stampi di formatura dei polimeri termoplastici con tecnologia a compressione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Sommario Il polo chimico di Ferrara, situato nella periferia nord occidentale del territorio comunale, rappresenta un’area ad alta concentrazione di stabilimenti, ai sensi dell’art. 13 del D.Lgs. 334/99 e s.m.i., ovvero un’area in cui sono presenti diversi stabilimenti a rischio di incidente rilevante, così definiti in base alle caratteristiche di pericolosità e dei quantitativi delle sostanze chimiche presenti. Per tali aree la norma di legge prevede la realizzazione di uno Studio di Sicurezza Integrato d’Area o SSIA. Allo SSIA del polo chimico ferrarese è stato dato avvio nel corso del 2012, in seguito ad un accordo tra la Regione Emilia Romagna, l’Agenzia Regionale di Protezione Civile, la Provincia di Ferrara, l’Ufficio Territoriale del Governo, il Comune di Ferrara, la Direzione Regionale dei Vigili del Fuoco, l’Agenzia Regionale Prevenzione e Ambiente e le stesse aziende presenti nel polo. La realizzazione dello SSIA prevede 6 fasi: 1) la definizione dei criteri metodologici da adottare per l’analisi del rischio; 2) la raccolta e l’analisi critica dei dati necessari all'analisi del rischio; 3) l’individuazione e la caratterizzazione delle sorgenti di rischio; 4) l’analisi delle conseguenze e la stima della frequenza di accadimento degli scenari incidentali che possono scaturire da ogni sorgente di rischio; 5) la ricomposizione, per tutti gli scenari di ogni sorgente e per tutte le sorgenti, delle frequenze e delle conseguenze negli indici di rischio; 6) l’analisi e la valutazione dei risultati ottenuti, al fine di interventi eventuali interventi per la riduzione e la mitigazione del rischio stesso. Il presente lavoro di tesi si inserisce nello Studio di Sicurezza Integrato d’Area del polo chimico di Ferrara ed in particolare nelle fasi 2), 3) e 4) sopra citate. Esso ha preso avvio durante un tirocinio svolto presso l’Agenzia Regionale di Protezione Civile ed ha avuto ad oggetto il trasporto di sostanze pericolose via strada e ferrovia nell'area dello SSIA. Il lavoro di tesi è così strutturato: a valle del capitolo 1 avente carattere introduttivo, si è descritta nel dettaglio l’area oggetto dello SSIA, con particolare riferimento alle vie di trasporto delle sostanze pericolose (capitolo 2). Successivamente (capitolo 3) si è illustrata la metodologia utilizzata per effettuare il censimento dei dati di trasporto delle sostanze pericolose forniti dalle aziende del polo e si sono presentati i risultati ottenuti. Infine (capitolo 4) si è eseguita l’analisi delle conseguenze degli scenari incidentali associati al trasporto di alcune delle sostanze movimentate per strada e ferrovia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente elaborato ha ad oggetto la direttiva PED (Pressure Equipment Directive) relativa agli apparecchi a pressione. Tale norma è stata recepita in Italia con il D.Lgs. n. 93/2000 ed è entrata in vigore definitivamente nel 2002. Essa è finalizzata alla libera circolazione delle attrezzature a pressione nella comunità europea e ne disciplina la progettazione, la costruzione, l'equipaggiamento e l'installazione in sicurezza, definendo per ciascuna delle fasi sopra elencate quali siano i documenti da presentare, gli accorgimenti da rispettare e i controlli a cui sottostare. Il presente lavoro di tesi, svolto presso lo stabilimento di Ravenna di ENI Versalis, ha avuto l’obiettivo di individuare i punti di contatto fra quanto richiesto dalla direttiva PED e quanto solitamente emerge dall’applicazione delle tecniche per l’analisi di rischio, degli standard internazionali e aziendali e delle norme di buona tecnica. Il risultato del lavoro consiste nella definizione di un iter tecnico-procedurale standardizzato ad uso dell’utilizzatore delle attrezzature a pressione tramite la quale l’azienda possa procedere alla compilazione delle Note Tecniche destinate al fabbricante delle attrezzature stesse, secondo quanto richiesto dalla direttiva. Tali Note Tecniche devono contenere le indicazioni relative ai valori progettuali di temperatura e pressione e ai Requisiti Essenziali di Sicurezza (RES) che devono essere soddisfatti, permettendo così al fabbricante di poter svolgere una corretta analisi di rischio e all’utilizzatore di ottenere la massima sicurezza negli impianti. L’elaborato è strutturato come segue. Dopo il Capitolo 1, avente carattere introduttivo, nel Capitolo 2 vengono illustrate le principali novità introdotte dalla direttiva PED e descritti i punti cardine della procedura di valutazione della conformità richiesta per le attrezzature a pressione. Nel Capitolo 3 viene esaminata l’integrazione della direttiva PED con la direttiva Macchine e la direttiva ATEX. Nel Capitolo 4 sono descritte le principali tecniche di analisi di rischio che possono essere utilizzate per rispondere ai Requisiti Essenziali di Sicurezza (RES) richiesti in fase di compilazione della Nota Tecnica. Nel Capitolo 5 si fornisce una descrizione dettagliata dell’iter tecnico-procedurale messo a punto per la valutazione di conformità delle attrezzature e degli insiemi a pressione. Nel Capitolo 6 vengono illustrati ad uno ad uno i punti che devono essere presenti in una Nota Tecnica, ciascuno dei quali costituisce un Requisito Essenziale di Sicurezza. Nel Capitolo 7 viene approfondito uno dei Requisiti più critici, l’incendio esterno. Infine nel Capitolo 8 sono riportate le considerazioni conclusive.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il saggio, genere di confine (Grenzgänger-Textsorte) per eccellenza, la cui indefinibilità è topos, si profila tuttora come terra incognita nell’àmbito delle scienze della traduzione. La presente ricerca mira a enucleare un modello traduttologico olistico per la traduzione del saggio. In feconda alternativa alla dicotomia approccio ermeneutico-letterario vs. approccio linguistico, la prospettiva teorico-metodologica del lavoro integra linee di ricerca filologico-letterarie e linguistico-testuali. Tale sguardo multiprospettico, l’unico in grado di dar conto della complessità del genere, permette di collocare operativamente il saggio e le sue varianti testuali principali (Textsortenvarianten), dal saggio specialistico (fachlicher Essay) al saggio poetico (poetischer Essay) sul continuum delle forme testuali comprese entro le dimensioni (scientifica, pragmatica, estetica) del Denkhandeln. Dalla produttiva intersezione tra la riflessione dell’Essayforschung classica e contemporanea e le più recenti indagini linguistico-testuali sulle forme del saggismo scientifico, si perviene alla formulazione di una definitio per proprietates del saggio. Segue lo sviluppo di un modello traduttologico olistico, che tesaurizza il proprio paradigma antropologico, la riflessione filosofico-ermeneutica e le acquisizioni della linguistica testuale, articolandosi attraverso le fasi ricorsive e interagenti di ricezione olistica, analisi poetico-ermeneutica e retorico-stilistica, progettazione linguistico-cognitiva, formulazione e revisione. L’approccio olistico così delinatosi viene quindi vagliato nella sua proficuità in sede applicativa. Funge da banco di prova un vero e proprio “caso limite” per complessità e qualità letteraria, ovvero il «poetischer Essay» del poeta, saggista e traduttore Durs Grünbein, una delle voci più acclamate nel panorama contemporaneo. La sezione pratica presenta infine l’inedita traduzione italiana dei saggi grünbeiniani Den Körper zerbrechen e Die Bars von Atlantis.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente studio è stato progettato e articolato includendo tre approcci disciplinari sviluppati parallelamente al fine di ottenere dati etologici, endocrinologici, e respiratori riguardo cinque esemplari di trichecho del pacifico (Odobenus rosmarus) ospitati presso l’Oceanografic di Valencia. Il periodo di campionamento si è sviluppato in un lasso di tempo di 12 settimane durante le quali sono stati raccolti dati riguardo i tre ambiti di studio. La raccolta di dati etologici è stata effettuata per mezzo di supporto video il quale ha permesso di generare un totale di 72 ore di filmato. Attraverso l’analisi del materiale multimediale è stato possibile elaborare un catalogo comportamentale con annesso un catalogo video atto alla semplificazione di riconoscimento dei vari moduli comportamentali; la revisione della documentazione video è stata effettuata mediante il software Noldus “Observer 5.0” che si è resa necessaria per la quantificazione dei singoli comportamenti osservati durante il periodo di studio. Succesivamente i dati ottenuti sono stati sottoposti ad analisi statistica al fine di poter valutare le differenze e le analogie comportamentali dei due soggetti principali nell’arco della singola giornata e durante le dodici settimane di analisi. In concomitanza col campionamento video, si è proceduto ialla raccolta dei dati relativi ai pattern respiratori al fine di valutare la durata delle apnee in ambiente controllato. In seguito è stato effettuato un approccio endocrinologico al fine di valutare la possibilità di rilevare e quantificare glucorticoidi quali cortisolo, testosterone e progesterone presenti nei campioni. Si è ricorso alla raccolta di materiale salivare in alternativa al campionamento ematico in modo da stabilire l’effettiva efficacia del metodo. I campioni sono stati poi processati mediante RIA e i livelli ormonali ottenuti sono stati utilizzati per effettuare una comparazione con il manifestarsi dei moduli comportamentali osservati è analizzarne le correlazioni presenti e osservarne gli effetti sull’espressione etologica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi viene presentata un’analisi dettagliata sulla struttura di profili recettori di neuroni coinvolti nell’elaborazione visiva, con particolare attenzione per le cellule appartenenti alla corteccia visiva primaria (V1). Dopo aver illustrato brevemente il percorso effettuato dall’informazione visiva, costituito da retina, nucleo genicolato laterale e V1, vengono descritte la struttura e le principali caratteristiche di profili recettori dei neuroni appartenenti ad ognuno di questi livelli di elaborazione. Per modellare i profili recettori di cellule corticali in V1 si è deciso di utilizzare filtri bidimensionali realizzati mediante funzioni di Gabor nel dominio spaziale. Questo modello ha, infatti, il grande vantaggio di possedere alcune tra le maggiori proprietà dei profili recettori di neuroni appartenenti a V1: struttura del profilo recettore nello spazio (x,y), selettività in orientazione e in frequenza spaziale, indipendenza dalla fase dello stimolo. Viene successivamente presentato il concetto di campo di associazione visivo, mediante il quale sono determinate le caratteristiche principali (posizione spaziale ed orientazione) che diversi oggetti devono possedere per essere percepiti non come unità singole, ma come un unico elemento. I campi di associazione possono essere modellati mediante l’utilizzo del sistema di equazioni differenziali proposto da Citti-Sarti, le cui soluzioni sono curve integrali adatte a ricostruire la struttura dei campi di associazione, come proposti da Field, Hayes ed Hess. Diverse ipotesi sono state presentate su come cellule appartenenti a V1 siano in grado di realizzare simili campi di associazione, ed in particolare, da dove queste possano prendere le informazioni necessarie per farlo. Una di queste è quella sostenuta dai dati di Bosking et al., secondo i quali le connessioni intracorticali più fitte sono quelle tra neuroni non adiacenti tra loro, i cui profili recettori sono co-orientati (con la stessa orientazione preferenziale) e co-assiali (disposti lungo un asse del campo visivo che corrisponde all’orientazione preferenziale). L’analisi effettuata in questa tesi ha come obbiettivo proprio quello di ottenere informazioni utili su come cellule corticali siano legate alla fenomenologia dei campi di associazione. Come già detto, un filtro di Gabor bidimensionale può essere considerato un buon modello per profili recettori di questo tipo di cellule e quindi è possibile definirlo in maniera astratta come l’unità fondamentale nel processo di elaborazione visiva. Per questo motivo viene effettuata un’analisi di cross-correlazione tra un filtro di Gabor con una determinata orientazione e una famiglia di filtri di Gabor aventi n orientazioni. I risultati ottenuti sono stati trattati utilizzando la tecnica di soppressione dei non massimi, in modo da estrarre per ogni punto dell’immagine l’orientazione per la quale si ottiene la risposta massima. Successivamente, dai dati è stato possibile calcolare delle curve integrali simili a quelle ottenute dal modello differenziale proposto da Citti-Sarti. I risultati ottenuti da questa analisi si sono rivelati utili per comprendere più nel dettaglio i processi di elaborazione dei neuroni corticali, ed in particolare, per capire in che modo le informazioni necessarie per la realizzazione di strutture complesse ed articolate come quelle dei campi di associazione, siano già contenute intrinsecamente all’interno di ogni cellula corticale, unità fondamentale dell’elaborazione visiva.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo di questo lavoro di tesi è di ottenere un’analisi climatica giornaliera ad alta risoluzione della precipitazione sul territorio del nord Italia realizzata con tecniche di controllo statistico, di analisi e di strumenti di descrizione dei risultati presentati nella recente letteratura. A tal fine, sono stati utilizzati i dati dell’Archivio ARCIS. In seguito alle fasi di controllo qualità, omogeneità e sincronicità i dati sono stati utilizzati per realizzare un’analisi giornaliera su grigliato regolare a 10 km di risoluzione utile alla rappresentazione della variabilità spazio-temporale della precipitazione sul Nord Italia per il periodo 1961-2005. I risultati di tale analisi mettono in evidenza dei valori medi di precipitazione annuale abbastanza intensi sulla parte centrale dell’arco Alpino, con massimi (oltre 2000 mm) sull’estremità orientale e sull’Appennino Ligure. Valori minimi (500 – 600 mm) sono osservati lungo le aree prospicienti il fiume Po, in Val d’Aosta ed in Alto Adige. La corrispondente analisi del trend temporale indica la presenza di lievi cali statisticamente significativi solo in aree limitate del territorio. In coerenza con questi risultati, la variazione nel tempo della precipitazione annuale mediata su tutto il territorio mette in evidenza un’intensa variabilità decennale, ma solo una lieve flessione lineare sull’intero periodo. Il numero annuo di giorni piovosi ed il 90° percentile della precipitazione giornaliera presentano invece trend lineari un po’ più pronunciati. In particolare, sul periodo considerato si nota un calo del numero di giorni piovosi su gran parte del territorio e solo su alcune aree del territorio un aumento dell’intensità del 90° percentile, sia a scala annuale che stagionale. Nell’ultima parte di questo lavoro è stato realizzato uno studio della relazione fra la forzante climatica e l’evoluzione della morfologia dell’Appennino Emiliano-Romagnolo. I risultati mostrano che a parità di quota, di pendenza e di litologia, la franosità è influenzata dalle precipitazioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo scopo del progetto triennale del dottorato di ricerca è lo studio delle alterazioni genetiche in un gruppo di pazienti affetti da micosi fungoide ed un gruppo di pazienti affetti da sindrome di Sezary. Dalle biopsie cutanee è stato estratto il DNA e analizzato, comparandolo con DNA sano di riferimento, utilizzando la tecnica array-CGH, allo scopo di identificare la presenza di geni potenzialmente implicati nel processo di oncogenesi. Questa analisi è stata eseguita, per ogni paziente, su biopsie effettuate ad una fase iniziale di malattia e ad una fase di progressione della stessa. Sugli stessi pazienti è stata inoltre eseguita un’analisi miRNA. Si ipotizza che il profilo d’espressione dei miRNA possa infatti dare informazioni utili per predire lo stato di malattia, il decorso clinico, la progressione tumorale e la riposta terapeutica. Questo lavoro è stato poi eseguito su biopsie effettuate in pazienti affetti da sindrome di Sezary che, quando non insorge primitivamente come tale, si può considerare una fase evolutiva della micosi fungoide. La valutazione delle alterazioni genetiche, ed in particolare la correlazione esistente tra duplicazione e delezione genetica e sovra/sottoespressione genetica, è stata possibile attraverso l’interpretazione e la comparazione dei dati ottenuti attraverso le tecniche array-CGH e miRNA. Sono stati comparati i risultati ottenuti per valutare quali fossero le alterazioni cromosomiche riscontrate nei diversi stadi di malattia. L’applicazione dell’array-CGH e della metodica di analisi mi-RNA si sono rivelate molto utili per l’identificazione delle diverse aberrazioni cromosomiche presenti nel genoma dei pazienti affetti da micosi fungoide e sindrome di Sezary, per valutare la prognosi del paziente e per cercare di migliorare o trovare nuove linee terapeutiche per il trattamento delle due patologie. Lo studio di questi profili può rappresentare quindi uno strumento di grande importanza nella classificazione e nella diagnosi dei tumori.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nell’autunno del 2011 due eventi meteorologici estremi caratterizzati da intense precipitazioni hanno interessato la Liguria. Nella giornata del 25 ottobre si è verificato sul Levante ligure un evento alluvionale di rilevante entità, determinato dalla formazione di un intenso sistema convettivo che ha coinvolto l’area compresa tra il Tigullio, le Cinque Terre ed il bacino del Magra. Un altro episodio di forte maltempo si è verificato tra il 3 e il 9 novembre 2011, e in particolare il forte sistema convettivo che ha interessato Genova la mattina del 4 novembre, in cui avvenne l’esondazione in alcuni punti del torrente Bisagno e del rio Fereggiano. Tuttavia, nel corso del lungo periodo perturbato si sono registrati vari episodi di esondazione, localizzati principalmente in zone golenali agricole, anche sui versanti padani della regione, oltre a numerosi casi di smottamenti e frane. I casi sopra citati sono stati studiati facendo innanzitutto un’accurata analisi meteorologica a scala sinottica e alla mesoscala, esaminando in particolar modo i meccanismi che hanno portato l’innesco dei due sistemi temporaleschi. In secondo luogo, utilizzando anche dati osservativi disponibili, si è voluto mettere in evidenza la reale e significativa evoluzione nel tempo e nello spazio dei dati pluviometrici delle stazioni al suolo, e dei parametri fisici più importanti, come ad esempio la direzione e l’intensità del vento. Infine, utilizzando simulazioni numeriche dei modelli sviluppati all’ISAC-CNR di Bologna (BOLAM e MOLOCH), ci si è posti l’obiettivo di verificare la loro sensibilità alla risoluzione e ad altri aspetti numerici e fisici, in particolare per quanto riguarda i dati relativi alla precipitazione. I modelli, oltre a riprodurre la dinamica degli eventi in maniera fisicamente coerente anche se non del tutto accurata, sono stati utilizzati, previo confronto con le osservazioni, per verificare alcune ipotesi formulate relative ai processi fisici responsabili dell’intensità della precipitazione, come ad esempio la presenza del flusso (outflow) di aria fredda proveniente dalla cold pool in relazione con le correnti caldo-umide negli strati più bassi (Low Level Jet, LLJ), e la formazione di una zona di convergenza nella quale è più alta la probabilità che si sviluppino sistemi convettivi organizzati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Una delle tecnologie radio che negli ultimi anni ha subito il maggior sviluppo è quella dell’identificazione a radio frequenza (Radio Frequency Identification), utilizzata in un gran numero di ambiti quali la logistica, il tracciamento, l’autenticazione e i pagamenti elettronici. Tra le tecnologie specifiche legate all’RFID si ritrova la Near Field Communication (NFC). Questa è una tecnologia di trasmissione dati a corto raggio che rappresenta un’evoluzione dell’RFID. Una delle caratteristiche dell’NFC è quella di instaurare una comunicazione tra due dispositivi in maniera semplice e intuitiva. L’oggetto che instaura la comunicazione è il Reader, nell’ambito RFID è un dispositivo altamente specializzato, poiché può lavorare a diverse frequenze operative. L’elemento innovativo che ha consentito il successo dell’NFC è il fatto che questa tecnologia possa integrare il Reader in uno strumento di comunicazione di largo uso, ovvero lo smartphone. Questo permette di inizializzare lo scambio dati, sia esso di lettura di un circuito integrato passivo o una trasmissione peer-to-peer, a seguito del naturale gesto di avvicinare lo smartphone. Analisti ed esperti del settore sono convinti del successo dell’NFC, nonostante siano state smentite le attese che vedevano l’NFC integrato in oltre la metà dei cellulari entro il 2010. Tra le molteplici applicazioni NFC in questo elaborato ci si soffermerà in particolare sul cosiddetto Smart Poster. Questo utilizzo può essere molto efficace avendo una gamma di impiego molto vasta. Per l’immagazzinamento dei dati nei Tag o nelle Smart Card si è utilizzato un protocollo d’incapsulamento dati chiamato NDEF (NFC Data Exchange Format) trattato nel capitolo 3 di questa trattazione. Nella seconda parte dell’elaborato si è realizzata una sperimentazione per misurare le distanze di funzionamento di cellulari e Reader per PC. In questo ambito si è realizzato quello che si è definito lo Smart Brick, cioè un mattone che comunica con dispositivi NFC grazie all’installazione di un Tag al suo interno. Si parlerà della realizzazione e degli strumenti software/hardware che hanno permesso di realizzare e programmare questo ”mattone elettronico”.