967 resultados para analisi non standard iperreali infinitesimi


Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questo lavoro sono state analizzate diverse strategie di recupero di una cava dismessa situata presso la località Colombara (Monte San Pietro, Bologna). Su questi terreni sono state condotte tre prove, costituite da diverse parcelle nelle quali sono stati adottati differenti trattamenti. Sono state svolte analisi di tipo quantitativo del suolo e della parte epigea delle specie arbustive e arboree, focalizzandosi sull'azoto (N totale, ammoniacale, nitrico, e firma isotopica) e sulla sostanza organica del suolo. Inoltre è stata effettuata un'indagine qualitativa della composizione floristica. Scopo della tesi è quello di individuare le strategie più efficaci per un recupero di suoli degradati. Non sempre a trattamenti iniziali migliori corrispondono i migliori risultati portando a conclusioni apparentemente controintuitive a cui si è cercato di dare risposta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi di dottorato è inserita nell’ambito della convenzione tra ARPA_SIMC (che è l’Ente finanziatore), l’Agenzia Regionale di Protezione Civile ed il Dipartimento di Scienze della Terra e Geologico - Ambientali dell’Ateneo di Bologna. L’obiettivo principale è la determinazione di possibili soglie pluviometriche di innesco per i fenomeni franosi in Emilia Romagna che possano essere utilizzate come strumento di supporto previsionale in sala operativa di Protezione Civile. In un contesto geologico così complesso, un approccio empirico tradizionale non è sufficiente per discriminare in modo univoco tra eventi meteo innescanti e non, ed in generale la distribuzione dei dati appare troppo dispersa per poter tracciare una soglia statisticamente significativa. È stato quindi deciso di applicare il rigoroso approccio statistico Bayesiano, innovativo poiché calcola la probabilità di frana dato un certo evento di pioggia (P(A|B)) , considerando non solo le precipitazioni innescanti frane (quindi la probabilità condizionata di avere un certo evento di precipitazione data l’occorrenza di frana, P(B|A)), ma anche le precipitazioni non innescanti (quindi la probabilità a priori di un evento di pioggia, P(A)). L’approccio Bayesiano è stato applicato all’intervallo temporale compreso tra il 1939 ed il 2009. Le isolinee di probabilità ottenute minimizzano i falsi allarmi e sono facilmente implementabili in un sistema di allertamento regionale, ma possono presentare limiti previsionali per fenomeni non rappresentati nel dataset storico o che avvengono in condizioni anomale. Ne sono esempio le frane superficiali con evoluzione in debris flows, estremamente rare negli ultimi 70 anni, ma con frequenza recentemente in aumento. Si è cercato di affrontare questo problema testando la variabilità previsionale di alcuni modelli fisicamente basati appositamente sviluppati a questo scopo, tra cui X – SLIP (Montrasio et al., 1998), SHALSTAB (SHALlow STABility model, Montgomery & Dietrich, 1994), Iverson (2000), TRIGRS 1.0 (Baum et al., 2002), TRIGRS 2.0 (Baum et al., 2008).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Recenti analisi sull’intero trascrittoma hanno rivelato una estensiva trascrizione di RNA non codificanti (ncRNA), le quali funzioni sono tuttavia in gran parte sconosciute. In questo lavoro è stato dimostrato che alte dosi di camptotecina (CPT), un farmaco antitumorale inibitore della Top1, aumentano la trascrizione di due ncRNA antisenso in 5’ e 3’ (5'aHIF-1α e 3'aHIF-1α rispettivamente) al locus genico di HIF-1α e diminuiscono i livelli dell’mRNA di HIF-1α stesso. Gli effetti del trattamento sono Top1-dipendenti, mentre non dipendono dal danno al DNA alla forca di replicazione o dai checkpoint attivati dal danno al DNA. I ncRNA vengono attivati in risposta a diversi tipi di stress, il 5'aHIF-1α è lungo circa 10 kb e possiede sia il CAP in 5’ sia poliadenilazione in 3’ (in letteratura è noto che il 3'aHIF-1α è un trascritto di 1,7 kb, senza 5’CAP né poliadenilazione). Analisi di localizzazione intracellulare hanno dimostrato che entrambi sono trascritti nucleari. In particolare 5'aHIF-1α co-localizza con proteine del complesso del poro nucleare, suggerendo un suo possibile ruolo come mediatore degli scambi della membrana nucleare. È stata dimostrata inoltre la trascrizione dei due ncRNA in tessuti di tumore umano del rene, evidenziandone possibili ruoli nello sviluppo del cancro. È anche noto in letteratura che basse dosi di CPT in condizioni di ipossia diminuiscono i livelli di proteina di HIF-1α. Dopo aver dimostrato su diverse linee cellulari che i due ncRNA sopracitati non potessero essere implicati in tale effetto, abbiamo studiato le variazioni dell’intero miRnoma alle nuove condizioni sperimentali. In tal modo abbiamo scoperto che il miR-X sembra essere il mediatore molecolare dell’abbattimento di HIF-1α dopo trattamento con basse dosi di CPT in ipossia. Complessivamente, questi risultati suggeriscono che il fattore di trascrizione HIF-1α venga finemente regolato da RNA non-codificanti indotti da danno al DNA.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi si pone come obiettivo l'analisi delle componenti di sollecitazione statica di un serbatoio, in acciaio API 5L X52, sottoposto a carichi di flessione e pressione interna attraverso il programma agli elementi finiti PLCd4, sviluppato presso l'International Center for Numerical Methods in Engineering (CIMNE - Barcelona). Questo tipo di analisi rientra nel progetto europeo ULCF, il cui traguardo è lo studio della fatica a bassissimo numero di cicli per strutture in acciaio. Prima di osservare la struttura completa del serbatoio è stato studiato il comportamento del materiale per implementare all'interno del programma una nuova tipologia di curva che rappresentasse al meglio l'andamento delle tensioni interne. Attraverso il lavoro di preparazione alla tesi è stato inserito all'interno del programma un algoritmo per la distribuzione delle pressioni superficiali sui corpi 3D, successivamente utilizzato per l'analisi della pressione interna nel serbatoio. Sono state effettuate analisi FEM del serbatoio in diverse configurazioni di carico ove si è cercato di modellare al meglio la struttura portante relativa al caso reale di "full scale test". Dal punto di vista analitico i risultati ottenuti sono soddisfacenti in quanto rispecchiano un corretto comportamento del serbatoio in condizioni di pressioni molto elevate e confermano la bontà del programma nell'analisi computazionale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

I disturbi dello spettro autistico (DSA) ed il ritardo mentale (RM) sono caratterizzati da un’eziologia genetica complessa ed eterogenea. Grazie ai recenti sviluppi nella ricerca genomica, è stato possibile dimostrare il ruolo di numerose copy number variants (CNVs) nella patogenesi di questi disturbi, anche se nella maggior parte dei casi l’eziologia rimane ancora sconosciuta. Questo lavoro riguarda l’identificazione e la caratterizzazione dei CNVs in famiglie con DSA e RM. E’ stata studiata una microdelezione in 7q31 che coinvolge i geni IMMP2L e DOCK4, trasmessa dalla madre con dislessia a due figli con autismo ed una figlia con dislessia. Nella stessa famiglia segrega una seconda microdelezione in 2q14 che inattiva il gene CNTNAP5 ed è trasmessa dal padre (con tratti autistici) ai due figli con autismo. Abbiamo quindi ipotizzato che i geni DOCK4 e CNTNAP5 potessero essere implicati, rispettivamente, nella suscettibilità a dislessia e DSA. Lo screening di numerosi individui affetti ha supportato la nostra ipotesi, con l’identificazione di una nuova microdelezione di DOCK4 che segrega con la dislessia, e 3 nuove varianti missenso in CNTNAP5 in individui con autismo. Dall’analisi genomica comparativa su array (aCGH) di individui con RM, è stata identificata una delezione nella regione 7q31.32, che coinvolge il gene CADPS2, in due fratelli con RM e tratti autistici, probabilmente ereditata dalla madre. Lo screening di mutazione di questo gene in individui con autismo o RM, ha portato all’identificazione di 3 varianti non sinonime, assenti nei controlli, ed ereditate per via materna. Poiché CADPS2 risiede in una regione genomica che contiene loci soggetti ad imprinting, abbiamo ipotizzato che il gene CADPS2 possa essere anch’esso caratterizzato da imprinting, con espressione monoallelica materna. Lo studio di espressione di CADPS2 in cellule del sangue ha avvalorato questa ipotesi, implicando perciò CADPS2 come un nuovo gene di suscettibilità per il RM e DSA.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Myocardial perfusion quantification by means of Contrast-Enhanced Cardiac Magnetic Resonance images relies on time consuming frame-by-frame manual tracing of regions of interest. In this Thesis, a novel automated technique for myocardial segmentation and non-rigid registration as a basis for perfusion quantification is presented. The proposed technique is based on three steps: reference frame selection, myocardial segmentation and non-rigid registration. In the first step, the reference frame in which both endo- and epicardial segmentation will be performed is chosen. Endocardial segmentation is achieved by means of a statistical region-based level-set technique followed by a curvature-based regularization motion. Epicardial segmentation is achieved by means of an edge-based level-set technique followed again by a regularization motion. To take into account the changes in position, size and shape of myocardium throughout the sequence due to out of plane respiratory motion, a non-rigid registration algorithm is required. The proposed non-rigid registration scheme consists in a novel multiscale extension of the normalized cross-correlation algorithm in combination with level-set methods. The myocardium is then divided into standard segments. Contrast enhancement curves are computed measuring the mean pixel intensity of each segment over time, and perfusion indices are extracted from each curve. The overall approach has been tested on synthetic and real datasets. For validation purposes, the sequences have been manually traced by an experienced interpreter, and contrast enhancement curves as well as perfusion indices have been computed. Comparisons between automatically extracted and manually obtained contours and enhancement curves showed high inter-technique agreement. Comparisons of perfusion indices computed using both approaches against quantitative coronary angiography and visual interpretation demonstrated that the two technique have similar diagnostic accuracy. In conclusion, the proposed technique allows fast, automated and accurate measurement of intra-myocardial contrast dynamics, and may thus address the strong clinical need for quantitative evaluation of myocardial perfusion.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente elaborato ha ad oggetto la direttiva PED (Pressure Equipment Directive) relativa agli apparecchi a pressione. Tale norma è stata recepita in Italia con il D.Lgs. n. 93/2000 ed è entrata in vigore definitivamente nel 2002. Essa è finalizzata alla libera circolazione delle attrezzature a pressione nella comunità europea e ne disciplina la progettazione, la costruzione, l'equipaggiamento e l'installazione in sicurezza, definendo per ciascuna delle fasi sopra elencate quali siano i documenti da presentare, gli accorgimenti da rispettare e i controlli a cui sottostare. Il presente lavoro di tesi, svolto presso lo stabilimento di Ravenna di ENI Versalis, ha avuto l’obiettivo di individuare i punti di contatto fra quanto richiesto dalla direttiva PED e quanto solitamente emerge dall’applicazione delle tecniche per l’analisi di rischio, degli standard internazionali e aziendali e delle norme di buona tecnica. Il risultato del lavoro consiste nella definizione di un iter tecnico-procedurale standardizzato ad uso dell’utilizzatore delle attrezzature a pressione tramite la quale l’azienda possa procedere alla compilazione delle Note Tecniche destinate al fabbricante delle attrezzature stesse, secondo quanto richiesto dalla direttiva. Tali Note Tecniche devono contenere le indicazioni relative ai valori progettuali di temperatura e pressione e ai Requisiti Essenziali di Sicurezza (RES) che devono essere soddisfatti, permettendo così al fabbricante di poter svolgere una corretta analisi di rischio e all’utilizzatore di ottenere la massima sicurezza negli impianti. L’elaborato è strutturato come segue. Dopo il Capitolo 1, avente carattere introduttivo, nel Capitolo 2 vengono illustrate le principali novità introdotte dalla direttiva PED e descritti i punti cardine della procedura di valutazione della conformità richiesta per le attrezzature a pressione. Nel Capitolo 3 viene esaminata l’integrazione della direttiva PED con la direttiva Macchine e la direttiva ATEX. Nel Capitolo 4 sono descritte le principali tecniche di analisi di rischio che possono essere utilizzate per rispondere ai Requisiti Essenziali di Sicurezza (RES) richiesti in fase di compilazione della Nota Tecnica. Nel Capitolo 5 si fornisce una descrizione dettagliata dell’iter tecnico-procedurale messo a punto per la valutazione di conformità delle attrezzature e degli insiemi a pressione. Nel Capitolo 6 vengono illustrati ad uno ad uno i punti che devono essere presenti in una Nota Tecnica, ciascuno dei quali costituisce un Requisito Essenziale di Sicurezza. Nel Capitolo 7 viene approfondito uno dei Requisiti più critici, l’incendio esterno. Infine nel Capitolo 8 sono riportate le considerazioni conclusive.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’affermazione del trasporto containerizzato verificatasi negli ultimi decenni ha determinato una profonda rivoluzione nell’ambito del trasporto marittimo internazionale. L’unitizzazione dei carichi e l’innovazione tecnologica dei mezzi utilizzati per il trasporto e la movimentazione consentono oggi di gestire ingenti volumi di traffico in tempi rapidi e con costi relativamente contenuti. L’utilizzo di unità standard ha inoltre reso possibile lo sviluppo del trasporto intermodale e la realizzazione di catene logistiche complesse. In questa tesi sono state analizzate le problematiche relative alla gestione delle operazioni che vengono svolte all’interno dei terminal container, i nodi fondamentali del trasporto intermodale. In particolare è stato studiato il caso del nuovo Terminal Container del Porto di Ravenna. Trattandosi di un terminal ancora in fase di progettazione, sono state applicate delle metodologie che consentono di effettuare una valutazione preliminare di quelle che potrebbero essere le potenzialità del nuovo terminal. In primo luogo sono stati determinati il throughput potenziale del terminal, in funzione delle aree di stoccaggio e della capacità operativa della banchina, e il numero medio di mezzi necessari alla movimentazione di tale volume di traffico annuo. Poi si è proceduto all’applicazione di modelli analitici specifici per la valutazione delle performance dell’equipment del terminal. I risultati ottenuti sono stati infine utilizzati per lo studio delle interazioni tra i sub-sistemi principali del terminal attraverso la teoria delle code, allo scopo di valutarne il livello di servizio e individuare eventuali criticità.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi sviluppa le proposte teoriche della Linguistica Cognitiva a proposito della metafora e propone una loro possibile applicazione in ambito didattico. La linguistica cognitiva costituisce la cornice interpretativa della ricerca, a partire dai suoi concetti principali: la prospettiva integrata, l’embodiment, la centralità della semantica, l’attenzione per la psicolinguistica e le neuroscienze. All’interno di questo panorama, prende vigore un’idea di metafora come punto d’incontro tra lingua e pensiero, come criterio organizzatore delle conoscenze, strumento conoscitivo fondamentale nei processi di apprendimento. A livello didattico, la metafora si rivela imprescindibile sia come strumento operativo che come oggetto di riflessione. L’approccio cognitivista può fornire utili indicazioni su come impostare un percorso didattico sulla metafora. Nel presente lavoro, si indaga in particolare l’uso didattico di stimoli non verbali nel rafforzamento delle competenze metaforiche di studenti di scuola media. Si è scelto come materiale di partenza la pubblicità, per due motivi: il diffuso impiego di strategie retoriche in ambito pubblicitario e la specificità comunicativa del genere, che permette una chiara disambiguazione di fenomeni che, in altri contesti, non potrebbero essere analizzati con la stessa univocità. Si presenta dunque un laboratorio finalizzato al miglioramento della competenza metaforica degli studenti che si avvale di due strategie complementari: da una parte, una spiegazione ispirata ai modelli cognitivisti, sia nella terminologia impiegata che nella modalità di analisi (di tipo usage-based); dall’altra un training con metafore visive in pubblicità, che comprende una fase di analisi e una fase di produzione. È stato usato un test, suddiviso in compiti specifici, per oggettivare il più possibile i progressi degli studenti alla fine del training, ma anche per rilevare le difficoltà e i punti di forza nell’analisi rispetto sia ai contesti d’uso (letterario e convenzionale) sia alle forme linguistiche assunte dalla metafora (nominale, verbale, aggettivale).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo della ricerca condotta dal candidato è stato sin dal principio la proposta di un’analisi del popolamento e delle dinamiche culturali dell’età neolitica nella Puglia Centrale. Tale aspirazione derivava dal fatto che il territorio oggetto di tale ricerca è stato, negli ultimi decenni, assai meno investigato rispetto alle limitrofe aree, come la piana del Tavoliere ed il Salento in particolare. Questa mancanza di informazioni rendeva necessaria una rivisitazione delle ricerche e degli studi, attraverso la costruzione di un atlante del popolamento, al fine di colmare questo vuoto. Infatti, una valutazione del popolamento dell’età neolitica nell’Italia sud-orientale non può essere considerata per aree culturali distinte e geograficamente limitate. Nonostante vi siano importanti differenziazioni di facies archeologiche, è solo attraverso una visione complessiva e con un controllo articolato delle informazioni che è possibile descrivere i processi e le dinamiche che hanno portato ad un popolamento così imponente, dalla sua espansione al repentino collasso, causando la trasformazione del paesaggio pugliese. La scelta di guardare alla complessità neolitica di questo versante della Puglia si lega culturalmente, oltre che geograficamente, alla ricerca già effettuata sulla grande diffusione del neolitico nella piana del Tavoliere di Puglia, unico esempio europeo in quanto a colonizzazione capillare del territorio..Ciò ha permesso di disegnare un quadro globale, che al momento esclude solo la penisola salentina, del popolamento neolitico della Puglia settentrionale e centrale. Le caratteristiche che differenziano i due complessi, sono strettamente legate sia all’habitat insediativo, inteso come scelte insediamentali, che nella regione indagata appare organizzato su diversi livelli (area costiera adriatica, area prospiciente antichi alvei torrentizi, propaggini dell’altopiano delle Murge), che alle forme culturali, intese come produzione artigianale e soprattutto aspetti rituali connessi alla frequentazione delle grotte naturali.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this thesis three measurements of top-antitop differential cross section at an energy in the center of mass of 7 TeV will be shown, as a function of the transverse momentum, the mass and the rapidity of the top-antitop system. The analysis has been carried over a data sample of about 5/fb recorded with the ATLAS detector. The events have been selected with a cut based approach in the "one lepton plus jets" channel, where the lepton can be either an electron or a muon. The most relevant backgrounds (multi-jet QCD and W+jets) have been extracted using data driven methods; the others (Z+ jets, diboson and single top) have been simulated with Monte Carlo techniques. The final, background-subtracted, distributions have been corrected, using unfolding methods, for the detector and selection effects. At the end, the results have been compared with the theoretical predictions. The measurements are dominated by the systematic uncertainties and show no relevant deviation from the Standard Model predictions.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nell’attuale contesto di aumento degli impatti antropici e di “Global Climate Change” emerge la necessità di comprenderne i possibili effetti di questi sugli ecosistemi inquadrati come fruitori di servizi e funzioni imprescindibili sui quali si basano intere tessiture economiche e sociali. Lo studio previsionale degli ecosistemi si scontra con l’elevata complessità di questi ultimi in luogo di una altrettanto elevata scarsità di osservazioni integrate. L’approccio modellistico appare il più adatto all’analisi delle dinamiche complesse degli ecosistemi ed alla contestualizzazione complessa di risultati sperimentali ed osservazioni empiriche. L’approccio riduzionista-deterministico solitamente utilizzato nell’implementazione di modelli non si è però sin qui dimostrato in grado di raggiungere i livelli di complessità più elevati all’interno della struttura eco sistemica. La componente che meglio descrive la complessità ecosistemica è quella biotica in virtù dell’elevata dipendenza dalle altre componenti e dalle loro interazioni. In questo lavoro di tesi viene proposto un approccio modellistico stocastico basato sull’utilizzo di un compilatore naive Bayes operante in ambiente fuzzy. L’utilizzo congiunto di logica fuzzy e approccio naive Bayes è utile al processa mento del livello di complessità e conseguentemente incertezza insito negli ecosistemi. I modelli generativi ottenuti, chiamati Fuzzy Bayesian Ecological Model(FBEM) appaiono in grado di modellizare gli stati eco sistemici in funzione dell’ elevato numero di interazioni che entrano in gioco nella determinazione degli stati degli ecosistemi. Modelli FBEM sono stati utilizzati per comprendere il rischio ambientale per habitat intertidale di spiagge sabbiose in caso di eventi di flooding costiero previsti nell’arco di tempo 2010-2100. L’applicazione è stata effettuata all’interno del progetto EU “Theseus” per il quale i modelli FBEM sono stati utilizzati anche per una simulazione a lungo termine e per il calcolo dei tipping point specifici dell’habitat secondo eventi di flooding di diversa intensità.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In questa tesi viene presentata un’analisi dettagliata sulla struttura di profili recettori di neuroni coinvolti nell’elaborazione visiva, con particolare attenzione per le cellule appartenenti alla corteccia visiva primaria (V1). Dopo aver illustrato brevemente il percorso effettuato dall’informazione visiva, costituito da retina, nucleo genicolato laterale e V1, vengono descritte la struttura e le principali caratteristiche di profili recettori dei neuroni appartenenti ad ognuno di questi livelli di elaborazione. Per modellare i profili recettori di cellule corticali in V1 si è deciso di utilizzare filtri bidimensionali realizzati mediante funzioni di Gabor nel dominio spaziale. Questo modello ha, infatti, il grande vantaggio di possedere alcune tra le maggiori proprietà dei profili recettori di neuroni appartenenti a V1: struttura del profilo recettore nello spazio (x,y), selettività in orientazione e in frequenza spaziale, indipendenza dalla fase dello stimolo. Viene successivamente presentato il concetto di campo di associazione visivo, mediante il quale sono determinate le caratteristiche principali (posizione spaziale ed orientazione) che diversi oggetti devono possedere per essere percepiti non come unità singole, ma come un unico elemento. I campi di associazione possono essere modellati mediante l’utilizzo del sistema di equazioni differenziali proposto da Citti-Sarti, le cui soluzioni sono curve integrali adatte a ricostruire la struttura dei campi di associazione, come proposti da Field, Hayes ed Hess. Diverse ipotesi sono state presentate su come cellule appartenenti a V1 siano in grado di realizzare simili campi di associazione, ed in particolare, da dove queste possano prendere le informazioni necessarie per farlo. Una di queste è quella sostenuta dai dati di Bosking et al., secondo i quali le connessioni intracorticali più fitte sono quelle tra neuroni non adiacenti tra loro, i cui profili recettori sono co-orientati (con la stessa orientazione preferenziale) e co-assiali (disposti lungo un asse del campo visivo che corrisponde all’orientazione preferenziale). L’analisi effettuata in questa tesi ha come obbiettivo proprio quello di ottenere informazioni utili su come cellule corticali siano legate alla fenomenologia dei campi di associazione. Come già detto, un filtro di Gabor bidimensionale può essere considerato un buon modello per profili recettori di questo tipo di cellule e quindi è possibile definirlo in maniera astratta come l’unità fondamentale nel processo di elaborazione visiva. Per questo motivo viene effettuata un’analisi di cross-correlazione tra un filtro di Gabor con una determinata orientazione e una famiglia di filtri di Gabor aventi n orientazioni. I risultati ottenuti sono stati trattati utilizzando la tecnica di soppressione dei non massimi, in modo da estrarre per ogni punto dell’immagine l’orientazione per la quale si ottiene la risposta massima. Successivamente, dai dati è stato possibile calcolare delle curve integrali simili a quelle ottenute dal modello differenziale proposto da Citti-Sarti. I risultati ottenuti da questa analisi si sono rivelati utili per comprendere più nel dettaglio i processi di elaborazione dei neuroni corticali, ed in particolare, per capire in che modo le informazioni necessarie per la realizzazione di strutture complesse ed articolate come quelle dei campi di associazione, siano già contenute intrinsecamente all’interno di ogni cellula corticale, unità fondamentale dell’elaborazione visiva.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Studio su giunti incollati attraverso il metodo agli elementi finiti (FEM). E’ stata implementata l’analisi numerica su provini seguendo lo standard della normativa ASTM International relativa a prove sperimentali, per giunzioni di lamine in metallo o in materiale composito. Si è introdotto il materiale composito, cercando di inquadrarne le proprietà, i limiti e i vantaggi rispetto ai materiali tradizionalmente usati, sono stati elencati i difetti che possono nascere e svilupparsi in un composito durante la sua vita operativa, i quali, anche se di piccole dimensioni, a volte possono risultare tanto pericolosi da portare al collasso dell’intera struttura. Nasce, quindi, durante la fase di progettazione la necessità di rilevare, caratterizzare e tenere sotto controllo i danni e considerare i materiali non completamente esenti da difetti. Si è parlato, poi, del processo di riparazione, ove possibile, come alternativa alla sostituzione del componente con un notevole risparmio sui costi di manutenzione. Sono stai presi in esame i vari metodi effettuando un confronto tra essi. Per questo lavoro di tesi, è stato preso in esame l’incollaggio come metodo di fissaggio tra la membrana riparata e la struttura esistente e ne è stata descritta la teoria. Dopo questa panoramica si è passati alla verifica sugli incollaggi attraverso le analisi FEM.