103 resultados para Di Domenico, G.

em AMS Tesi di Laurea - Alm@DL - Università di Bologna


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'argomento principale di questo elaborato è l'analisi delle proprietà termiche del G.H.A .(Golden Hard Anodizing), ovvero un particolare trattamento di trasformazione superficiale dell'alluminio. Nello specifico è stato studiato tramite confronto con la conducibilità termica, la diffusività e l’emissività termica. Per ottenere tali dati sono state svolte prove sperimentali in modo da avere un chiara visione dell'entità di tali proprietà e metterle a confronto con quelle dell'alluminio base e dell'alluminio anodizzato.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Con questo studio si è volto effettuare un confronto tra la generazione di energia termica a partire da cippato e da pellet, con particolare riferimento agli aspetti di carattere ambientale ed economico conseguenti la produzione delle due differenti tipologie di combustibile. In particolare, si sono ipotizzate due filire, una di produzione del cippato, una del pellet, e per ciascuna di esse si è condotta un'Analisi del Ciclo di Vita, allo scopo di mettere in luce, da un lato le fasi del processo maggiormente critiche, dall'altro gli impatti sulla salute umana, sugli ecosistemi, sul consumo di energia e risorse. Quest'analisi si è tradotta in un confronto degli impatti generati dalle due filiere al fine di valutare a quale delle due corrisponda il minore. E' stato infine effettuato un breve accenno di valutazione economica per stimare quale tipologia di impianto, a cippato o a pellet, a parità di energia prodotta, risulti più conveniente.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

La produzione di sedili auto rappresenta una delle principali applicazioni delle schiume poliuretaniche flessibili a bassa densità. La forte necessità di riduzione del peso totale del veicolo si traduce in una richiesta di significative riduzioni di densità dei materiali utilizzati per l’interno vettura. Tale riduzione deve tuttavia essere associata a migliorate proprietà, nel senso del mantenimento delle performance nel tempo, della sicurezza e del comfort. Ricerche di mercato hanno evidenziato la necessità di sviluppare schiume poliuretaniche con elevate performance in termini di comfort, associate a significative riduzioni di densità e significative riduzioni di spessori applicati, nell’ottica di produrre sedili sempre più sottili consentendo la massima flessibilità di design dell’interno del veicolo. Scopo del presente progetto è lo sviluppo di una nuova chimica associata a quella del poliuretano che permetta di ottenere un elevato comfort. Il corpo umano e maggiormente sensibile a vibrazioni con frequenza tra i 4 e gli 8 Hz. In questo intervallo di frequenze le vibrazioni trasmesse sono correlate con l’isteresi del materiale stesso. Solitamente basse isteresi sono associate a bassa trasmissività delle vibrazioni. I produttori di auto hanno quindi cominciato a valutare il comfort di un sedile in termini di isteresi del materiale stesso. Nel caso specifico è considerato un sedile confortevole se possiede una isteresi inferiore al 18%. Le performance in termini di comfort devono essere associate anche ad una bassa emissione di composti organici volatili, con particolare attenzione ad ammine e aldeidi, ad un 15% di riduzione di densità (l’obiettivo è raggiungere una densità di 60 g/L a fronte di una densità attuale che si colloca nel range 75-80 g/L), con proprietà fisico meccaniche e resistenza all’invecchiamento in grado di soddisfare i capitolati delle case automobilistiche. Recentemente la produzione di SMPs (silane-modified polymers) ricopre un ruolo fondamentale nel mercato dei sigillanti e degli adesivi. L’idea di utilizzare questa famiglia di silani nella produzione di schiume poliuretaniche flessibili risiede nel fatto che, esattamente come in sigillanti e adesivi, ci possa essere una reazione successiva a quella di formazione del PU che possa dare ulteriore reticolazione della frazione morbida. La reazione di post-curing del silano ha incontrato diverse problematiche relative alla scarsa reattività del silano stesso. Per attivare la reazione di idrolisi e oligomerizzazione si è utilizzato un acido di Brønsted (DBSA) ma l’interazione con le ammine presenti nel poliolo formulato, necessarie alla reazione di formazione del legame uretanico, ne hanno inibito l’attività.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L’obiettivo del presente elaborato di tesi è stato quello di mettere a punto una metodica in estrazione in fase solida (SPE) per la determinazione dei composti polari, in alternativa alla metodica ufficiale prevista dalla Circ. Minisan 11.01.91 n.1. Durante la frittura avvengono diverse trasformazioni chimiche che portano alla formazione di composti polari come monogliceridi e digliceridi, acidi grassi liberi, acidi grassi dimeri e polimerizzati, trigliceridi dimeri e polimerizzati. Tali composti, dal punto di vista nutrizionale, sono quelli più importanti poiché rimangono nell’olio, sono assorbiti dall’alimento, e di conseguenza ingeriti. I composti polari hanno una notevole importanza a livello nutrizionale e fisiologico, infatti diversi studi hanno evidenziano come essi possano avere un impatto sull’organismo umano. In seguito a tutte queste motivazioni, per prevenire possibili rischi per il consumatore, derivanti dall’uso improprio o eccessivamente ripetuto di oli e grassi per frittura, l’Istituto Superiore di Sanità prevede che il tenore dei composti polari non debba essere superiore a 25 g/100 g, infatti i composti polari sono l’unico parametro sottoposto ad un controllo ufficiale negli oli da frittura. La metodica ufficiale per la determinazione dei composti polari negli oli da frittura, è descritta nella Circ. Minisan dell’11.1.91 n.1. Tuttavia, tale metodica presenta diverse problematiche, poiché richiede un’elevata manualità da parte dell’operatore ed elevati quantitativi di solventi, con il conseguente impatto economico ed ambientale. Nella fase di messa a punto della metodica SPE, sono stati considerati diversi parametri: tipo di fase stazionaria, quantità di olio, miscele eluenti (in diverse quantità e rapporti). E’ stata scelta l’oleina di palma come matrice di prova della messa a punto, perché è molto utilizzata in frittura e perché, tra gli oli da frittura, risulta essere quello con maggior contenuto in composti polari. I migliori risultati sono stati ottenuti con una colonnina SPE in gel di silice (55 µm, 70 A) avente una capacità di 5 g/20 mL, depositando 400 mg di olio ed eluendo il campione con 80 mL di esano: etere dietilico (90:10, v/v) (composti apolari), e 20 mL di etere dietilico (composti polari). L’efficienza separativa della SPE è stata verificata tramite gascromatografia. Per poter valutare la ripetibilità, efficienza ed attendibilità della metodica SPE, è stata utilizzata l’oleina di palma prima e dopo essere soggetta a diversi cicli di frittura (dopo il primo e quinto giorno di frittura), in modo da avere diversi livelli di composti polari sulla stessa matrice. La metodica SPE ha mostrato un’eccellente ripetibilità analitica intra-giorno, indipendentemente dal livello di composti polari rilevati nell’oleina di palma (14,1-25,5%); infatti, la ripetibilità intra-giorno non ha superato l’1,5%. Inoltre, la ripetibilità intra-giorno non ha subito modifiche in funzione del contenuto di composti polari. Di conseguenza, si è osservato anche un’ottima ripetibilità analitica inter-giorno, che è variata da 0,64% a l’1,18%. Entrambi valori di ripetibilità (intra ed inter-giorni) attestano che questa metodica in estrazione in fase solida può essere utilizzata per la valutazione dei composti polari negli oli da frittura. Confrontando i livelli medi di composti polari ottenuti tramite la metodica SPE e quella ufficiale applicate all’oleina di palma tal quale, dopo il primo e quinto giorno di frittura, sono state rilevate delle piccole differenze (non significative) tra le due metodiche, essendo i livelli di composti polari in tutti i casi leggermente superiori nei dati della SPE. Entrambe le metodiche hanno presentato un’ottima ripetibilità intra-giorno (< 1,5% e < 3,5% per la SPE e la metodica ufficiale, rispettivamente) e sono risultate comunque confrontabili tra loro. La metodica SPE e quella ufficiale sono state poi applicate anche su altri oli vegetali (extravergine di oliva, olio di girasole alto oleico: olio di palma (60:40, v/v) ed olio di palma: olio di girasole alto oleico (55:45, v/v) ) e confrontate. In effetti, è stato osservato che le percentuali dei composti polari rilevati nello stessa tipologia d’olio sono molto simili, indipendentemente dalla metodica con cui siano stati valutati; è stata infatti confermata un’eccellente correlazione lineare tra i dati. Questo stesso andamento è stato riscontrato negli oli sottoposti a diversi cicli di frittura, il che conferma che entrambe metodiche analitiche sono capaci di separare efficientemente ed in modo analogo i composti non polari da quelli polari. Negli oli analizzati, sono state trovate delle percentuali di composti polari diverse, strettamente correlate all’origine dell’olio, alla sua composizione ed al processo di estrazione. Per ultimo, l’analisi dei costi (che includeva materiali, solventi, personale, ed elettricità) di entrambe le metodiche analitiche ha confermato che l’analisi SPE costerebbe € 22-30, a differenza di quella ufficiale, il cui costo sarebbe di circa € 45. Tale differenza è dovuta principalmente ai costi legati all’operatore ed ai consumi di solventi e di elettricità. Pertanto, la metodica SPE è risultata essere più conveniente in termini economici, poiché porta ad un risparmio di ca. € 15-20 per analisi, oltre che ad un dimezzamento dei solventi. Un altro aspetto importante da sottolineare è il diverso tempo che ciascuna delle metodiche prevede per l’analisi dei composti polari, essendo nettamente più veloce la metodica SPE (circa 1,30 h) rispetto alla metodica ufficiale (circa 3 h). La metodica SPE qui sviluppata ha quindi dimostrato di avere un’efficienza separativa e ripetibilità simili a quella della metodica ufficiale, rendendo possibile una minore manipolazione da parte dell’operatore, tempi più brevi di analisi e l’impiego di bassi quantitativi di solventi, portando così ad una riduzione dell’impatto ambientale ed a costi inferiori di operazione. Pertanto, la metodica SPE può rappresentare una valida alternativa alla metodica ufficiale, prevista dalla Circ. Minisan 11.1.91 n.1.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L’elevata presenza dei residui dei farmaci nell’ambiente acquatico desta preoccupazione per la salute della fauna acquatica e per un eventuale rischio per l’uomo. Dopo l’assunzione, i farmaci vengono escreti come tali o come metaboliti attivi, risultando spesso resistenti ai processi di trattamento delle acque. Per questo motivo alcuni di essi sono pseudo-persistenti raggiungendo concentrazioni di ng-µg/L. I farmaci sono molecole disegnate per essere biologicamente attive a basse concentrazioni su bersagli specifici, per questo motivo possono indurre effetti anche su specie non target con bersagli molecolari simili all’uomo a concentrazioni ambientali. A tal proposito il presente lavoro intende investigare gli effetti della caffeina, ampiamente usata come costituente di bevande e come farmaco, presente nelle acque superficiali a concentrazioni di ng-µg/L. Come organismo di studio è stato scelto il Mytilus galloprovincialis, sfruttando le conoscenze disponibili in letteratura circa le sue risposte ai contaminanti ambientali. I mitili sono stati esposti in acquario a caffeina (5, 50 e 500 ng/L) per 7 giorni e poi analizzati attraverso una batteria di otto biomarker, alterazioni fisiologiche o biochimiche che forniscono informazioni circa lo stato di salute degli animali. I metodi utilizzati sono stati diversi a seconda dei biomarker (analisi citochimiche e saggi enzimatici). Le concentrazioni sono state scelte nel range ambientale. L’esposizione ha prodotto alterazioni della stabilità della membrana lisosomiale negli emociti e l’instaurarsi di processi di detossificazione nella ghiandola digestiva, evidenziati dall’aumento dell’attività della glutatione S-transferasi. Gli altri biomarker non mettono in evidenza che la caffeina, in queste condizioni sperimentali, possa indurre alterazioni della funzionalità lisosomiale, effetti ossidativi o neurotossici. I dati ottenuti sui mitili, quindi, suggeriscono che la caffeina, anche nel range di concentrazioni ambientali più elevato, possa essere considerata un contaminante che desta bassa preoccupazione.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Le ricerche di carattere eustatico, mareografico, climatico, archeologico e geocronologico, sviluppatesi soprattutto nell’ultimo ventennio, hanno messo in evidenza che gran parte delle piane costiere italiane risulta soggetta al rischio di allagamento per ingressione marina dovuta alla risalita relativa del livello medio del mare. Tale rischio è la conseguenza dell’interazione tra la presenza di elementi antropici e fenomeni di diversa natura, spesso difficilmente discriminabili e quantificabili, caratterizzati da magnitudo e velocità molto diverse tra loro. Tra le cause preponderanti che determinano l’ingressione marina possono essere individuati alcuni fenomeni naturali, climatici e geologici, i quali risultano fortemente influenzati dalle attività umane soprattutto a partire dal XX secolo. Tra questi si individuano: - la risalita del livello del mare, principalmente come conseguenza del superamento dell’ultimo acme glaciale e dello scioglimento delle grandi calotte continentali; - la subsidenza. Vaste porzioni delle piane costiere italiane risultano soggette a fenomeni di subsidenza. In certe zone questa assume proporzioni notevoli: per la fascia costiera emiliano-romagnola si registrano ratei compresi tra 1 e 3 cm/anno. Tale subsidenza è spesso il risultato della sovrapposizione tra fenomeni naturali (neotettonica, costipamento di sedimenti, ecc.) e fenomeni indotti dall’uomo (emungimenti delle falde idriche, sfruttamento di giacimenti metaniferi, escavazione di materiali per l’edilizia, ecc.); - terreni ad elevato contenuto organico: la presenza di depositi fortemente costipabili può causare la depressione del piano di campagna come conseguenza di abbassamenti del livello della falda superficiale (per drenaggi, opere di bonifica, emungimenti), dello sviluppo dei processi di ossidazione e decomposizione nei terreni stessi, del costipamento di questi sotto il proprio peso, della carenza di nuovi apporti solidi conseguente alla diminuita frequenza delle esondazioni dei corsi d’acqua; - morfologia: tra i fattori di rischio rientra l’assetto morfologico della piana e, in particolare il tipo di costa (lidi, spiagge, cordoni dunari in smantellamento, ecc. ), la presenza di aree depresse o comunque vicine al livello del mare (fino a 1-2 m s.l.m.), le caratteristiche dei fondali antistanti (batimetria, profilo trasversale, granulometria dei sedimenti, barre sommerse, assenza di barriere biologiche, ecc.); - stato della linea di costa in termini di processi erosivi dovuti ad attività umane (urbanizzazione del litorale, prelievo inerti, costruzione di barriere, ecc.) o alle dinamiche idro-sedimentarie naturali cui risulta soggetta (correnti litoranee, apporti di materiale, ecc. ). Scopo del presente studio è quello di valutare la probabilità di ingressione del mare nel tratto costiero emiliano-romagnolo del Lido delle Nazioni, la velocità di propagazione del fronte d’onda, facendo riferimento allo schema idraulico del crollo di una diga su letto asciutto (problema di Riemann) basato sul metodo delle caratteristiche, e di modellare la propagazione dell’inondazione nell’entroterra, conseguente all’innalzamento del medio mare . Per simulare tale processo è stato utilizzato il complesso codice di calcolo bidimensionale Mike 21. La fase iniziale di tale lavoro ha comportato la raccolta ed elaborazione mediante sistema Arcgis dei dati LIDAR ed idrografici multibeam , grazie ai quali si è provveduto a ricostruire la topo-batimetria di dettaglio della zona esaminata. Nel primo capitolo è stato sviluppato il problema del cambiamento climatico globale in atto e della conseguente variazione del livello marino che, secondo quanto riportato dall’IPCC nel rapporto del 2007, dovrebbe aumentare al 2100 mediamente tra i 28 ed i 43 cm. Nel secondo e terzo capitolo è stata effettuata un’analisi bibliografica delle metodologie per la modellazione della propagazione delle onde a fronte ripido con particolare attenzione ai fenomeni di breaching delle difese rigide ed ambientali. Sono state studiate le fenomenologie che possono inficiare la stabilità dei rilevati arginali, realizzati sia in corrispondenza dei corsi d’acqua, sia in corrispondenza del mare, a discapito della protezione idraulica del territorio ovvero dell’incolumità fisica dell’uomo e dei territori in cui esso vive e produce. In un rilevato arginale, quale che sia la causa innescante la formazione di breccia, la generazione di un’onda di piena conseguente la rottura è sempre determinata da un’azione erosiva (seepage o overtopping) esercitata dall’acqua sui materiali sciolti costituenti il corpo del rilevato. Perciò gran parte dello studio in materia di brecce arginali è incentrato sulla ricostruzione di siffatti eventi di rottura. Nel quarto capitolo è stata calcolata la probabilità, in 5 anni, di avere un allagamento nella zona di interesse e la velocità di propagazione del fronte d’onda. Inoltre è stata effettuata un’analisi delle condizioni meteo marine attuali (clima ondoso, livelli del mare e correnti) al largo della costa emiliano-romagnola, le cui problematiche e linee di intervento per la difesa sono descritte nel quinto capitolo, con particolare riferimento alla costa ferrarese, oggetto negli ultimi anni di continui interventi antropici. Introdotto il sistema Gis e le sue caratteristiche, si è passati a descrivere le varie fasi che hanno permesso di avere in output il file delle coordinate x, y, z dei punti significativi della costa, indispensabili al fine della simulazione Mike 21, le cui proprietà sono sviluppate nel sesto capitolo.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La distorsione della percezione della distanza tra due stimoli puntuali applicati sulla superfice della pelle di diverse regioni corporee è conosciuta come Illusione di Weber. Questa illusione è stata osservata, e verificata, in molti esperimenti in cui ai soggetti era chiesto di giudicare la distanza tra due stimoli applicati sulla superficie della pelle di differenti parti corporee. Da tali esperimenti si è dedotto che una stessa distanza tra gli stimoli è giudicata differentemente per diverse regioni corporee. Il concetto secondo cui la distanza sulla pelle è spesso percepita in maniera alterata è ampiamente condiviso, ma i meccanismi neurali che manovrano questa illusione sono, allo stesso tempo, ancora ampiamente sconosciuti. In particolare, non è ancora chiaro come sia interpretata la distanza tra due stimoli puntuali simultanei, e quali aree celebrali siano coinvolte in questa elaborazione. L’illusione di Weber può essere spiegata, in parte, considerando la differenza in termini di densità meccano-recettoriale delle differenti regioni corporee, e l’immagine distorta del nostro corpo che risiede nella Corteccia Primaria Somato-Sensoriale (homunculus). Tuttavia, questi meccanismi sembrano non sufficienti a spiegare il fenomeno osservato: infatti, secondo i risultati derivanti da 100 anni di sperimentazioni, le distorsioni effettive nel giudizio delle distanze sono molto più piccole rispetto alle distorsioni che la Corteccia Primaria suggerisce. In altre parole, l’illusione osservata negli esperimenti tattili è molto più piccola rispetto all’effetto prodotto dalla differente densità recettoriale che affligge le diverse parti del corpo, o dall’estensione corticale. Ciò, ha portato a ipotizzare che la percezione della distanza tattile richieda la presenza di un’ulteriore area celebrale, e di ulteriori meccanismi che operino allo scopo di ridimensionare – almeno parzialmente – le informazioni derivanti dalla corteccia primaria, in modo da mantenere una certa costanza nella percezione della distanza tattile lungo la superfice corporea. E’ stata così proposta la presenza di una sorta di “processo di ridimensionamento”, chiamato “Rescaling Process” che opera per ridurre questa illusione verso una percezione più verosimile. Il verificarsi di questo processo è sostenuto da molti ricercatori in ambito neuro scientifico; in particolare, dal Dr. Matthew Longo, neuro scienziato del Department of Psychological Sciences (Birkbeck University of London), le cui ricerche sulla percezione della distanza tattile e sulla rappresentazione corporea sembrano confermare questa ipotesi. Tuttavia, i meccanismi neurali, e i circuiti che stanno alla base di questo potenziale “Rescaling Process” sono ancora ampiamente sconosciuti. Lo scopo di questa tesi è stato quello di chiarire la possibile organizzazione della rete, e i meccanismi neurali che scatenano l’illusione di Weber e il “Rescaling Process”, usando un modello di rete neurale. La maggior parte del lavoro è stata svolta nel Dipartimento di Scienze Psicologiche della Birkbeck University of London, sotto la supervisione del Dott. M. Longo, il quale ha contribuito principalmente all’interpretazione dei risultati del modello, dando suggerimenti sull’elaborazione dei risultati in modo da ottenere un’informazione più chiara; inoltre egli ha fornito utili direttive per la validazione dei risultati durante l’implementazione di test statistici. Per replicare l’illusione di Weber ed il “Rescaling Proess”, la rete neurale è stata organizzata con due strati principali di neuroni corrispondenti a due differenti aree funzionali corticali: • Primo strato di neuroni (il quale dà il via ad una prima elaborazione degli stimoli esterni): questo strato può essere pensato come parte della Corteccia Primaria Somato-Sensoriale affetta da Magnificazione Corticale (homunculus). • Secondo strato di neuroni (successiva elaborazione delle informazioni provenienti dal primo strato): questo strato può rappresentare un’Area Corticale più elevata coinvolta nell’implementazione del “Rescaling Process”. Le reti neurali sono state costruite includendo connessioni sinaptiche all’interno di ogni strato (Sinapsi Laterali), e connessioni sinaptiche tra i due strati neurali (Sinapsi Feed-Forward), assumendo inoltre che l’attività di ogni neurone dipenda dal suo input attraverso una relazione sigmoidale statica, cosi come da una dinamica del primo ordine. In particolare, usando la struttura appena descritta, sono state implementate due differenti reti neurali, per due differenti regioni corporee (per esempio, Mano e Braccio), caratterizzate da differente risoluzione tattile e differente Magnificazione Corticale, in modo da replicare l’Illusione di Weber ed il “Rescaling Process”. Questi modelli possono aiutare a comprendere il meccanismo dell’illusione di Weber e dare così una possibile spiegazione al “Rescaling Process”. Inoltre, le reti neurali implementate forniscono un valido contributo per la comprensione della strategia adottata dal cervello nell’interpretazione della distanza sulla superficie della pelle. Oltre allo scopo di comprensione, tali modelli potrebbero essere impiegati altresì per formulare predizioni che potranno poi essere verificate in seguito, in vivo, su soggetti reali attraverso esperimenti di percezione tattile. E’ importante sottolineare che i modelli implementati sono da considerarsi prettamente come modelli funzionali e non intendono replicare dettagli fisiologici ed anatomici. I principali risultati ottenuti tramite questi modelli sono la riproduzione del fenomeno della “Weber’s Illusion” per due differenti regioni corporee, Mano e Braccio, come riportato nei tanti articoli riguardanti le illusioni tattili (per esempio “The perception of distance and location for dual tactile pressures” di Barry G. Green). L’illusione di Weber è stata registrata attraverso l’output delle reti neurali, e poi rappresentata graficamente, cercando di spiegare le ragioni di tali risultati.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nel presente lavoro di tesi magistrale sono stati depositati e caratterizzati sottili film di ossido di alluminio, Al2O3, (di spessore compreso tra 3-30 nm) su un substrato di FZ-Si drogato p. La deposizione è avvenuta mediante plasma ALD (Atomic Layer Depostion). La tecnica spettroscopica EPR (Electron Paramagnetic Resonance) è stata utilizzata per studiare l’interfaccia Si/Al2O3 con lo scopo di scoprire l’origine della formazione di densità di carica negativa Qf all’interfaccia: tale carica negativa induce una passivazione per effetto di campo ed è quindi la ragione per cui il dielettrico Al2O3 risulta essere un ottimo materiale passivante. Si è deciso di variare alcuni parametri, come lo spessore dello strato di Al2O3, lo spessore dello strato intermedio di ossido di silicio, depositato mediante ossidazione termica (dry thermal oxidation), e la superficie del substrato di silicio. Sono stati realizzati cinque differenti gruppi di campioni: per ciascuno di essi sono state impiegate varie tecniche di caratterizzazione, come la QSSPC (Quasi Steady State Photoconuctance) e la tecnica di spettroscopia ottica SE (spettroscopic ellipsometry). Per ogni gruppo sono stati riportati gli spettri EPR ottenuti ed i rispettivi fit, da cui è stato possibile risalire ai fattori giromagnetici di spin g, riportati in tabelle con le loro possibili attribuzioni. E’ stato dimostrato che la presenza di uno strato di ossido di silicio tra il substrato di silicio e lo strato di ossido di alluminio risulta essere fondamentale per la formazione di densità di carica negativa all’interfaccia: aumentando lo spessore dello strato di SiOx (nel range 1-30 nm) si assiste ad una diminuzione di carica negativa Qf. Analizzando gli spettri EPR, è stato possibile concludere che all’interfaccia Si/Al2O3 sono presenti difetti caratteristici dell’interfaccia Si/SiOx. Le nostre osservazioni, dunque, sono coerenti con la formazione di uno strato di ossido di silicio tra Si e Al2O3.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Scopo di questo elaborato è studiare la risolubilità per radicali di un polinomio a coefficienti in un campo di caratteristica zero attraverso lo studio del gruppo di Galois del suo campo di spezzamento. Dopo aver analizzato alcuni risultati su gruppi risolubili e gruppi semplici, vengono studiate le estensioni radicali e risolubili. Viene inoltre dimostrato su un campo K di caratteristica zero il Teorema di Galois, che caratterizza i polinomi risolubili per radicali f a coefficienti in K attraverso la risolubilità del gruppo di Galois G(L/K), dove L è il campo di spezzamento di f. La tesi contiene anche un'esposizione sintetica del metodo introdotto da Lagrange per la risoluzione di equazioni polinomiali di cui si conosca il gruppo di Galois.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La portata media cardiaca, (cardiac output “CO”) è un parametro essenziale per una buona gestione dei pazienti o per il monitoraggio degli stessi durante la loro permanenza nell’unità di terapia intensiva. La stesura di questo elaborato prende spunto sull’articolo di Theodore G. Papaioannou, Orestis Vardoulis, and Nikos Stergiopulos dal titolo “ The “systolic volume balance” method for the non invasive estimation of cardiac output based on pressure wave analysis” pubblicato sulla rivista American Journal of Physiology-Heart and Circulatory Physiology nel Marzo 2012. Nel sopracitato articolo si propone un metodo per il monitoraggio potenzialmente non invasivo della portata media cardiaca, basato su principi fisici ed emodinamici, che usa l’analisi della forma d’onda di pressione e un metodo non invasivo di calibrazione e trova la sua espressione ultima nell’equazione Qsvb=(C*PPao)/(T-(Psm,aorta*ts)/Pm). Questa formula è stata validata dagli autori, con buoni risultati, solo su un modello distribuito della circolazione sistemica e non è ancora stato validato in vivo. Questo elaborato si pone come obiettivo quello di un’analisi critica di questa formula per la stima della portata media cardiaca Qsvb. La formula proposta nell'articolo verrà verificata nel caso in cui la circolazione sistemica sia approssimata con modelli di tipo windkessel. Dallo studio svolto emerge il fatto che la formula porta risultati con errori trascurabili solo se si approssima la circolazione sistemica con il modello windkessel classico a due elementi (WK2) e la portata aortica con un’onda rettangolare. Approssimando la circolazione sistemica con il modello windkessel a tre elementi (WK3), o descrivendo la portata aortica con un’onda triangolare si ottengono risultati con errori non più trascurabili che variano dal 7%-9% nel caso del WK2 con portata aortica approssimata con onda triangolare ad errori più ampi del 20% nei i casi del WK3 per entrambe le approssimazioni della portata aortica.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Per garantire la sicurezza di tutte le operazioni in volo (avvicinamento, decollo, holding, ecc..) il decreto legge del 15 marzo del 2006 n. 151 ha imposto la redazione di opportune cartografie basate sul Regolamento ENAC per la Costruzione e l’Esercizio degli Aeroporti e sulla normativa internazionale ICAO così da poterle annettere agli Strumenti Urbanistici del territorio e governare lo sviluppo delle costruzioni. La sicurezza delle operazioni in volo è garantita attraverso delle Superfici di Delimitazione Ostacoli che impongono dei vincoli plano-altimetrici nelle aree limitrofe agli Aeroporti, quindi costruzioni, alberi e lo stesso terreno non devono forare queste superfici altrimenti diventerebbero “Ostacoli” alla navigazione aerea. Per gli ostacoli già presenti sono definiti dei provvedimenti da adottarsi in funzione della superficie che questi forano: potranno essere abbattuti se ricadenti in aree critiche come in prossimità delle piste oppure essere segnalati in mappe in uso ai piloti e anche con segnali visivi posizionati sugli stessi. Per quanto riguarda le future costruzioni, queste non potranno mai diventare Ostacolo in quanto sarà obbligatorio rispettare i vincoli plano-altimetrici. La tesi di laurea in questione vuole illustrare come si è arrivati alla redazione delle sopraccitate mappe nel caso specifico dell'Aeroporto Guglielmo Marconi di Bologna; sono analizzate nel primo capitolo le caratteristiche fisiche degli Aeroporti per acquisire una certa padronanza su termini tecnici che compaiono nei capitoli successivi (è inoltre presente un glossario). Nel secondo capitolo è individuato il percorso normativo che ha portato alla redazione dell’ultima revisione al Codice della Navigazione. Il capitolo 3 introduce le superfici di delimitazione ostacoli secondo quanto esposto nel Regolamento per la Costruzione e l’Esercizio degli Aeroporti di ENAC; il capitolo 4 è dedicato al lay-out dell’Aeroporto Guglielmo Marconi di Bologna. Infine la tesi si conclude con il capitoli 5 nel quale sono esposte le fasi e le metodologie usate per la realizzazione delle planimetrie e con il capitolo 6 in cui si discute delle problematiche sorte a causa dell’orografia del territorio che deve tenersi nella giusta considerazione per la definizione dei suddetti vincoli aeronautici.