20 resultados para Semanario La Nota

em AMS Tesi di Laurea - Alm@DL - Università di Bologna


Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’obiettivo del lavoro è stato quello di definire la filiera di smaltimento dei rifiuti di plastica di origine domestica. La modellazione della stessa ha preso come riferimento un insieme di informazioni rese disponibili dal CONAI, Consorzio Nazionale degli Imballaggi. Noti gli attori e le attività svolte al fine dell’avvio a recupero della frazione raccolta, è stato sviluppato un modello economico adeguato al fine di ripartire i costi delle attività in funzione della gestione del materiale. Tale modellazione non prende in esame le spese e gli introiti allocati al Consorzio, ma si focalizza sulle attività di raccolta, selezione e avvio a recupero. Ci si è poi concentrati sulla modellazione economica dell’avvio a recupero della frazione di plastica raccolta dal Comune di Bologna. Ripartendo la responsabilità di gestione tra il gestore del servizio (Hera), il Centro Comprensoriale (CC Akron Granarolo), i Centri di Selezione (CSS Argeco e Idealservice) e i riciclatori (tra quelli convenzionati al consorzio) si è definito il modello economico per il caso in esame. In particolare, si è adottato un approccio simulativo di allocazione del materiale selezionato in vista della modalità di vendita di alcuni prodotti tramite asta online. La quantificazione economica in sé risente di assunzioni definite per la determinazione di una componente di costo che possa essere il può possibile esaustiva delle operazioni svolte. Si è poi proceduto definendo una stima della quantità di diossido di carbonio prodotta in fase di combustione di carburante per la movimentazione dei flussi del caso di studio. I valori in esame sono stati desunti come prodotto tra la quantità di CO2 emessa per i chilometri percorsi a seconda della tipologia di mezzo adottata per la movimentazione dei flussi. I dati relativi alle quantità di anidrite carbonica prodotte sono stime in grammi di CO2 al chilometro realizzate da Arpa e distinte in funzione delle soluzioni tecnologiche da implementare secondo le disposizioni redatte dalla Comunità Europea. La nota metodologica adottata prevede di analizzare i risultati ottenuti in funzione della distanza percorsa, dei costi di trasporto e della quantità di CO2 generata per le attività.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel presente lavoro di tesi ci si è occupati dello studio del comportamento idraulico-ambientale della rete di drenaggio a servizio della città di Modena. In particolare si è condotta una valutazione dell’effetto che gli scaricatori della rete fognaria in oggetto hanno sul complesso dei corpi idrici riceventi. Tale lavoro si prefigge anche lo scopo di individuare e dimensionare i più efficaci sistemi di controllo degli sversamenti, operati dagli scaricatori stessi, ed infine supportare analisi costi-benefici in vista della realizzazione delle opere di risanamento ambientale necessarie per ottemperare ai vincoli imposti dalla vigente normativa regionale in merito alla gestione delle acque di prima pioggia (Deliberazione G.R. Emilia Romagna 286/2005). Lo studio si è articolato in fasi successive: • analisi dello stato di fatto; • catalogazione degli scaricatori in esercizio nella rete di drenaggio; • determinazione ed analisi dei bacini idrografici e delle superfici scolanti; • implementazione di un modello numerico della rete di drenaggio; • individuazione e valutazione delle criticità idraulico-ambientali del sistema, mediante simulazioni in continuo delle serie pluviometriche degli anni 2005 e 2006. L’attività che ha portato al conseguimento dei risultati che sono raccolti in questa “nota” è stata svolta in collaborazione con la società HERA Modena s.r.l. a cui compete, fra le altre, la gestione dell’intera rete di drenaggio urbano del Comune di Modena. La fase di analisi dello stato di fatto e delle superfici scolanti afferenti ai singoli sottobacini è stata condotta utilizzando lo strumento GIS Arcview; il quale è di supporto, anche ai fini di un’appropriata definizione delle caratteristiche specifiche del territorio. Lo studio è stato sviluppato mediante la realizzazione di un modello numerico di simulazione quali-quantitativa con l’ausilio del software InfoWorks CS 8.05, distribuito dalla Wallingford Software Ltd UK.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa relazione finale è stata frutto di un lavoro sperimentale svolto in collaborazione con un’azienda del territorio ed ha avuto come obiettivo principale quello di verificare i parametri qualitativi e compositivi di una nuova tipologia di salume in fase di studio. L’azienda sta studiando una nuova tipologia di “prodotto funzionale” addizionando componenti ad attività nutraceutica al salame ottenuto da sole parti magre di suino. L’intenzione dell’azienda è di arricchire il proprio prodotto con acidi grassi polinsaturi della serie omega-3 (da olio di semi di lino), noti per gli effetti benefici che possono esercitare sulla salute umana. A questo scopo, sul prodotto di nuova formulazione (ed in parallelo sul prodotto a formulazione classica e su un prodotto del tutto simile commercializzato da un’altra azienda) sono state effettuate sia la determinazione della percentuale lipidica, al fine di individuare il quantitativo totale di grasso, che una caratterizzazione gascromatografica del profilo quali-quantitativo in acidi grassi, analsi fondamentale per verificare la conformità con i requisiti indicati dal Reg. 1924/06, e successive modifiche, previsti per le indicazioni da inserire in etichetta (claims). Inoltre, è stato importante controllare che la concentrazione voluta di acido alfa-linolenico si mantenga tale durante tutto il periodo di shelf-life del prodotto (45 gg), perciò per soddisfare quest’ultima finalità, le analisi sono state eseguite sia all’inizio (T0) che alla fine (T1) della vita commerciale del prodotto. E’ apparso poi fondamentale monitorare un possibile decadimento/modifica della qualità organolettica del prodotto di nuova formulazione, a causa del possibile aumento di ossidabilità della frazione lipidica causata da una maggiore presenza di acidi grassi polinsaturi; ed infine, con l’intento di verificare se la nuova formulazione potesse comportare una variazione significativa delle caratteristiche sensoriali del prodotto, sono stati condotti un test descrittivo quantitativo (QDA), in grado di descrivere il profilo sensoriale del prodotto ed un test discriminante qualitativo (metodo triangolare) capace di valutare l’eventuale comparsa di cambiamenti in seguito alle modifiche apportate al prodotto; per ultimo è stato poi eseguito un test affettivo quantitativo (test di preferenza, condotto su scala di laboratorio) in grado fornire informazioni sul gradimento e di evidenziare i principali vettori che guidano le scelte dei consumatori. I risultati delle analisi chimiche e sensoriali, eseguite per soddisfare tali richieste, hanno evidenziato come il salume presenti un quantitativo di tali acidi grassi polinsaturi in linea con il claim “Alimento fonte di acidi grassi omega-3”, (requisiti indicati dal Reg. 1924/06 e successive modifiche), risultato confermato sia all’inizio che al termine della vita commerciale del prodotto (pari a circa 45 giorni). Inoltre, esso risulta essere piuttosto interessante dal punto di vista nutrizionale, poiché caratterizzato da un contenuto di grasso per la categoria dei salumi, relativamente limitato, pari a circa il 15%, con percentuali più favorevoli in acidi grassi insaturi. L’analisi del profilo sensoriale condotta ad inizio shelf-life ha invece evidenziato come questa tipologia di prodotto sia caratterizzata sia al gusto che all’olfatto da note più sapide e speziate , oltre ad una maggiore consistenza della fetta, rispetto agli altri campioni analizzati, mentre i risultati relativi al termine della shelf-life hanno evidenziato come esso tenda ad essere soggetto ad alterazioni sensoriali rilevabili proprio al termine della fase di conservazione dovute nello specifico alla formazione di composti responsabili dell’odore di rancido. I test discriminanti, condotti con giudici non allenati, non hanno invece fatto registrare differenze sensoriali significative tra il prodotto con formulazione classica e quello di nuova formulazione, confrontati ad inizio e a fine shelf-life. Riassumendo, dai risultati ottenuti da questo lavoro sperimentale, il prodotto di nuova formulazione, arricchito in acidi grassi polinsaturi della serie omega-3, risulta essere in linea con il claim “Alimento fonte di acidi grassi omega-3”, presenta in generale un contenuto di grasso totale inferiore a quello di altre tipologie di salumi ed un rapporto più favorevole tra acidi grassi insaturi e saturi, per questo può essere considerato un prodotto interessante dal punto di vista della salute e della nutrizione. Proprio per la sua formulazione più ricca in acidi grassi polinsaturi, tende però a fine shelf-life a presentare una leggera nota di rancido, riconducibile ad una maggiore ossidabilità della frazione lipidica. Tale variazione sensoriale è risultata comunque percepita solo da un panel allenato, mentre un test di tipo discriminante, condotto con giudici non allenati, non ha messo in luce differenze significative tra il salume di nuova formulazione e quello con formulazione classica né all’inizio, né al termine della vita commerciale del prodotto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi nasce dall’idea di sfruttare i recenti sviluppi della tecnica nell’ambito delle elaborazioni tridimensionali su immagini interne al corpo umano per creare nuovi strumenti di diagnosi e controllo utili ai fini medici. In particolare, si cercherà un nuovo strumento di diagnosi per una malattia, ampiamente diffusa tra la popolazione, che colpisce l’orecchio interno: la cupololitiasi, anche nota come vertigine parossistica posizionale benigna. Il presente studio, che fa parte di un più ampio progetto di ricerca, è volto a definire un protocollo sia di misure antropometriche che di densità di tessuti e alla verifica di parametri, su un numero limitato di campioni, la cui presenza consente di rilevare la malattia. Si cercano misure che diano valori differenti tra orecchi interni sani e malati, cioè segnali inequivocabili della presenza della cupololitiasi. Si utilizzano immagini provenienti da TAC effettuate a pazienti sofferenti di cupololitiasi per scopi diagnostici; si elaborano in 3D e si misurano con il programma di Materializze: MIMICS.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La fascia costiera ravennate è soggetta ad un precario equilibrio ambientale dovuto alla morfodinamica naturale molto attiva e tipica di tali ambienti, quali: sedimentazione, erosione, subsidenza e salinizzazione. A queste, in tempi diversi, sono venuti ad associarsi altri processi, indotti dall’attività antropica, che hanno portato alla scomparsa di gran parte dei caratteri paesaggistico-ambientali originari: le dune sono state in parte spianate, le paludi bonificate, le superfici boschive fortemente ridotte e le spiagge in buona parte occupate da stabilimenti per il turismo balneare. Nel presente studio è stata effettuata una valutazione territoriale del rischio di salinizzazione nei suoli della piana agricola costiera presenti nella zona sud ravennate. Partendo dall’individuazione dell’area di studio è stata effettuata una caratterizzazione pedologica delle tipologie di suolo presenti e una valutazione di tipo chimico-fisiche per verificare l’effettivo livello di manifestazione del problema della salinizzazione. Dalle analisi effettuate si sono riscontrati valori di CE elevati nei profili prossimi alla costa determinati dalla presenza degli ioni sodio e cloruro, mentre i terreni più interni posti in zona depressa non presentano fenomeni di salinizzazione degni di nota, ad accezione di alcune situazioni localizzate e fortunatamente solo in profondità. Le analisi delle acque di falda della Pineta Ramazzotti invece, hanno evidenziato valori di CE elevati ( >2 dS.m-1 ) che porta a classificarle come acque di falda lievemente - sensibilmente contaminate da parte dell’acqua di mare, risultando quindi una zona in cui il fenomeno della salinizzazione risulta significativo. Concludendo si può affermare che tale ambiente fragile e sensibile deve essere oggetto di un costante monitoraggio, ponendo l’attenzione su modificazioni ambientali, o politiche di gestione territoriale che possono indurre effetti assai gravi.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente elaborato ha ad oggetto la direttiva PED (Pressure Equipment Directive) relativa agli apparecchi a pressione. Tale norma è stata recepita in Italia con il D.Lgs. n. 93/2000 ed è entrata in vigore definitivamente nel 2002. Essa è finalizzata alla libera circolazione delle attrezzature a pressione nella comunità europea e ne disciplina la progettazione, la costruzione, l'equipaggiamento e l'installazione in sicurezza, definendo per ciascuna delle fasi sopra elencate quali siano i documenti da presentare, gli accorgimenti da rispettare e i controlli a cui sottostare. Il presente lavoro di tesi, svolto presso lo stabilimento di Ravenna di ENI Versalis, ha avuto l’obiettivo di individuare i punti di contatto fra quanto richiesto dalla direttiva PED e quanto solitamente emerge dall’applicazione delle tecniche per l’analisi di rischio, degli standard internazionali e aziendali e delle norme di buona tecnica. Il risultato del lavoro consiste nella definizione di un iter tecnico-procedurale standardizzato ad uso dell’utilizzatore delle attrezzature a pressione tramite la quale l’azienda possa procedere alla compilazione delle Note Tecniche destinate al fabbricante delle attrezzature stesse, secondo quanto richiesto dalla direttiva. Tali Note Tecniche devono contenere le indicazioni relative ai valori progettuali di temperatura e pressione e ai Requisiti Essenziali di Sicurezza (RES) che devono essere soddisfatti, permettendo così al fabbricante di poter svolgere una corretta analisi di rischio e all’utilizzatore di ottenere la massima sicurezza negli impianti. L’elaborato è strutturato come segue. Dopo il Capitolo 1, avente carattere introduttivo, nel Capitolo 2 vengono illustrate le principali novità introdotte dalla direttiva PED e descritti i punti cardine della procedura di valutazione della conformità richiesta per le attrezzature a pressione. Nel Capitolo 3 viene esaminata l’integrazione della direttiva PED con la direttiva Macchine e la direttiva ATEX. Nel Capitolo 4 sono descritte le principali tecniche di analisi di rischio che possono essere utilizzate per rispondere ai Requisiti Essenziali di Sicurezza (RES) richiesti in fase di compilazione della Nota Tecnica. Nel Capitolo 5 si fornisce una descrizione dettagliata dell’iter tecnico-procedurale messo a punto per la valutazione di conformità delle attrezzature e degli insiemi a pressione. Nel Capitolo 6 vengono illustrati ad uno ad uno i punti che devono essere presenti in una Nota Tecnica, ciascuno dei quali costituisce un Requisito Essenziale di Sicurezza. Nel Capitolo 7 viene approfondito uno dei Requisiti più critici, l’incendio esterno. Infine nel Capitolo 8 sono riportate le considerazioni conclusive.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Scopo di questo studio è mostrare come, a partire dalle equazioni di Maxwell nella forma classica, sia possibile associare al campo elettromagnetico una funzione Hamiltoniana che risulti essere somma delle Hamiltoniane di un numero discreto di oscillatori armonici, ciascuno dei quali è associato ad un modo normale di vibrazione del campo. Tramite un procedimento puramente formale di quantizzazione, è possibile ricavare un'espressione per lo spettro del campo elettromagnetico e viene introdotto il concetto di fotone, inteso come quanto d'eccitazione di un singolo oscillatore. Si ricava la ben nota espressione U=ħω per l'energia del fotone e si deducono alcuni importanti aspetti, quali le fluttuazioni quantistiche del campo elettromagnetico e il problema legato alla divergenza dell'energia di vuoto fotonico, che aprono le porte all'elettrodinamica quantistica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le Millisecond Pulsar (MSP) sono stelle di neutroni magnetizzate e rapidamente rotanti, prodotte da fenomeni di accrescimento di massa e momento angolare da parte di una stella compagna. Secondo lo scenario canonico di formazione, è atteso che la stella compagna sia una nana bianca di He, privata del suo inviluppo esterno. Tuttavia, in un numero crescente di casi, la compagna della MSP è stata identificata in una stella di piccola massa, non degenere, ancora soggetta a fenomeni di perdita di massa. Queste MSP vengono comunemente chiamate ''Black-Widow'' (BW) e sono l'oggetto di studio di questa tesi. In particolare, l'obiettivo di questo lavoro è l'identificazione della controparte ottica della PSR J1953+1846A nell'ammasso globulare M71. Essa è classificata come BW, data la piccola massa della compagna (~0.032 Msun) e il segnale radio eclissato per circa il 20% dell'orbita. Tramite l'uso di osservazioni ad alta risoluzione con il telescopio spaziale Hubble, abbiamo identificato, in una posizione compatibile con la MSP, un debole oggetto, la cui variabilità mostra una periodicità coerente con quella del sistema binario, noto dalla banda radio. La struttura della curva di luce è indicativa della presenza di fenomeni di irraggiamento della superficie stellare esposta all'emissione della MSP e dalla sua analisi abbiamo stimato alcuni parametri fisici della compagna, come la temperatura superficiale ed il fattore di riempimento del lobo di Roche. Dal confronto tra le curve di luce X ed ottica, abbiamo inoltre trovato evidenze a favore della presenza di shocks nelle regioni intrabinarie. Abbiamo quindi evidenziato l'estrema similarità di questo sistema con l'unica compagna di BW attualmente nota in un ammasso globulare: PSR J1518+0204C. Infine, abbiamo effettuato uno studio preliminare delle controparti ottiche delle sorgenti X dell'ammasso. Abbiamo così identificato due AGN che, insieme ad altre due galassie, hanno permesso la determinazione del moto proprio assoluto delle stelle dell'ammasso.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La lingua di Una questione privata e de La vita agra, vista come costruzione culturale condizionata dal contesto, sarà l’oggetto di questo lavoro. L’accento sarà messo sulla sua capacità di andare oltre la mera definizione del dizionario e condizionare il lettore, avvicinandolo ai personaggi. In particolare, si studierà la presenza di termini nella loro lingua originale, come mezzo per permettere al lettore di trovarsi sulla stessa lunghezza d’onda dei personaggi e di avere la loro stessa percezione della realtà. Effettivamente, nei due romanzi scelti, le lingue straniere hanno un forte rilievo, che se nell’opera di Fenoglio si nota soprattutto a livello di riferimenti più o meno impliciti alla letteratura inglese, in quella di Bianciardi si coglie come vera e propria presenza di interferenze. In entrambi i casi, questa tendenza è principalmente dovuta all’esistenza di un “io traduttore”, in cui si incontrano l’io dell’autore e l’io del protagonista. Si può affermare, dunque, che l’uso di termini stranieri sia una scelta stilistica consapevole e volontaria dei due scrittori, che tra l’altro erano anche traduttori, proprio come i loro protagonisti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’osteoartrosi è la malattia delle articolazioni più comune al mondo ed è spesso causa di condizioni fortemente disabilitanti. Date le limitazioni dei trattamenti attualmente proposti per la gestione dei pazienti osteoartrosici è di grande interesse la ricerca di soluzioni alternative. A tal fine Fin-Ceramica S.p.A. desidera progettare un innovativo sostituto osteocondrale in collagene attivato con un’emergente classe di macromolecole polimeriche: i dendrimeri. Questi polimeri offrono un’unica opportunità di mostrare all’interfaccia con il tessuto naturale una pluralità di gruppi funzionali favorendo, con un’adeguata ingegnerizzazione, le interazioni biologiche e sostenendo la vitalità e l’attività cellulare. In questo lavoro di tesi, con in mente una futura convalida di processo necessaria a garantire la sicurezza e l’affidabilità del prodotto, sono stati sviluppati nuovi metodi per verificare ed ottimizzare la reazione di sintesi del dendrimero, per caratterizzare il materiale ottenuto e per creare legami covalenti fra collagene e dendrimero attivando potenzialmente il sostituto osteocondrale. Il primo obiettivo è stato conseguito sfruttando la presenza o l’assenza di gruppi amminici disponibili ai terminali del dendrimero in crescita e la formazione di un prodotto di scarto cromoforo durante la sintesi. In relazione a questi elementi sono stati individuati metodi semplici ed efficaci, quali la spettrofotometria ultravioletta ed i saggi colorimetrici con TNBS e ninidrina, per monitorare ogni step di reazione portandolo a compimento e ricavare i tempi necessari a tale scopo. Il dendrimero ottenuto è stato quindi caratterizzato tramite spettrometria infrarossa in trasformata di Fourier. Nota la composizione teorica della nostra macromolecola quest’analisi ha consentito l’identificazione del materiale prodotto ed ha inoltre permesso di dimostrare la ripetibilità dello specifico processo di sintesi dendrimerica. Infine per individuare una possibile procedura di funzionalizzazione del collagene con il dendrimero sono stati sperimentati due differenti metodi relativi a due diversi agenti crosslinkanti. Per rilevare un’eventuale modifica delle proprietà superficiali dei campioni realizzati, conseguente alla presenza dei dendrimeri, ne è stata valutata la bagnabilità attraverso la misura dell’angolo di contatto. La determinazione per uno dei due metodi di un significativo aumento di idrofilicità rispetto al campione di controllo ha verificato la fattibilità della reazione di funzionalizzazione del collagene con il dendrimero sintetizzato in questa ricerca identificando un possibile reagente ed una relativa procedura. I risultati ottenuti da queste ricerche costituiscono informazioni necessarie all’attività di convalida del processo di sintesi del dendrimero ed alla realizzazione del sostituto osteocondrale attivato progettato da Fin-Ceramica.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Una tracciato anormale della rotula può provocare dolore anteriore al ginocchio dopo un’artroplastica e può condurre al fallimento dell’intervento stesso. È importante quindi valutare questo tracciato sia intra che post-operatoriamente, anche per validare disegni protesici innovativi e supportare il chirurgo per le più critiche decisioni chirurgiche al momento dell’impianto. Ad oggi però le valutazioni in-vivo della cinematica femoro-rotulea sono poche e poco attendibili; è per questi motivi che abbiamo deciso di analizzare l’articolazione con la tecnica video-fluoroscopica, appositamente adattata allo scopo di tale studio, a sei mesi di follow-up dall’intervento. Per lo studio abbiamo esaminato, tramite video-fluoroscopia 3D, sette pazienti che hanno subito l’impianto di una protesi totale al ginocchio con ricopertura della rotula. Successivamente le immagini sono state elaborate con un apposito software per ricostruire la cinematica 3D, e sono stati ottenuti i grafici per ogni grado di libertà dell’articolazione. Dall’analisi dei risultati, la tecnica utilizzata è risultata fattibile ed affidabile, infatti dai grafici si nota come la normale cinematica delle articolazioni studiate sia stata ripristinata. Questo studio, oltre a validare l’applicazione della tecnica video-fluoroscopica all’articolazione femoro-rotulea oltre che a quella tibio-femorale, dopo un confronto con i dati derivanti dalla navigazione chirurgica, ha consentito di validare anche questa tecnica intra-operatoria. Questo risultato potrà condurre ad una maggiore precisione nell’allineamento delle componenti protesiche da parte del chirurgo, con conseguente riduzione del rischio di fallimento dell’impianto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

È ben noto che non è possibile definire un embedding dello spazio proiettivo P^2(R) in R^3. Werner Boy nel 1901 provò per via teorica l’esistenza di un’immersione di P^2 in R^3: l’immagine di tale immersione è nota come superficie di Boy. Successivamente tale immersione venne fornita esplicitamente e si dimostrò che la superficie di Boy poteva essere ottenuta deformando la superficie romana di Steiner. Quest’ultima è una rappresentazione di P^2(R) in R^3 che non è tuttavia un’immersione, per la presenza di punti singolari detti pinch points.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nella tesi si intende ricolorare alcune porzioni di un'immagine delle quali è nota soltanto la scala dei grigi. Il colore viene considerato nello spazio RGB e decomposto in cromaticità e luminosità. Il problema viene espresso come problema di minimo di un funzionale detto di ``Total Variation'', definito sulle funzioni a variazione limitata BV. Si introduce la nozione di funzione BV di R^n, le principali proprietà di queste funzioni e in particolare si enuncia un teorema di compattezza. Si utilizzano infine tali risultati per ottenere l'esistenza di un punto di minimo per il funzionale che risolve il problema della ricolorazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo lavoro di tesi nasce con l'obbiettivo di studiare il modello di Guyton, proponendone una versione più dettagliata con lo scopo di utilizzarla poi come strumento di indagine per una patologia nota come atresia tricuspidale. Si è giunti così alla creazione di un modello ibrido del sistema cardiovascolare che vede la modellizzazione, a parametri concentrati, dell’intera rete circolatoria interfacciata con una rappresentazione dell' attività cardiaca mediante le cosidette curve di funzionalità. Nello specifico si è risaliti ad un modello della cicolazione cardiocircolatoria separando quella che è la circolazione sistemica dalla circolazione polmonare secondo il sopracitato modello di Guyton, dopo di chè si è trovato un analogo modello per pazienti sottoposti all' intervento di Fontan poiché affetti da atresia tricuspidale.Tramite l'ausilio del software Matlab sono stati implementati questi due modelli semplificati (“Guyton biventricolare” e “Guyton monoventricolare”) e il corrispondente algoritmo risolutivo, con l'obiettivo di verificare, graficamente e numericamente, i risultati ottenuti dalla simulazione.Una volta accertatisi della attendibilità dei risultati, mediante il confronto con dati fisiologici dai manuali e dagli articoli su cui si è fondato questo elaborato, si è proceduto alla simulazione di casi fisiologici di attività fisica e di malfunzionamento del ventricolo sinistro.L'utilizzo di un modello matematico per la circolazione permette di studiare e simulare l'interazione di diversi sistemi fisiologici superando il problema che si ha in ambito clinico, dove l'analisi è più complessa perchè la misurazione delle numerose variabili fisiologiche è indaginosa e a volte non fattibile.Fine ultimo dell'elaborato tuttavia non è quello di dare valutazioni cliniche dei casi presi in esame e delle loro variabili, ma quello di presentare un metodo per studiare come la fisiologia della circolazione umana reagisce a dei cambiamenti.