999 resultados para 580 Piante (Botanica) (Classificare qui la Storia naturale e la Biologia descrittiva delle piante)


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tossicità delle polveri atmosferiche è associata sia alla natura granulometrica sia al carico di contaminanti, da qui la necessità di investigare oltre la concentrazione delle PM in atmosfera anche la loro composizione chimica. In questo studio è stata effettuata una prima caratterizzazione da un punto di vista sia granulometrico che chimico del particolato atmosferico campionato in una zona suburbana di Riccione (Castello degli Agolanti). In particolare sono state determinate le concentrazioni di metalli quali Pb, Cd, Ni, Zn, Cu, Fe e Al nel PM 2,5 PM 10 e PM totale. Inoltre, dato che uno degli scopi dello studio è quello di verificare il contributo della combustione di biomasse sul carico complessivo di contaminanti, il periodo di campionamento comprende il giorno delle Fogheracce, festa popolare in cui vengono accesi diversi falò all’aperto. Complessivamente sono stati prelevati 13 campioni di 48 ore per ogni frazione granulometrica dal 9 Marzo all’8 Aprile 2011. Dallo studio emerge che nel periodo di campionamento, mediamente il contributo antropogenico è dominante per Pb, Cd, Ni Cu e Zn dovuto principalmente al traffico veicolare. Tali metalli, ad eccezione del Cu infatti si concentrano nel particolato più fine. Al e Fe invece sono principalmente marker delle emissioni crostali e si concentrano nella frazione grossolana. Interessante quanto registrato nella giornata delle Fogheracce. Oltre ad una variazione nel contenuto relativo dei metalli con un forte arricchimento di Pb e Al, per quest’ultimo si nota anche un forte incremento della sua concentrazione nella frazione PM2.5 ad indicare una diversa sorgente emissiva. Si evidenzia in questo studio un importante contributo nel carico di inquinanti da parte di combustioni di biomasse all’aperto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le reti di sensori non cablate producono una grande quantità di informazioni sotto forma di flusso continuo di dati, provenienti da una certa area fisica. Individualmente, ogni sensore è autonomo, dotato di batteria limitata e possiede una piccola antenna per la comunicazione; collettivamente, i sensori cooperano su un’ area più o meno vasta per far giungere i dati gene- rati ad un unità centrale. Poiché la sostituzione delle batterie è spesso un operazione troppo costosa o inattuabile, l’efficienza energetica è considerata una metrica prioritaria durante la progettazione delle reti di sensori non cablate. Si richiede non solo di ridurre le richieste energetiche di ogni singolo nodo, ma anche di massimizzare il tempo di vita dell’intera rete, considerando i costi di comunicazione tra sensori. Ciò ha portato allo studio di come rimuo- vere le inefficienze energetiche sotto ogni aspetto: dalla piattaforma hardware, al software di base, ai protocolli di comunicazione al software applicativo. Nella tesi è illustrata una tecnica per il risparmio energetico che consiste nell’applicare memorie fisiche ad alcuni nodi della rete, in modo da accumulare in esse porzioni dei dati ge- nerati; successivamente le informazioni possono essere recuperate dall’unità centrale tramite interrogazioni. Questo permette di ridurre il numero di dati trasmessi, e conseguentemente diminuire l’assorbimento energetico della rete. Scopo della presente tesi è individuare algo- ritmi per determinare la disposizione ottima delle memorie tra i nodi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La questione energetica ha assunto, negli ultimi anni, un ruolo centrale nel dibattito mondiale in relazione a quattro fattori principali: la non riproducibilità delle risorse naturali, l’aumento esponenziale dei consumi, gli interessi economici e la salvaguardia dell'equilibrio ambientale e climatico del nostro Pianeta. E’ necessario, dunque, cambiare il modello di produzione e consumo dell’energia soprattutto nelle città, dove si ha la massima concentrazione dei consumi energetici. Per queste ragioni, il ricorso alle Fonti Energetiche Rinnovabili (FER) si configura ormai come una misura necessaria, opportuna ed urgente anche nella pianificazione urbanistica. Per migliorare la prestazione energetica complessiva del sistema città bisogna implementare politiche di governo delle trasformazioni che escano da una logica operativa “edificio-centrica” e ricomprendano, oltre al singolo manufatto, le aggregazioni di manufatti e le loro relazioni/ interazioni in termini di input e output materico-energetiche. La sostituzione generalizzata del patrimonio edilizio esistente con nuovi edifici iper-tecnologici, è improponibile. In che modo quindi, è possibile ridefinire la normativa e la prassi urbanistica per generare tessuti edilizi energeticamente efficienti? La presente ricerca propone l’integrazione tra la nascente pianificazione energetica del territorio e le più consolidate norme urbanistiche, nella generazione di tessuti urbani “energy saving” che aggiungano alle prestazioni energetico-ambientali dei singoli manufatti quelle del contesto, in un bilancio energetico complessivo. Questo studio, dopo aver descritto e confrontato le principali FER oggi disponibili, suggerisce una metodologia per una valutazione preliminare del mix di tecnologie e di FER più adatto per ciascun sito configurato come “distretto energetico”. I risultati di tale processo forniscono gli elementi basilari per predisporre le azioni necessarie all’integrazione della materia energetica nei Piani Urbanistici attraverso l’applicazione dei principi della perequazione nella definizione di requisiti prestazionali alla scala insediativa, indispensabili per un corretto passaggio alla progettazione degli “oggetti” e dei “sistemi” urbani.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi di laurea nasce dall’approfondimento del progetto che abbiamo sviluppato nel laboratorio di progettazione architettonica frequentato presso la Middle East Technical University, METU, di Ankara, Turchia, durante l’anno accademico 2011-12. La prima parte del corso, tenuto dai professori S. Özkan e Z. Mennan, consisteva nello studio e analisi critica dei progetti in concorso per il bando “Istanbul Theme Park” e nella riproposizione, da presentare a gruppi, di uno dei masterplan studiati, con le modifiche ritenute necessarie a fronte delle considerazioni fatte e di nuove idee progettuali. Lo step successivo è stato quello di approfondire individualmente la progettazione architettonica di un area di almeno 100.000 mq in scala 1:500 e di un edificio in dettaglio 1:200. Date le tempistiche molto ridotte del corso, che si completava in tredici settimane, abbiamo scelto di continuare il lavoro e approfondire, con l’aiuto della prof.ssa V. Orioli e dell’arch. E. Brighi, l’elaborazione del masterplan arrivando ad una definizione maggiore di tutta l’area e non solamente delle aree di interesse approfondite durante la permanenza in Turchia. Il progetto presentato è quindi il frutto di un anno di lavoro sulla riqualificazione di un area di 150 ettari precedentemente adibita a discarica, situata nella parte occidentale di Istanbul. L’obiettivo che abbiamo perseguito è stato quello di ricreare nella periferia della metropoli turca uno stralcio di città con caratteri più “europei”, comprendendo in un solo grande ambito di progetto tutte le funzioni necessarie alla vita di un quartiere cittadino ma anche le grandi strutture attrattive richieste dal concorso. Durante il nostro percorso abbiamo cercato anche di non perdere di vista il contesto in cui lavoravamo e le abitudini della società turca con cui ci andavamo a confrontare. Nonostante la forte occidentalizzazione delle zone ricche delle grandi città come Istanbul, Ankara e Izmir, gli stili di vita europeo e turco sono fondamentalmente differenti e progettare una città, o uno stralcio di essa, per un popolo diverso necessita la conoscenza dei suoi valori fondamentali e delle abitudini che ne scandiscono le giornate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Web nel corso della sua esistenza ha subito un mutamento dovuto in parte dalle richieste del mercato, ma soprattutto dall’evoluzione e la nascita costante delle numerose tecnologie coinvolte in esso. Si è passati da un’iniziale semplice diffusione di contenuti statici, ad una successiva collezione di siti web, dapprima con limitate presenze di dinamicità e interattività (a causa dei limiti tecnologici), ma successivamente poi evoluti alle attuali applicazioni web moderne che hanno colmato il gap con le applicazioni desktop, sia a livello tecnologico, che a livello di diffusione effettiva sul mercato. Tali applicazioni web moderne possono presentare un grado di complessità paragonabile in tutto e per tutto ai sistemi software desktop tradizionali; le tecnologie web hanno subito nel tempo un evoluzione legata ai cambiamenti del web stesso e tra le tecnologie più diffuse troviamo JavaScript, un linguaggio di scripting nato per dare dinamicità ai siti web che si ritrova tutt’ora ad essere utilizzato come linguaggio di programmazione di applicazioni altamente strutturate. Nel corso degli anni la comunità di sviluppo che ruota intorno a JavaScript ha prodotto numerose librerie al supporto del linguaggio dotando così gli sviluppatori di un linguaggio completo in grado di far realizzare applicazioni web avanzate. Le recenti evoluzioni dei motori javascript presenti nei browser hanno inoltre incrementato le prestazioni del linguaggio consacrandone la sua leadership nei confronti dei linguaggi concorrenti. Negli ultimi anni a causa della crescita della complessità delle applicazioni web, javascript è stato messo molto in discussione in quanto come linguaggio non offre le classiche astrazioni consolidate nel tempo per la programmazione altamente strutturata; per questo motivo sono nati linguaggi orientati alla programmazione ad oggetti per il web che si pongono come obiettivo la risoluzione di questo problema: tra questi si trovano linguaggi che hanno l’ambizione di soppiantare JavaScript come ad esempio Dart creato da Google, oppure altri che invece sfruttano JavaScript come linguaggio base al quale aggiungono le caratteristiche mancanti e, mediante il processo di compilazione, producono codice JavaScript puro compatibile con i motori JavaScript presenti nei browser. JavaScript storicamente fu introdotto come linguaggio sia per la programmazione client-side, che per la controparte server-side, ma per vari motivi (la forte concorrenza, basse performance, etc.) ebbe successo solo come linguaggio per la programmazione client; le recenti evoluzioni del linguaggio lo hanno però riportato in auge anche per la programmazione server-side, soprattutto per i miglioramenti delle performance, ma anche per la sua naturale predisposizione per la programmazione event-driven, paradigma alternativo al multi-threading per la programmazione concorrente. Un’applicazione web di elevata complessità al giorno d’oggi può quindi essere interamente sviluppata utilizzando il linguaggio JavaScript, acquisendone sia i suoi vantaggi che gli svantaggi; le nuove tecnologie introdotte ambiscono quindi a diventare la soluzione per i problemi presenti in JavaScript e di conseguenza si propongono come potenziali nuovi linguaggi completi per la programmazione web del futuro, anticipando anche le prossime evoluzioni delle tecnologie già esistenti preannunciate dagli enti standard della programmazione web, il W3C ed ECMAScript. In questa tesi saranno affrontate le tematiche appena introdotte confrontando tra loro le tecnologie in gioco con lo scopo di ottenere un’ampia panoramica delle soluzioni che uno sviluppatore web dovrà prendere in considerazione per realizzare un sistema di importanti dimensioni; in particolare sarà approfondito il linguaggio TypeScript proposto da Microsoft, il quale è nato in successione a Dart apparentemente con lo stesso scopo, ma grazie alla compatibilità con JavaScript e soprattutto con il vasto mondo di librerie legate ad esso nate in questi ultimi anni, si presenta nel mercato come tecnologia facile da apprendere per tutti gli sviluppatori che già da tempo hanno sviluppato abilità nella programmazione JavaScript.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il mio progetto di ricerca è nato da una riflessione concernente una domanda fondamentale che si pongono gli studiosi della comunicazione digitale: le attuali tecnologie mediali che hanno creato nuovi modelli comunicativi e inaugurato inedite modalità di interrelazione sociale conducono a un dualismo digitale o a una realtà aumentata? Si è cercato di dare una risposta a questo interrogativo attraverso un’indagine compiuta su un social network, Facebook, che è la piattaforma digitale più diffusa nel mondo. L’analisi su Facebook, è stata preceduta da una riflessione sui concetti dello spazio e del tempo elaborati dalla letteratura filosofica e sociologica. Tale riflessione è stata propedeutica all’analisi volta a cogliere l’impatto che hanno avuto sulla relazionalità intersoggettiva e sulle dinamiche di realizzazione del sé l’interazione semantica nello spazio delimitato della piazza tradizionale, la molteplicità e la potenza seduttiva delle offerte comunicative dei media elettronici nella estensione della piazza massmediale e soprattutto la nascita e l’affermazione del cyberspazio come luogo della comunicazione nella piazza digitale. Se la peculiarità della piazza tradizionale è nel farsi dei rapporti face to face e quella della piazza massmediale nella funzione rilevante della fonte rispetto al destinatario, la caratteristica della piazza digitale consiste nella creazione autonoma di un orizzonte inclusivo che comprende ogni soggetto che si collega con la rete il quale, all’interno del network, riveste il doppio ruolo di consumatore e di produttore di messaggi. Con l’avvento dell’online nella prassi della relazionalità sociale si producono e si attuano due piani di interazioni comunicative, uno relativo all’online e l’altro relativo all’offline. L’ipotesi di lavoro che è stata guida della mia ricerca è che la pervasività dell’online conduca all’integrazione dei due segmenti comunicativi: l’esperienza della comunicazione digitale si inserisce nella prassi sociale quotidiana arricchendo i rapporti semantici propri della relazione face to face e influenzandoli profondamente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Poiché la diagnosi differenziale degli episodi parossistici notturni è affidata alla VEPSG, tenendo conto dei limiti di tale metodica, il progetto attuale ha lo scopo di definire la resa diagnostica di strumenti alternativi alla VEPSG: anamnesi, home-made video ed EEG intercritico. Sono stati reclutati consecutivamente 13 pazienti, afferiti al nostro Dipartimento per episodi parossistici notturni. Ciascun paziente è stato sottoposto ad un protocollo diagnostico standardizzato. A 5 Medici Esperti in Epilessia e Medicina del Sonno è stato chiesto di formulare un orientamento diagnostico sulla base di anamnesi, EEG intercritico, home-made video e VEPSG. Attraverso l’elaborazione degli orientamenti diagnostici è stata calcolata la resa diagnostica delle procedure esaminate, a confronto con la VEPSG, attraverso il concetto di “accuratezza diagnostica”. Per 6 pazienti è stato possibile porre una diagnosi di Epilessia Frontale Notturna, per 2 di parasonnia, in 5 la diagnosi è rimasta dubbia. L’accuratezza diagnostica di ciascuna procedura è risultata moderata, con lievi differenze tra le diverse procedure (61.5% anamnesi; 66% home-made video; 69,2 % EEG intercritico). E’ essenziale migliorare ulteriormente l’accuratezza diagnostica di anamnesi, EEG intercritico ed home-made video, che possono risultare cruciali nei casi in cui la diagnosi non è certa o quando la VEPSG non è disponibile.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obbiettivo di questa tesi è quello di delineare, attraverso i lavori svolti durante il mio percorso di studi presso la Facoltà di Architettura “Aldo Rossi” di Cesena, gli strumenti metodologici appresi per l’elaborazione di un progetto di architettura, capace di abbandonare la dicotomia antico – nuovo, interpretati come concetti distinti e a volte contrari, a favore di «una collaborazione che, con il nostro contributo, aumenta ed arricchisce la perenne attualità delle possibili combinazioni formali di relazione universale». E. N. Rogers

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La relazione interdisciplinare tra letteratura e fotografia, nella rilettura della storia recente del Mozambico, è l’oggetto di studio della presente tesi. Il presupposto coincide in primo luogo con la disamina interna della dialettica esistente tra archivio coloniale e oralità, modalità narrativa in parte transitata nella estória, declinazione lusofona della forma breve che permette di recuperare l’eredità popolare del racconto tradizionale. Il dialogo tra verbale e visuale consente a sua volta di stabilire nuovi paradigmi interpretativi nel dibattito postcoloniale tra memoria, trauma e rappresentazione. L’analisi comparativa tra la narrativa di João Paulo Borges Coelho e la fotografia di Ricardo Rangel rivela sguardi diversi sul mondo circostante, ma anche convergenze contemplative che si completano nell’incorporazione reciproca delle “omologie strutturali” comuni alle due modalità espressive. La fotografia colma delle lacune fornendoci delle visioni del passato, ma, in quanto “rappresentazione”, ci mostra il mondo per come appare e non per come funziona. Il testo letterario, grazie al suo approccio dialogico-narrativo, consente la rielaborazione museologica della complessa pletora di interferenze semantiche e culturali racchiuse nelle immagini, in altre parole fornisce degli “indizi di verità” da cui (ri)partire per l’elaborazione di nuovi archetipi narrativi tra l’evento rappresentato e la Storia di cui fa parte. Il punto di tangenza tra i due linguaggi è la cornice, espediente fotografico e narrativo che permette di tracciare i confini tra l’indicibile e l’invisibile, ma anche tra ciò che si narra e ciò che sta fuori dalla narrazione, ovvero fuori dalla storia. La tensione dialettica che si instaura tra questi due universi è seminale per stabilire le ragioni della specificità letteraria mozambicana perché, come afferma Luandino Vieira, “nel contesto postcoloniale gli scrittori sono dei satelliti che ruotano intorno ai «buchi neri della storia» la cui forza di attrazione permette la riorganizzazione dell’intero universo letterario.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nell’ambito delle problematiche relative agli impianti a rischio di incidente rilevante, riscontra particolare interesse l’analisi dell’effetto domino, sia per la grande severità delle conseguenze degli eventi incidentali che esso comporta, sia per l’indeterminazione ancora presente nelle metodologie di analisi e di valutazione del fenomeno stesso. Per effetto domino si intende la propagazione di un evento incidentale primario dall’apparecchiatura dalla quale ha avuto origine alle apparecchiature circostanti, che diventano sorgenti di eventi incidentali secondari. Infatti elevati valori dell’irraggiamento, della sovrappressione di picco ed il lancio di proiettili, imputabili all’evento primario, possono innescare eventi secondari determinando una propagazione a catena dell’incidente così come si propaga la catena di mattoncini nel gioco da tavolo detto “domino”. Le Direttive Europee 96/82/EC e 2012/18/EU denominate, rispettivamente “Seveso II” e “Seveso III” stabiliscono la necessità, da parte del gestore, di valutare l’effetto domino, in particolare in aree industriali ad elevata concentrazione di attività a rischio di incidente rilevante. L’analisi consiste nel valutare, in termini di frequenza e magnitudo, gli effetti indotti su apparecchiature cosiddette “bersaglio” da scenari incidentali che producono irraggiamenti, onde di pressione e lancio di proiettili. Il presente lavoro di tesi, svolto presso lo stabilimento di Ravenna di ENI Versalis, ha lo scopo di presentare una metodologia per l’analisi dell’effetto domino adottata in un caso reale, in mancanza di un preciso riferimento normativo che fissi i criteri e le modalità di esecuzione di tale valutazione. Inoltre esso si presta a valutare tutte le azioni preventive atte a interrompere le sequenze incidentali e quindi i sistemi di prevenzione e protezione che possono contrastare un incidente primario evitando il propagarsi dell’incidente stesso e quindi il temuto effetto domino. L’elaborato è strutturato come segue. Dopo il Capitolo 1, avente carattere introduttivo con l’illustrazione delle linee guida e delle normative in riferimento all’effetto domino, nel Capitolo 2 sono descritte le principali tecniche di analisi di rischio che possono essere utilizzate per l’individuazione degli eventi incidentali credibili ovvero degli eventi incidentali primari e della loro frequenza di accadimento. Nel Capitolo 3 vengono esaminati i criteri impiegati da ENI Versalis per la valutazione dell’effetto domino. Nei Capitoli 4 e 5 sono descritti gli iter tecnico-procedurali messi a punto per la progettazione della protezione antincendio, rispettivamente attiva e passiva. Nel Capitolo 6 viene approfondito un aspetto particolarmente critico ovvero la valutazione della necessità di dotare di protezione le tubazioni. Nel Capitolo 7 viene illustrata la progettazione antifuoco di un caso di studio reale dello stabilimento ENI Versalis di Ravenna: l’unità di Idrogenazione Selettiva. Infine nel Capitolo 8 sono riportate alcune considerazioni conclusive.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente progetto di ricerca riguarda la terza trilogia di romanzi di Nuruddin Farah, “Past Imperfect” (2004-2011). L’analisi dei tre testi che compongono la trilogia – “Links” (2004), “Knots” (2007) e “Crossbones” (2011) – evidenzia la persistente rilevanza delle narrazioni e delle rappresentazioni della famiglia all’interno di tutta la produzione letteraria dell’autore. Questa prospettiva critica richiede l’impiego di una metodologia che riunisce vari aspetti della critica letteraria di matrice post-strutturalista e, per altri versi, di stampo materialista, assecondando così le due principali tendenze critiche presenti all’interno degli studi postcoloniali. Lo stesso approccio teorico-metodologico può essere applicato anche in altri due ambiti critici chiamati in causa dalla trilogia di Nuruddin Farah: la cosiddetta “world literature” e la cosiddetta “failed-state fiction”. L’analisi delle narrazioni e delle rappresentazioni della famiglia richiede, inoltre, un approccio interdisciplinare molto esteso, stimolando ricerche negli ambiti della semiotica, dell’antropologia, della psicanalisi, dei Gender Studies e dei Trauma Studies.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

« Dieu est mort » proclame à l’envi le fou nietzschéen. C’est sous l’égide inquiète de cette assertion paroxystique, traduisant ce «malaise de la culture» qu’évoquait Freud, que la pensée, la littérature et l’art du XXe siècle européen évoluent. Cependant, le christianisme dont ce cri signe l’extrême décadence, n’est pas seul à imprégner les productions artistiques de ce siècle, même les plus prétendument athées, mais avant tout la figure du Christ - autour de laquelle sont structurés tant cette religion que son système de croyance – semble, littéralement et paradoxalement, infester l’imaginaire du XXe siècle, sous des formes plus ou moins fantasmatiques. Ce travail se propose ainsi précisément d’étudier, dans une optique interdisciplinaire entre littérature, art et cinéma, cette dynamique controversée, ses causes, les processus qui la sous-tendent ainsi que ses effets, à partir des œuvres de trois auteurs : Artaud, Beckett et Pasolini. L’objectif est de fournir une clé de lecture de cette problématique qui mette en exergue comment « la conversion de la croyance », comme la définit Deleuze, à laquelle ces auteurs participent, n’engendre pas un rejet purement profanatoire du christianisme mais, à l’inverse, la mise en œuvre d’un mouvement aussi violent que libératoire qualifié par Nancy de « déconstruction du christianisme ». Ce travail entend donc étudier tout d’abord à la lumière de l’expérience intérieure de Bataille, l’imaginaire christique qui sous-tend leurs productions ; puis, d’en analyser les mouvements et les effets en les questionnant sur la base de cette dynamique ambivalente que Grossman nomme la « défiguration de la forme christique ». Les excès délirants d’Artaud, l’ironie tranchante de Beckett et la passion ambiguë de Pasolini s’avèrent ainsi participer à un mouvement commun qui, oscillant entre reprise et rejet, débouche sur une attitude tout aussi destructive que revitalisante des fondements du christianisme.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Considerando l'elevato grado di inquinamento del pianeta e la forte dipendenza delle attività antropiche dai combustibili fossili, stanno avendo notevole sviluppo e incentivazione gli impianti per la produzione di energia elettrica da fonti rinnovabili. In particolare, la digestione anaerobica è in grande diffusione in Italia. Lo studio in oggetto si prefigge l'obiettivo di determinare, mediante analisi di Life Cycle Assessment (LCA), i carichi ambientali di un impianto di digestione anaerobica, e della sua filiera, per valutarne l'effettiva ecosostenibilità. L'analisi considera anche gli impatti evitati grazie all'immissione in rete dell'energia elettrica prodotta e all'utilizzo del digestato in sostituzione dell'urea. Lo studio analizza sei categorie d'impatto: Global warming potential (GWP), Abiotic depletion potential (ADP), Acidification potential (AP), Eutrophication potential (EP), Ozone layer depletion potential (ODP) e Photochemical oxidant formation potential (POFP). I valori assoluti degli impatti sono stati oggetto anche di normalizzazione per stabilire la loro magnitudo. Inoltre, è stata effettuata un'analisi di sensitività per investigare le variazioni degli impatti ambientali in base alla sostituzione di differenti tecnologie per la produzione di energia elettrica: mix elettrico italiano, carbone e idroelettrico. Infine, sono stati analizzati due scenari alternativi all'impianto in esame che ipotizzano la sua conversione ad impianto per l'upgrading del biogas a biometano. I risultati mostrano, per lo scenario di riferimento (produzione di biogas), un guadagno, in termini ambientali, per il GWP, l'ADP e il POFP a causa dei notevoli impatti causati dalla produzione di energia elettrica da mix italiano che la filiera esaminata va a sostituire. I risultati evidenziano anche quanto gli impatti ambientali varino in base alla tipologia di alimentazione del digestore anaerobica: colture dedicate o biomasse di scarto. I due scenari alternativi, invece, mostrano un aumento degli impatti, rispetto allo scenario di riferimento, causati soprattutto dagli ulteriori consumi energetici di cui necessitano sia i processi di purificazione del biogas in biometano sia i processi legati alla digestione anaerobica che, nel caso dello scenario di riferimento, sono autoalimentati. L'eventuale conversione dell'attuale funzione dell'impianto deve essere fatta tenendo anche in considerazione i benefici funzionali ed economici apportati dalla produzione del biometano rispetto a quella del biogas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’armonizzazione fiscale è una importante sfida che l’Unione Europea si trova ad affrontare per la completa realizzazione del mercato interno. Le istituzioni comunitarie, tuttavia, non dispongono delle competenze legislative per intervenire direttamente negli ordinamenti tributari degli Stati membri. Svolgendo una analisi del contesto legislativo vigente, ed esaminando le prospettive de iure condendo della materia fiscale dell’Unione, il presente lavoro cerca di comprendere le prospettive di evoluzione del sistema, sia dal punto di vista della normativa fiscale sostanziale, che procedimentale. Mediante la disciplina elaborata a livello comunitario che regola la cooperazione amministrativa in materia fiscale, con particolare riferimento alle direttive relative allo scambio di informazioni e all’assistenza alla riscossione (dir. 2011/16/UE e dir. 2010/24/UE) si permette alle Amministrazioni degli Stati membri di avere accesso ai reciproci ordinamenti giuridici, e conoscerne i meccanismi. L’attuazione di tali norme fa sì che ciascun ordinamento abbia l’opportunità di importare le best practices implementate dagli altri Stati. L’obiettivo sarà quello di migliorare il proprio procedimento amministrativo tributario, da un lato, e di rendere più immediati gli scambi di informazione e la cooperazione alla riscossione, dall’altro. L’armonizzazione fiscale all’interno dell’Unione verrebbe perseguita, anziché mediante un intervento a livello europeo, attraverso un coordinamento “dal basso” degli ordinamenti fiscali, realizzato attraverso l’attività di cooperazione delle amministrazioni che opereranno su un substrato di regole condivise. La maggiore apertura delle amministrazioni fiscali dei Paesi membri e la maggiore spontaneità degli scambi di informazioni, ha una efficacia deterrente di fenomeni di evasione e di sottrazione di imposta posti in essere al fine di avvantaggiarsi delle differenze dei sistemi impositivi dei vari paesi. Nel lungo periodo ciò porterà verosimilmente, gli Stati membri a livellare i sistemi impositivi, dal momento che i medesimi non avranno più interesse ad utilizzare la leva fiscale per generare una concorrenza tra gli ordinamenti.