944 resultados para Istituto per le opere di religione


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduzione. La movimentazione manuale di carichi è stata recentemente proposta come un possibile determinante del distacco di retina. Al fine di confortare quest’ipotesi, sono stati analizzati i tassi di incidenza di distacco di retina regmatogeno (DRR) idiopatico, trattato chirurgicamente, tra i residenti in Toscana addetti ad attività lavorative manuali, non manuali e casalinghe. Metodi. Le schede di dimissione ospedaliera (SDO) della Toscana contengono anche informazioni codificate sulla categoria generica di impiego. Sono stati utilizzati i dati di tutti i pazienti residenti in Toscana con una SDO emessa da un qualsiasi ospedale italiano nel periodo 1997-2009, con diagnosi principale di DRR (ICD-9: 361,0-361,07 e 361,9) e con DRG 36 (“interventi sulla retina”). Dopo l’eliminazione dei soggetti che non soddisfacevano i criteri di eligibilità, è stato deciso di restringere la popolazione in studio ai soggetti di età 25-59 anni, successivamente classificati in addetti ad attività lavorative manuali, non manuali o casalinghe. Risultati. Sono stati identificati 1.946 casi. Tra gli uomini, gli addetti ad attività lavorative manuali hanno riportato un tasso di incidenza standardizzato per età 1,8 volte più alto rispetto agli addetti ad attività lavorative non manuali (17,4 [IC95%, 16,1–18,7] vs. 9,8 [IC95%, 8,8–10,8]). Tra le donne, i tassi di incidenza standardizzati per età erano 1,9 volte più alti negli addetti ad attività lavorative manuali (11,1 [IC95%, 9,8–12,3]) e 1,7 volte più alti nelle casalinghe (9,5 [IC95%, 8,3–10,8]) rispetto agli addetti ad attività lavorative non manuali (5,7 [IC95%, 4,8–6,6]). Conclusioni. Lo studio mette in evidenza come gli addetti ad attività lavorative manuali siano maggiormente affetti da DRR idiopatico rispetto agli addetti ad attività lavorative non manuali. Questi risultati supportano l’ipotesi che la movimentazione manuale di carichi, che difficilmente può ritrovarsi come compito di attività lavorative non manuali, possa avere un ruolo causale nella genesi della patologia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Uno dei temi più discussi ed interessanti nel mondo dell’informatica al giorno d’oggi è sicuramente il Cloud Computing. Nuove organizzazioni che offrono servizi di questo tipo stanno nascendo ovunque e molte aziende oggi desiderano imparare ad utilizzarli, migrando i loro centri di dati e le loro applicazioni nel Cloud. Ciò sta avvenendo anche grazie alla spinta sempre più forte che stanno imprimendo le grandi compagnie nella comunità informatica: Google, Amazon, Microsoft, Apple e tante altre ancora parlano sempre più frequentemente di Cloud Computing e si stanno a loro volta ristrutturando profondamente per poter offrire servizi Cloud adeguandosi così a questo grande cambiamento che sta avvenendo nel settore dell’informatica. Tuttavia il grande movimento di energie, capitali, investimenti ed interesse che l’avvento del Cloud Computing sta causando non aiuta a comprendere in realtà che cosa esso sia, al punto tale che oggi non ne esiste ancora una definizione univoca e condivisa. La grande pressione inoltre che esso subisce da parte del mondo del mercato fa sì che molte delle sue più peculiari caratteristiche, dal punto di vista dell’ingegneria del software, vengano nascoste e soverchiate da altre sue proprietà, architetturalmente meno importanti, ma con un più grande impatto sul pubblico di potenziali clienti. L’obbiettivo che ci poniamo con questa tesi è quindi quello di esplorare il nascente mondo del Cloud Computing, cercando di comprenderne a fondo le principali caratteristiche architetturali e focalizzando l’attenzione in particolare sullo sviluppo di applicazioni in ambiente Cloud, processo che sotto alcuni aspetti si differenzia molto dallo sviluppo orientato ad ambienti più classici. La tesi è così strutturata: nel primo capitolo verrà fornita una panoramica sul Cloud Computing nella quale saranno date anche le prime definizioni e verranno esposti tutti i temi fondamentali sviluppati nei capitoli successivi. Il secondo capitolo costituisce un approfondimento su un argomento specifico, quello dei Cloud Operating System, componenti fondamentali che permettono di trasformare una qualunque infrastruttura informatica in un’infrastruttura Cloud. Essi verranno presentati anche per mezzo di molte analogie con i classici sistemi operativi desktop. Con il terzo capitolo ci si addentra più a fondo nel cuore del Cloud Computing, studiandone il livello chiamato Infrastructure as a Service tramite un esempio concreto di Cloud provider: Amazon, che fornisce i suoi servizi nel progetto Amazon Web Services. A questo punto, più volte nel corso della trattazione di vari temi saremo stati costretti ad affrontare le problematiche relative alla gestione di enormi moli di dati, che spesso sono il punto centrale di molte applicazioni Cloud. Ci è parso quindi importante approfondire questo argomento in un capitolo appositamente dedicato, il quarto, supportando anche in questo caso la trattazione teorica con un esempio concreto: BigTable, il sistema di Google per la gestione della memorizzazione di grandi quantità di dati. Dopo questo intermezzo, la trattazione procede risalendo lungo i livelli dell’architettura Cloud, ricalcando anche quella che è stata l’evoluzione temporale del Cloud Computing: nel quinto capitolo, dal livello Infrastructure as a Service si passa quindi a quello Platform as a Service, tramite lo studio dei servizi offerti da Google Cloud Platform. Il sesto capitolo costituisce invece il punto centrale della tesi, quello che ne soddisfa l’obbiettivo principale: esso contiene infatti uno studio approfondito sullo sviluppo di applicazioni orientate all’ambiente Cloud. Infine, il settimo capitolo si pone come un ponte verso possibili sviluppi futuri, analizzando quali sono i limiti principali delle tecnologie, dei modelli e dei linguaggi che oggi supportano il Cloud Computing. In esso viene proposto come possibile soluzione il modello ad attori; inoltre viene anche presentato il framework Orleans, che Microsoft sta sviluppando negli ultimi anni con lo scopo appunto di supportare lo sviluppo di applicazioni in ambiente Cloud.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni le Web application stanno assumendo un ruolo sempre più importante nella vita di ognuno di noi. Se fino a qualche anno fa eravamo abituati ad utilizzare quasi solamente delle applicazioni “native”, che venivano eseguite completamente all’interno del nostro Personal Computer, oggi invece molti utenti utilizzano i loro vari dispositivi quasi esclusivamente per accedere a delle Web application. Grazie alle applicazioni Web si sono potuti creare i cosiddetti social network come Facebook, che sta avendo un enorme successo in tutto il mondo ed ha rivoluzionato il modo di comunicare di molte persone. Inoltre molte applicazioni più tradizionali come le suite per ufficio, sono state trasformate in applicazioni Web come Google Docs, che aggiungono per esempio la possibilità di far lavorare più persone contemporanemente sullo stesso documento. Le Web applications stanno assumendo quindi un ruolo sempre più importante, e di conseguenza sta diventando fondamentale poter creare delle applicazioni Web in grado di poter competere con le applicazioni native, che siano quindi in grado di svolgere tutti i compiti che sono stati sempre tradizionalmente svolti dai computer. In questa Tesi ci proporremo quindi di analizzare le varie possibilità con le quali poter migliorare le applicazioni Web, sia dal punto di vista delle funzioni che esse possono svolgere, sia dal punto di vista della scalabilità. Dato che le applicazioni Web moderne hanno sempre di più la necessità di poter svolgere calcoli in modo concorrente e distribuito, analizzeremo un modello computazionale che si presta particolarmente per progettare questo tipo di software: il modello ad Attori. Vedremo poi, come caso di studio di framework per la realizzazione di applicazioni Web avanzate, il Play framework: esso si basa sulla piattaforma Akka di programmazione ad Attori, e permette di realizzare in modo semplice applicazioni Web estremamente potenti e scalabili. Dato che le Web application moderne devono avere già dalla nascita certi requisiti di scalabilità e fault tolerance, affronteremo il problema di come realizzare applicazioni Web predisposte per essere eseguite su piattaforme di Cloud Computing. In particolare vedremo come pubblicare una applicazione Web basata sul Play framework sulla piattaforma Heroku, un servizio di Cloud Computing PaaS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Test di Risposta Termica (Thermal Response Test-TRT) (Mogenson,1983) è il test esistente con il più alto grado di accuratezza per la caratterizzazione del reservoir geotermico superficiale. Il test consiste in una simulazione in situ del funzionamento di un sistema a circuito chiuso di sfruttamento dell’energia geotermica, per un periodo limitato di tempo, attraverso l’iniezione o estrazione di calore a potenza costante all’interno del geo-scambiatore (Borehole Heat Exchanger-BHE). Dall’analisi della variazione delle temperature del fluido circolante, è possibile avere una stima delle proprietà termiche medie del volume del reservoir geotermico interessato dal test. Le grandezze principali per la caratterizzazione di un serbatoio geotermico sono la conduttività termica (λ), la capacità termica volumetrica (c), la temperatura indisturbata del suolo (Tg) e la resistenza termica del pozzo (Rb); la loro determinazione è necessaria per il corretto progettazione degli geo-scambiatori. I risultati del TRT sono tuttavia sensibili alle condizioni al contorno spazio-temporali quali ad es.: variazione della temperatura del terreno, movimento d’acqua di falda, condizioni metereologiche, eventi stagionali, ecc. Questo lavoro vuole: i) introdurre uno studio sui problemi di caratterizzazione del reservoir geotermico superficiale, in particolare analizzando l’effetto che il movimento d’acqua di falda ha sui parametri termici; ii) analizzare la sensitività dei risultati del test alle variabilità dei parametri caratteristici del funzionamento delle attrezzature. Parte del lavoro della mia tesi è stata svolta in azienda per un periodo di 4 mesi presso la “Groenholland Geo Energy systems” che ha sede ad Amsterdam in Olanda. Tre diversi esperimenti sono stati realizzati sullo stesso sito (stratigrafia nota del terreno: argilla, sabbia fine e sabbia grossa) usando una sonda profonda 30 metri e diversi pozzi per l’estrazione d’acqua e per monitorare gli effetti in prossimità del geo scambiatore. I risultati degli esperimenti sono stati molto diversi tra di loro, non solo in termini di dati registrati (temperature del fluido termovettore), ma in termini dei valori dei parametri ottenuti elaborando i dati. In particolare non è sufficiente adottare il modello classico della sorgente lineare infinita (Infinite Line Source Solution- ILS) (Ingersoll and Plass, 1948), il quale descrive il trasferimento di calore per conduzione in un mezzo omogeneo indefinito a temperatura costante. Infatti, lo scambio di calore avviene anche tramite convezione causata dal movimento d’acqua di falda, non identificabile mediante gli approcci classici tipo CUSUM test (Cumulative Sum test) (Brown e altri,1975) Lo studio della tesi vuole dare un quadro di riferimento per correlare la variabilità dei risultati con la variabilità delle condizioni al contorno. L’analisi integra le metodologie classiche (ILS) con un approccio geostatistico utile a comprendere i fenomeni e fluttuazioni che caratterizzano il test. Lo studio delle principali variabili e parametri del test, quali temperatura in ingresso e uscita del fluido termovettore, portata del fluido e potenza iniettata o estratta, è stato sviluppato mediante: il variogramma temporale, ovvero la semivarianza dell’accrescimento, che esprime il tipo di autocorrelazione temporale della variabile in esame; la covarianza incrociata temporale, ovvero la covarianza fra due variabili del sistema, che ne definisce quantitativamente il grado di correlazione in funzionamento del loro sfasamento temporale. L’approccio geostatistico proposto considera la temperatura del fluido Tf come una funzione aleatoria (FA) non stazionaria nel tempo (Chiles, 1999), il cui trend è formalmente definito, ma deve essere identificato numericamente. Si considera quindi un classico modello a residuo; in cui la FA è modellizzata come la somma di un termine deterministico, la media (il valore atteso) m(t),coincidente col modello descritto dalla teoria della sorgente lineare infinità, e di un termine aleatorio, la fluttuazione, Y(t). Le variabili portata e potenza sono invece considerate delle funzioni aleatorie stazionarie nel tempo, ovvero a media costante. Da questo studio di Tesi si sono raggiunte delle conclusioni molto importanti per lo studio del TRT: Confronto tra gli esperimenti in estrazione di calore, con e senza movimento d’acqua di falda: si studia l’effetto indotto dalla falda sul TRT. E’ possibile caratterizzare quantitativamente l’incremento della conducibilità termica equivalente legata a fenomeni convettivi dovuti al movimento d’acqua di falda. Inoltre, i variogrammi sperimentali evidenziano periodicità simili nei due casi e legate al funzionamento della pompa di calore e della componentistica associata ed alla circolazione del fluido termovettore all’interno della sonda. Tuttavia, la componente advettiva ha un effetto di smorzamento sulle piccole periodicità dei variogrammi, ma di aumento dell’ampiezza delle periodicità maggiori a causa del funzionamento della pompa di calore che deve fornire maggiore energia al sistema per bilanciare le dispersioni dovute al movimento d’acqua di falda. Confronto fra estrazione ed iniezione di calore, con movimento d’acqua di falda: si studia la significatività dei risultati nei due casi. L’analisi delle variografie evidenzia significative differenze nella struttura dei variogrammi sperimentali. In particolare, nel test con iniezione di calore i variogrammi sperimentali delle temperature hanno valori sistematicamente inferiori, circostanza che assicura una migliore precisione nella stima dei parametri termici. Quindi eseguire il TRT in iniezione di calore risulta più preciso. Dall’analisi dei variogrammi sperimentali delle singole variabili quali temperatura del fluido in ingresso e uscita all’interno del geoscambiatore è stato confermato il fenomeno di smorzamento delle oscillazioni da parte del terreno. Dall’analisi delle singole variabili del test (temperature, potenza, portata) è stata confermata l’indipendenza temporale fra portate e temperature. Ciò è evidenziato dalle diverse strutture dei variogrammi diretti e dalle covarianze incrociate prossime a zero. Mediante correlogrami è stato dimostrato la possibilità di calcolare il tempo impiegato dal fluido termovettore per circolare all’interno della sonda. L’analisi geostatistica ha permesso quindi di studiare in dettaglio la sensitività dei risultati del TRT alle diverse condizioni al contorno, quelle legate al reservoir e quelle legate al funzionamento delle attrezzature

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I sistemi di drenaggio urbano meritano particolare attenzione per l’importante compito che devono garantire all’interno della società. L’allontanamento delle acque reflue dalle zone urbanizzate infatti è indispensabile per non creare problemi ed interferenze con attività sociali ed economiche che in esse si svolgono; inoltre un corretto funzionamento del sistema di drenaggio assicura anche un basso impatto ambientale in termini di qualità e quantità. La disponibilità di nuove tecnologie costruttive e materiali in continua evoluzione devono fare fronte alla crescente complessità idraulica, geotecnica e urbanistica delle strutture componenti i sistemi di drenaggio; in tale elaborato si vuole porre l’accento sul problema dello smaltimento delle acque meteoriche nelle zone densamente urbanizzate, la cui soluzione è costituita dall'adozione delle cosiddette BMP (Best Management Practices). Le BMP sono definite come strategie, pratiche o metodi per la rimozione, la riduzione, il ritardo o la prevenzione della quantità di costituenti inquinanti e contaminanti delle acque di pioggia, prima che giungano nei corpi idrici ricettori. Tra esse ricordiamo le cisterne o rain barrels, i pozzi asciutti, i sistemi drywell, le vasche verdi filtranti, i tetti verdi, i canali infiltranti, i fossi di infiltrazione, i pozzi perdenti, i planting container, i canali inerbiti, i bacini di infiltrazione, le gross pullutant traps (gpts), gli stagni, i sistemi di fitodepurazione estensiva (sfe), le pavimentazioni drenanti. In Italia esse risultano ancora scarsamente studiate ed applicate, mentre trovano più ampio sviluppo in realtà estere come in Inghilterra ed in Australia. Per comprendere la efficacia di tali tecniche BMP è necessario analizzarle e, soprattutto, analizzare il loro effetto sul territorio in cui esse vengono inserite e sul regime idrogeologico dell’ambiente. Questa analisi può essere svolta con prove sperimentali su aree di controllo (soluzione economicamente gravosa) o attraverso modelli matematici tramite l’utilizzo di software di calcolo che simulino il comportamento delle portate, dei tiranti idrici e degli inquinanti nei canali e nelle strutture accessorie costituenti la rete fognaria, in conseguenza ad eventi di pioggia dei quali sia nota la distribuzione spaziale e temporale. In questo elaborato si modellizza attraverso il programma Matlab un unico elemento BMP e si osservano i suoi effetti; si procede cioè alla analisi del funzionamento di un ipotetico brown roof installato nella zona di Rimini e si osservano i benefici effetti che ne derivano in termini di volumi di pioggia trattenuti dal sistema considerando diverse tipologie di pioggia e diversi parametri progettuali per il tetto (i fori dello strato inferiore del tetto, la altezza dello strato di terreno, la sua permeabilità e la sua porosità). Si procede poi con la analisi di una ipotetica zona commerciale che sorge sulle sponde di un fiume. Tali analisi vengono svolte con il software HEC-RAS per quanto riguarda la analisi dei livelli del fiume e delle zone a rischio di inondazione. I risultati forniti da questo studio preliminare vengono poi utilizzati come condizioni al contorno per una successiva analisi effettuata con il software InfoWorks in cui si valutano i benefici che derivano dalla installazione di diverse BMP nella zona commerciale oggetto di studio. Tale modello esamina un verosimile scenario inglese, la cittadina infatti si ipotizza situata in Inghilterra e anche gli eventi pluviometrici a cui ci si riferisce sono tipici eventi di pioggia inglesi. Tutti i dati di input elaborati nelle simulazioni sono stati forniti all’interno di un progetto universitario svolto presso l’università di Bradford con la supervisione dei professori Simon Tait ed Alma Schellart. Infine la parte conclusiva dell’elaborato è stata sviluppata in collaborazione con Hera S.p.a. di Rimini all’interno di un percorso di tirocinio curriculare che ha previsto la analisi delle tecnologie BMP adatte per l’ambiente cittadino di Rimini e la osservazione delle performance garantite da tecnologie esistenti sul territorio: i parcheggi permeabili. La realtà riminese infatti deve far fronte a diversi problemi che si innescano durante i periodi di pioggia ed una mitigazione dei volumi di acqua in arrivo alla fognatura grazie a questo tipo di tecnologie, senza quindi ricorrere agli usuali sistemi puntuali, porterebbe sicuramente a notevoli vantaggi. Tali tecnologie però non devono solo essere progettate e costruite in modo corretto, ma devono essere sottoposte a periodici controlli ed adeguate operazioni di manutenzione per non perdere la loro efficacia. Per studiare tale aspetto si procede quindi alla misura della permeabilità di parcheggi drenanti presenti all’interno dei comuni di Cattolica e Rimini ricercando i fattori che influenzano tale caratteristica fondamentale dei parcheggi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gli impianti di riscaldamento sono costituiti dalle seguenti parti: sistema di produzione (pompa di calore, caldaia, pannelli solari, gruppi frigoriferi, ecc), sistema di distribuzione (tubazioni necessarie a trasportare il fluido vettore ai terminali di utilizzo), sistema di erogazione (i radiatori, oppure i ventilconvettori, i pannelli radianti a pavimento, a parete, a soffitto, etc.), sistema di regolazione, sistema di accumulo. L’impianto da inserire deve bilanciare le dispersioni termiche dell’edificio, che dipendono essenzialmente dalla temperatura interna desiderata di 20°C, dalla temperatura esterna, dall’isolamento e dal volume da riscaldare. L’obiettivo della tesi è analizzare il risultato raggiunto dal punto di vista del benessere ambientale e del consumo energetico trascurando l’aspetto della fattibilità dell’impianto e del costo che quest’ultimo può avere.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nei processi di progettazione e produzione tramite tecnologie di colata di componenti in alluminio ad elevate prestazioni, risulta fondamentale poter prevedere la presenza e la quantità di difetti correlabili a design non corretti e a determinate condizioni di processo. Fra le difettologie più comuni di un getto in alluminio, le porosità con dimensioni di decine o centinaia di m, note come microporosità, hanno un impatto estremamente negativo sulle caratteristiche meccaniche, sia statiche che a fatica. In questo lavoro, dopo un’adeguata analisi bibliografica, sono state progettate e messe a punto attrezzature e procedure sperimentali che permettessero la produzione di materiale a difettologia e microstruttura differenziata, a partire da condizioni di processo note ed accuratamente misurabili, che riproducessero la variabilità delle stesse nell’ambito della reale produzione di componenti fusi. Tutte le attività di progettazione delle sperimentazioni, sono state coadiuvate dall’ausilio di software di simulazione del processo fusorio che hanno a loro volta beneficiato di tarature e validazioni sperimentali ad hoc. L’apparato sperimentale ha dimostrato la propria efficacia nella produzione di materiale a microstruttura e difettologia differenziata, in maniera robusta e ripetibile. Utilizzando i risultati sperimentali ottenuti, si è svolta la validazione di un modello numerico di previsione delle porosità da ritiro e gas, ritenuto ad oggi allo stato dell’arte e già implementato in alcuni codici commerciali di simulazione del processo fusorio. I risultati numerici e sperimentali, una volta comparati, hanno evidenziato una buona accuratezza del modello numerico nella previsione delle difettologie sia in termini di ordini di grandezza che di gradienti della porosità nei getti realizzati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel presente elaborato è trattato l'innesco di un sistema di recupero ambientale di energia da sorgenti a radiofrequenza, captate tramite rectenna, nell'ambito di un sistema completamente autonomo dal punto di vista energetico, quindi non dotato di batteria ricaricabile interna. Dopo un'analisi dei problemi da affrontare e delle possibili soluzioni tecniche per gestire le micropotenze restituite dalla rectenna, ci si concentra in modo preferenziale sul ruolo del condensatore posto sulla porta d'ingresso dell'oscillatore di Meissner, che è utilizzato come elevatore di tensione per attivare gli stadi successivi. Sfruttando le esperienze con lo stesso oscillatore pilotato da altri sensori di energy harvesting, è possibile determinare approssimativamente se il circuito si presta o meno all'utilizzo con le rectenne nei campi RF, suggerendo eventuali migliorie da apportare per facilitarne il funzionamento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La prima parte del lavoro è stata dedicata a definire il contesto legislativo in cui si colloca la pianificazione d’emergenza per il trasporto di sostanze pericolose. Dopo una breve introduzione riguardante le direttive Seveso ed il loro recepimento in Italia e in Belgio, è stato effettuato un confronto tra le normative dei due Paesi, con specifico riferimento all’aspetto della pianificazione d’emergenza. Successivamente si è messa in luce l’attualità del tema degli incidenti che hanno origine durante la fase del trasporto delle sostanze pericolose, sia analizzando alcuni verificatisi negli ultimi anni in Europa, sia descrivendo le norme che regolamentano il trasporto di questa tipologia di merci. Tali norme non forniscono informazioni per gestire una situazione d’emergenza che potrebbe verificarsi durante il trasporto e non impongono la predisposizione di piani d’emergenza specifici per quest’attività. E’ proprio alla luce di questa considerazione che, tramite il presente elaborato di tesi, si è voluta mettere in evidenza l’importanza di definire un approccio metodologico a carattere generale per la pianificazione d’emergenza nel trasporto delle sostanze pericolose. Nello specifico, la metodologia utilizzata in Belgio per la pianificazione d’emergenza nell’intorno degli stabilimenti (che rappresentano delle sorgentidi rischio puntiformi) è stata estesa alle linee di trasporto (che rappresentano delle sorgenti di rischio lineari); la descrizione di questa estensione rappresenta la parte più importante e corposa dell’elaborato. Nella parte finale del lavoro la metodologia per la pianificazione d’emergenza nel trasporto è stata applicata ad un caso di studio reale, costituito da uno stabilimento della Polyol Belgium ; in particolare si sono considerati il percorso stradale e la linea ferroviaria tramite cui le materie prime (sostanze infiammabili e tossiche) arrivano all’azienda. GIANFRANCO PUSTORINO Pagina 2 L’applicazione al caso di studio ha confermato la validità della metodologia proposta. Il lavoro effettuato ha evidenziato come sia necessario colmare la lacuna legislativa che vi è in merito alla valutazione del rischio ed alla pianificazione d’emergenza nel trasporto delle sostanze pericolose ; una legislazione specifica a riguardo ridurrebbesenza dubbio l’impatto degli incidenti durante il trasporto sulla popolazione, sull’ambiente e sui beni materiali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La sintesi industriale di anidride maleica (AM) è realizzata industrialmente mediante ossidazione selettiva di n-butano in aria ad opera di un catalizzatore a base di ossidi misti di vanadio e fosforo, avente formula chimica (VO)2P2O7 ed indicato con la sigla VPP (pirofosfato di vanadile). Vi è attualmente un notevole interesse per lo sviluppo di nuove vie sintetiche che utilizzino come reagenti molecole ottenute da materie prime rinnovabili; un’alternativa è costituita dall’utilizzo di 1-butanolo, un bio-alcool ottenuto mediante un processo fermentativo da biomasse; la sua disponibilità e il prezzo competitivo con quello delle materie prime tradizionali lo rendono una molecola interessante per la produzione di building blocks. Per studiare la reazione di ossidazione selettiva di 1-butanolo ad AM, sono state condotte prove di reattività su un catalizzatore industriale a base di VPP al variare di diversi parametri: configurazione del reattore, temperatura, tempo di contatto e frazione molare di ossigeno in alimentazione. Le prove hanno portato a risultati interessanti di selettività in AM, tali da confermare l’effettiva valididi 1-butanolo come reagente alternativo per questo tipo di sintesi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ho progettato un sistema semi automatico per il disimballo di bobine di film plastico formato da una rulliera motorizzata, una catenaria a denti di cane, un dispenser di euro pallet e una pinza end-effector. Inoltre mi sono concentrato sullo studio della logistica dei carrelli elevatori dell'azienda, producendo una mappatura dettagliata per individuare percorsi anomali o inefficienze. Prima di dedicarmi a modellazione 3D e calcoli, ho cercato di reperire più informazioni possibili che mi potessero aiutare ad ottenere un prodotto che rispondesse a tutte le specifiche richieste. Per individuare le caratteristiche progettuali su cui concentrarmi ho elaborato delle tabelle QFD, compilate assieme agli operatori addetti al disimballo, ottenendo così un’oggettiva priorità sulle funzioni necessarie. La progettazione ha portato ad un macchinario sicuramente competitivo che risponde a pieno alle funzioni richieste, nei tempi e nei modi dettati dall’azienda.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il campo della coordinazione può beneficiare di nuovi strumenti e tecnologie per il proprio sviluppo o per rendere accessibili le sue funzionalità ad un pubblico più vasto. Il progetto TuCSoN, in particolare, include lo strumento Inspector tramite il quale è possibile monitorare ed interagire con l'intero spazio di coordinazione. Al fine di rendere disponibili queste funzionalità anche al mondo mobile è necessario eseguire il porting dell'applicazione. In questa tesi, perciò, verranno prima di tutto analizzate le caratteristiche principali dei modelli di coordinazione e, in particolare, del modello TuCSoN. In seguito eseguiremo un'introduzione sulla tecnologia Android, che ci fornirà gli strumenti necessari per la creazione di un framework mobile equivalente all'Inspector. Infine verranno affrontate le problematiche principali per eseguire con successo il porting, come ad esempio la necessità di ridefinire l'intera interfaccia grafica o l'utilizzo di nuovi componenti quali i service e le activity. Questa operazione, quindi, dimostrerà l'esigenza di adattare l'Inspector ai meccanismi appartenenti al nuovo ambiente di esecuzione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Microprocessori basati su singolo processore (CPU), hanno visto una rapida crescita di performances ed un abbattimento dei costi per circa venti anni. Questi microprocessori hanno portato una potenza di calcolo nell’ordine del GFLOPS (Giga Floating Point Operation per Second) sui PC Desktop e centinaia di GFLOPS su clusters di server. Questa ascesa ha portato nuove funzionalità nei programmi, migliori interfacce utente e tanti altri vantaggi. Tuttavia questa crescita ha subito un brusco rallentamento nel 2003 a causa di consumi energetici sempre più elevati e problemi di dissipazione termica, che hanno impedito incrementi di frequenza di clock. I limiti fisici del silicio erano sempre più vicini. Per ovviare al problema i produttori di CPU (Central Processing Unit) hanno iniziato a progettare microprocessori multicore, scelta che ha avuto un impatto notevole sulla comunità degli sviluppatori, abituati a considerare il software come una serie di comandi sequenziali. Quindi i programmi che avevano sempre giovato di miglioramenti di prestazioni ad ogni nuova generazione di CPU, non hanno avuto incrementi di performance, in quanto essendo eseguiti su un solo core, non beneficiavano dell’intera potenza della CPU. Per sfruttare appieno la potenza delle nuove CPU la programmazione concorrente, precedentemente utilizzata solo su sistemi costosi o supercomputers, è diventata una pratica sempre più utilizzata dagli sviluppatori. Allo stesso tempo, l’industria videoludica ha conquistato una fetta di mercato notevole: solo nel 2013 verranno spesi quasi 100 miliardi di dollari fra hardware e software dedicati al gaming. Le software houses impegnate nello sviluppo di videogames, per rendere i loro titoli più accattivanti, puntano su motori grafici sempre più potenti e spesso scarsamente ottimizzati, rendendoli estremamente esosi in termini di performance. Per questo motivo i produttori di GPU (Graphic Processing Unit), specialmente nell’ultimo decennio, hanno dato vita ad una vera e propria rincorsa alle performances che li ha portati ad ottenere dei prodotti con capacità di calcolo vertiginose. Ma al contrario delle CPU che agli inizi del 2000 intrapresero la strada del multicore per continuare a favorire programmi sequenziali, le GPU sono diventate manycore, ovvero con centinaia e centinaia di piccoli cores che eseguono calcoli in parallelo. Questa immensa capacità di calcolo può essere utilizzata in altri campi applicativi? La risposta è si e l’obiettivo di questa tesi è proprio quello di constatare allo stato attuale, in che modo e con quale efficienza pùo un software generico, avvalersi dell’utilizzo della GPU invece della CPU.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato ha ad oggetto la direttiva PED (Pressure Equipment Directive) relativa agli apparecchi a pressione. Tale norma è stata recepita in Italia con il D.Lgs. n. 93/2000 ed è entrata in vigore definitivamente nel 2002. Essa è finalizzata alla libera circolazione delle attrezzature a pressione nella comunità europea e ne disciplina la progettazione, la costruzione, l'equipaggiamento e l'installazione in sicurezza, definendo per ciascuna delle fasi sopra elencate quali siano i documenti da presentare, gli accorgimenti da rispettare e i controlli a cui sottostare. Il presente lavoro di tesi, svolto presso lo stabilimento di Ravenna di ENI Versalis, ha avuto l’obiettivo di individuare i punti di contatto fra quanto richiesto dalla direttiva PED e quanto solitamente emerge dall’applicazione delle tecniche per l’analisi di rischio, degli standard internazionali e aziendali e delle norme di buona tecnica. Il risultato del lavoro consiste nella definizione di un iter tecnico-procedurale standardizzato ad uso dell’utilizzatore delle attrezzature a pressione tramite la quale l’azienda possa procedere alla compilazione delle Note Tecniche destinate al fabbricante delle attrezzature stesse, secondo quanto richiesto dalla direttiva. Tali Note Tecniche devono contenere le indicazioni relative ai valori progettuali di temperatura e pressione e ai Requisiti Essenziali di Sicurezza (RES) che devono essere soddisfatti, permettendo così al fabbricante di poter svolgere una corretta analisi di rischio e all’utilizzatore di ottenere la massima sicurezza negli impianti. L’elaborato è strutturato come segue. Dopo il Capitolo 1, avente carattere introduttivo, nel Capitolo 2 vengono illustrate le principali novità introdotte dalla direttiva PED e descritti i punti cardine della procedura di valutazione della conformità richiesta per le attrezzature a pressione. Nel Capitolo 3 viene esaminata l’integrazione della direttiva PED con la direttiva Macchine e la direttiva ATEX. Nel Capitolo 4 sono descritte le principali tecniche di analisi di rischio che possono essere utilizzate per rispondere ai Requisiti Essenziali di Sicurezza (RES) richiesti in fase di compilazione della Nota Tecnica. Nel Capitolo 5 si fornisce una descrizione dettagliata dell’iter tecnico-procedurale messo a punto per la valutazione di conformità delle attrezzature e degli insiemi a pressione. Nel Capitolo 6 vengono illustrati ad uno ad uno i punti che devono essere presenti in una Nota Tecnica, ciascuno dei quali costituisce un Requisito Essenziale di Sicurezza. Nel Capitolo 7 viene approfondito uno dei Requisiti più critici, l’incendio esterno. Infine nel Capitolo 8 sono riportate le considerazioni conclusive.