911 resultados para Motori a combustione interna, Simulazione, Metodo delle caratteristiche, Sovralimentazione


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nella presente tesi viene analizzato in modo approfondito il ciclo integrato dell'acciaio che è uno dei metodi più consolidati e affermati per la produzione sia di semilavorati, sia di prodotti finiti di acciaio. L'approccio all'analisi del ciclo integrato dell'acciaio è di tipo dinamico e basato sulla simulazione, vale a dire che si cerca di capire come e in che modo i vari fattori del ciclo integrato interagiscono e si influenzano fra di loro per cercare in seguto di esplicitare tali dinamiche in un unico modello di simulazione. Sino ad ora infatti nella letteratura si possono trovare modelli che analizzano separatamente solo alcuni aspetti del ciclo integrato dell'acciaio. L'intenzione ultima di questa tesi è quella di fornire uno strumento in più che possa far capire, date determinate caratteristiche e obiettivi dell'azienda, quale sia la direzione più plausibile e giustificabile da seguire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nel lavoro di tesi qui presentato si indaga l'applicazione di tecniche di apprendimento mirate ad una più efficiente esecuzione di un portfolio di risolutore di vincoli (constraint solver). Un constraint solver è un programma che dato in input un problema di vincoli, elabora una soluzione mediante l'utilizzo di svariate tecniche. I problemi di vincoli sono altamente presenti nella vita reale. Esempi come l'organizzazione dei viaggi dei treni oppure la programmazione degli equipaggi di una compagnia aerea, sono tutti problemi di vincoli. Un problema di vincoli è formalizzato da un problema di soddisfacimento di vincoli(CSP). Un CSP è descritto da un insieme di variabili che possono assumere valori appartenenti ad uno specico dominio ed un insieme di vincoli che mettono in relazione variabili e valori assumibili da esse. Una tecnica per ottimizzare la risoluzione di tali problemi è quella suggerita da un approccio a portfolio. Tale tecnica, usata anche in am- biti come quelli economici, prevede la combinazione di più solver i quali assieme possono generare risultati migliori di un approccio a singolo solver. In questo lavoro ci preoccupiamo di creare una nuova tecnica che combina un portfolio di constraint solver con tecniche di machine learning. Il machine learning è un campo di intelligenza articiale che si pone l'obiettivo di immettere nelle macchine una sorta di `intelligenza'. Un esempio applicativo potrebbe essere quello di valutare i casi passati di un problema ed usarli in futuro per fare scelte. Tale processo è riscontrato anche a livello cognitivo umano. Nello specico, vogliamo ragionare in termini di classicazione. Una classicazione corrisponde ad assegnare ad un insieme di caratteristiche in input, un valore discreto in output, come vero o falso se una mail è classicata come spam o meno. La fase di apprendimento sarà svolta utilizzando una parte di CPHydra, un portfolio di constraint solver sviluppato presso la University College of Cork (UCC). Di tale algoritmo a portfolio verranno utilizzate solamente le caratteristiche usate per descrivere determinati aspetti di un CSP rispetto ad un altro; queste caratteristiche vengono altresì dette features. Creeremo quindi una serie di classicatori basati sullo specifico comportamento dei solver. La combinazione di tali classicatori con l'approccio a portfolio sara nalizzata allo scopo di valutare che le feature di CPHydra siano buone e che i classicatori basati su tali feature siano affidabili. Per giusticare il primo risultato, eettueremo un confronto con uno dei migliori portfolio allo stato dell'arte, SATzilla. Una volta stabilita la bontà delle features utilizzate per le classicazioni, andremo a risolvere i problemi simulando uno scheduler. Tali simulazioni testeranno diverse regole costruite con classicatori precedentemente introdotti. Prima agiremo su uno scenario ad un processore e successivamente ci espanderemo ad uno scenario multi processore. In questi esperimenti andremo a vericare che, le prestazioni ottenute tramite l'applicazione delle regole create appositamente sui classicatori, abbiano risultati migliori rispetto ad un'esecuzione limitata all'utilizzo del migliore solver del portfolio. I lavoro di tesi è stato svolto in collaborazione con il centro di ricerca 4C presso University College Cork. Su questo lavoro è stato elaborato e sottomesso un articolo scientico alla International Joint Conference of Articial Intelligence (IJCAI) 2011. Al momento della consegna della tesi non siamo ancora stati informati dell'accettazione di tale articolo. Comunque, le risposte dei revisori hanno indicato che tale metodo presentato risulta interessante.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’Azienda USL di Bologna è la più grande della regione ed è una delle più grandi in Italia: serve una popolazione di 836.697 abitanti ed è distribuita su 50 comuni. E’ stata istituita il 1° gennaio 2004 con la Legge della Regione Emilia Romagna n. 21 del 20/10/2003 che ha unificato i Comuni di tre Aziende USL: “Città di Bologna”, “Bologna Sud” e “Bologna Nord” (ad eccezione del Comune di Medicina che dall’Area Nord è entrato a far parte dell’Azienda USL di Imola che ha mantenuto un’autonoma configurazione giuridica). Il territorio dell’Azienda USL di Bologna si estende per 2915,4 Kmq ed è caratterizzato dalla particolare ubicazione geografica dei suoi distretti. Al Distretto prettamente urbano, quale quello di Bologna Città si affiancano nell’Area Nord i Distretti di pianura quali Pianura Est e Pianura Ovest, mentre nell’Area Sud si collocano i Distretti con territorio più collinare, quali quelli di Casalecchio di Reno e San Lazzaro di Savena ed il Distretto di Porretta Terme che si caratterizza per l’alta percentuale di territorio montuoso. L’unificazione di territori diversi per caratteristiche orografiche, demografiche e socioeconomiche, ha comportato una maggiore complessità rispetto al passato in termini di governo delle condizioni di equità. La rimodulazione istituzionale ed organizzativa dell’offerta dei sevizi sanitari ha comportato il gravoso compito di razionalizzarne la distribuzione, tenendo conto delle peculiarità del contesto. Alcuni studi di fattibilità precedenti l’unificazione, avevano rilevato come attraverso la costituzione di un’Azienda USL unica si sarebbero potuti più agevolmente perseguire gli obiettivi collegati alle prospettive di sviluppo e di ulteriore qualificazione del sistema dei servizi delle Aziende USL dell’area bolognese, con benefici per il complessivo servizio sanitario regionale. Le tre Aziende precedentemente operanti nell’area bolognese erano percepite come inadeguate, per dimensioni, a supportare uno sviluppo dei servizi ritenuto indispensabile per la popolazione ma, che, se singolarmente realizzato, avrebbe condotto ad una inutile duplicazione di servizi già presenti. Attraverso l’integrazione delle attività di acquisizione dei fattori produttivi e di gestione dei servizi delle tre Aziende, si sarebbero potute ragionevolmente conseguire economie più consistenti rispetto a quanto in precedenza ottenuto attraverso il coordinamento volontario di tali processi da parte delle tre Direzioni. L’istituzione della nuova Azienda unica, conformemente al Piano sanitario regionale si proponeva di: o accelerare i processi di integrazione e di redistribuzione dell’offerta dei servizi territoriali, tenendo conto della progressiva divaricazione fra i cambiamenti demografici, che segnavano un crescente deflusso dal centro storico verso le periferie, ed i flussi legati alle attività lavorative, che si muovevano in senso contrario; o riorganizzare i servizi sanitari in una logica di rete e di sistema, condizione necessaria per assicurare l’equità di accesso ai servizi e alle cure, in stretta interlocuzione con gli Enti Locali titolari dei servizi sociali; o favorire il raggiungimento dell’equilibrio finanziario dell’Azienda e contribuire in modo significativo alla sostenibilità finanziaria dell’intero sistema sanitario regionale. L’entità delle risorse impegnate nell’Area bolognese e le dimensioni del bilancio della nuova Azienda unificata offrivano la possibilità di realizzare economie di scala e di scopo, attraverso la concentrazione e/o la creazione di sinergie fra funzioni e attività, sia in ambito ospedaliero, sia territoriale, con un chiaro effetto sull’equilibrio del bilancio dell’intero Servizio sanitario regionale. A cinque anni dalla sua costituzione, l’Azienda USL di Bologna, ha completato una significativa fase del complessivo processo riorganizzativo superando le principali difficoltà dovute alla fusione di tre Aziende diverse, non solo per collocazione geografica e sistemi di gestione, ma anche per la cultura dei propri componenti. La tesi affronta il tema dell’analisi dell’impatto della fusione sugli assetti organizzativi aziendali attraverso uno sviluppo così articolato: o la sistematizzazione delle principali teorie e modelli organizzativi con particolare attenzione alla loro contestualizzazione nella realtà delle organizzazioni professionali di tipo sanitario; o l’analisi principali aspetti della complessità del sistema tecnico, sociale, culturale e valoriale delle organizzazioni sanitarie; o l’esame dello sviluppo organizzativo dell’Azienda USL di Bologna attraverso la lettura combinata dell’Atto e del Regolamento Organizzativo Aziendali esaminati alla luce della normativa vigente, con particolare attenzione all’articolazione distrettuale e all’organizzazione Dipartimentale per cogliere gli aspetti di specificità che hanno caratterizzano il disegno organizzativo globalmente declinato. o l’esposizione degli esiti di un questionario progettato, in accordo con la Direzione Sanitaria Aziendale, allo scopo di raccogliere significativi elementi per valutare l’impatto della riorganizzazione dipartimentale rispetto ai tre ruoli designati in “staff “alle Direzioni degli otto Dipartimenti Ospedalieri dell’AUSL di Bologna, a tre anni dalla loro formale istituzione. La raccolta dei dati è stata attuata tramite la somministrazione diretta, ai soggetti indagati, di un questionario costituito da numerosi quesiti a risposta chiusa, integrati da domande aperte finalizzate all’approfondimento delle dimensioni di ruolo che più frequentemente possono presentare aspetti di criticità. Il progetto ha previsto la rielaborazione aggregata dei dati e la diffusione degli esiti della ricerca: alla Direzione Sanitaria Aziendale, alle Direzioni Dipartimentali ospedaliere ed a tutti i soggetti coinvolti nell’indagine stessa per poi riesaminare in una discussione allargata i temi di maggiore interesse e le criticità emersi. Gli esiti sono esposti in una serie di tabelle con i principali indicatori e vengono adeguatamente illustrati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Definizione del problema: Nonostante il progresso della biotecnologia medica abbia consentito la sopravvivenza del feto, fuori dall’utero materno, ad età gestazionali sempre più basse, la prognosi a breve e a lungo termine di ogni nuovo nato resta spesso incerta e la medicina non è sempre in grado di rimediare completamente e definitivamente ai danni alla salute che spesso contribuisce a causare. Sottoporre tempestivamente i neonati estremamente prematuri alle cure intensive non ne garantisce la sopravvivenza; allo stesso modo, astenervisi non ne garantisce la morte o almeno la morte immediata; in entrambi i casi i danni alla salute (difetti della vista e dell’udito, cecità, sordità, paralisi degli arti, deficit motori, ritardo mentale, disturbi dell’apprendimento e del comportamento) possono essere gravi e permanenti ma non sono prevedibili con certezza per ogni singolo neonato. Il futuro ignoto di ogni nuovo nato, insieme allo sgretolamento di terreni morali condivisi, costringono ad affrontare laceranti dilemmi morali sull’inizio e sul rifiuto, sulla continuazione e sulla sospensione delle cure. Oggetto: Questo lavoro si propone di svolgere un’analisi critica di alcune strategie teoriche e pratiche con le quali, nell’ambito delle cure intensive ai neonati prematuri, la comunità scientifica, i bioeticisti e il diritto tentano di aggirare o di risolvere l’incertezza scientifica e morale. Tali strategie sono accomunate dalla ricerca di criteri morali oggettivi, o almeno intersoggettivi, che consentano ai decisori sostituti di pervenire ad un accordo e di salvaguardare il vero bene del paziente. I criteri esaminati vanno dai dati scientifici riguardanti la prognosi dei prematuri, a “fatti” di natura più strettamente morale come la sofferenza del paziente, il rispetto della libertà di coscienza del medico, l’interesse del neonato a sopravvivere e a vivere bene. Obiettivo: Scopo di questa analisi consiste nel verificare se effettivamente tali strategie riescano a risolvere l’incertezza morale o se invece lascino aperto il dilemma morale delle cure intensive neonatali. In quest’ultimo caso si cercherà di trovare una risposta alla domanda “chi deve decidere per il neonato?” Metodologia e strumenti: Vengono esaminati i più importanti documenti scientifici internazionali riguardanti le raccomandazioni mediche di cura e i pareri della comunità scientifica; gli studi scientifici riguardanti lo stato dell’arte delle conoscenze e degli strumenti terapeutici disponibili ad oggi; i pareri di importanti bioeticisti e gli approcci decisionali più frequentemente proposti ed adoperati; alcuni documenti giuridici internazionali riguardanti la regolamentazione della sperimentazione clinica; alcune pronunce giudiziarie significative riguardanti casi di intervento o astensione dall’intervento medico senza o contro il consenso dei genitori; alcune indagini sulle opinioni dei medici e sulla prassi medica internazionale; le teorie etiche più rilevanti riguardanti i criteri di scelta del legittimo decisore sostituto del neonato e la definizione dei suoi “migliori interessi” da un punto di vista filosofico-morale. Struttura: Nel primo capitolo si ricostruiscono le tappe più importanti della storia delle cure intensive neonatali, con particolare attenzione agli sviluppi dell’assistenza respiratoria negli ultimi decenni. In tal modo vengono messi in luce sia i cambiamenti morali e sociali prodotti dalla meccanizzazione e dalla medicalizzazione dell’assistenza neonatale, sia la continuità della medicina neonatale con il tradizionale paternalismo medico, con i suoi limiti teorici e pratici e con lo sconfinare della pratica terapeutica nella sperimentazione incontrollata. Nel secondo capitolo si sottopongono ad esame critico le prime tre strategie di soluzione dell’incertezza scientifica e morale. La prima consiste nel decidere la “sorte” di un singolo paziente in base ai dati statistici riguardanti la prognosi di tutti i nati in condizioni cliniche analoghe (“approccio statistico”); la seconda, in base alla risposta del singolo paziente alle terapie (“approccio prognostico individualizzato”); la terza, in base all’evoluzione delle condizioni cliniche individuali osservate durante un periodo di trattamento “aggressivo” abbastanza lungo da consentire la raccolta dei dati clinici utili a formulare una prognosi sicura(“approccio del trattamento fino alla certezza”). Viene dedicata una più ampia trattazione alla prima strategia perché l’uso degli studi scientifici per predire la prognosi di ogni nuovo nato accomuna i tre approcci e costituisce la strategia più diffusa ed emblematica di aggiramento dell’incertezza. Essa consiste nella costruzione di un’ “etica basata sull’evidenza”, in analogia alla “medicina basata sull’evidenza”, in quanto ambisce a fondare i doveri morali dei medici e dei genitori solo su fatti verificabili (le prove scientifiche di efficacia delle cure)apparentemente indiscutibili, avalutativi o autocertificativi della moralità delle scelte. Poiché la forza retorica di questa strategia poggia proprio su una (parziale) negazione dell’incertezza dei dati scientifici e sulla presunzione di irrilevanza della pluralità e della complessità dei valori morali nelle decisioni mediche, per metterne in luce i limiti si è scelto di dedicare la maggior parte del secondo capitolo alla discussione dei limiti di validità scientifica degli studi prognostici di cui i medici si avvalgono per predire la prognosi di ogni nuovo nato. Allo stesso scopo, in questo capitolo vengono messe in luce la falsa neutralità morale dei giudizi scientifici di “efficacia”, “prognosi buona”, “prognosi infausta” e di “tollerabilità del rischio” o dei “costi”. Nel terzo capitolo viene affrontata la questione della natura sperimentale delle cure intensive per i neonati prematuri al fine di suggerire un’ulteriore ragione dell’incertezza morale, dell’insostenibilità di obblighi medici di trattamento e della svalutazione dell’istituto del consenso libero e informato dei genitori del neonato. Viene poi documentata l’esistenza di due atteggiamenti opposti manifestati dalla comunità scientifica, dai bioeticisti e dal diritto: da una parte il silenzio sulla natura sperimentale delle terapie e dall’altra l’autocertificazione morale della sperimentazione incontrollata. In seguito si cerca di mostrare come entrambi, sebbene opposti, siano orientati ad occultare l’incertezza e la complessità delle cure ai neonati prematuri, per riaffermare, in tal modo, la precedenza dell’autorità decisionale del medico rispetto a quella dei genitori. Il quarto capitolo, cerca di rispondere alla domanda “chi deve decidere in condizioni di incertezza?”. Viene delineata, perciò, un’altra strategia di risoluzione dell’incertezza: la definizione del miglior interesse (best interest) del neonato, come oggetto, limite e scopo ultimo delle decisioni mediche, qualsiasi esse siano. Viene verificata l’ipotesi che il legittimo decisore ultimo sia colui che conosce meglio di ogni altro i migliori interessi del neonato. Perciò, in questo capitolo vengono esposte e criticate alcune teorie filosofiche sul concetto di “miglior interesse” applicato allo speciale status del neonato. Poiché quest’analisi, rivelando l’inconoscibilità del best interest del neonato, non consente di stabilire con sicurezza chi sia intitolato a prendere la decisione ultima, nell’ultimo capitolo vengono esaminate altre ragioni per le quali i genitori dovrebbero avere l’ultima parola nelle decisioni di fine o di proseguimento della vita. Dopo averle scartate, viene proposta una ragione alternativa che, sebbene non risolutiva, si ritiene abbia il merito di riconoscere e di non mortificare l’irriducibilità dell’incertezza e l’estrema complessità delle scelte morali, senza rischiare, però, la paralisi decisionale, il nichilismo morale e la risoluzione non pacifica dei conflitti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Oggetto di questa tesi è lo studio parametrico del comportamento di paratie mediante modellazione numerica agli elementi finiti. Si è anche analizzato l’aspetto normativo relativo ad esse ed in particolare si è applicato il D.M. 2008 ad una paratia sottolineando le innovazioni nella progettazione geotecnica. Le paratie sono opere di sostegno flessibili interagenti con i fronti di scavo e costituite da una porzione fuori terra, soggetta a condizioni di spinta attiva, e una porzione interrata che contrappone la resistenza passiva del terreno. Le opere di sostegno flessibile si dividono in due categorie: diaframmi e palancole che differiscono molto fra loro sia per il materiale con cui sono realizzate, sia per la tecnica di messa in opera, sia per la geometria, ma hanno in comune il meccanismo di funzionamento. Sono stati illustrati i metodi di calcolo per lo studio delle paratie: metodi dell’equilibrio limite a rottura, metodi a molle e metodi agli elementi finiti. I metodi agli elementi finiti negli ultimi anni hanno avuto maggior successo grazie alla possibilità di definire il modello costitutivo sforzi-deformazioni, le condizioni al contorno e le condizioni iniziali. Esistono numerosi programmi di calcolo che si basano sul metodo agli elementi finiti, tra i quali è da annoverare il programma Plaxis che viene molto usato grazie alla presenza di vari modelli costitutivi in grado di simulare il comportamento del terreno. Tra i legami costitutivi presenti nel programma Plaxis, sono stati presi in esame il modello Mohr-Coulomb, l’Hardening model e il Soft Soil Creep model e sono poi stati applicati per eseguire uno studio parametrico del comportamento delle paratie. Si è voluto comprendere la sensibilità dei modelli al variare dei parametri inseriti nel programma. In particolare si è posta attenzione alla modellazione dei terreni in base ai diversi modelli costitutivi studiando il loro effetto sui risultati ottenuti. Si è inoltre eseguito un confronto tra il programma Plaxis e il programma Paratie. Quest’ultimo è un programma di calcolo che prevede la modellazione del terreno con molle elasto-plastiche incrudenti. Il lavoro di tesi viene illustrato in questo volume come segue: nel capitolo 1 si analizzano le principali caratteristiche e tipologie di paratie mettendo in evidenza la complessità dell’analisi di queste opere e i principali metodi di calcolo usati nella progettazione, nel capitolo 2 si è illustrato lo studio delle paratie secondo le prescrizioni del D.M. 2008. Per comprendere l’argomento è stato necessario illustrare i principi base di questo decreto e le caratteristiche generali del capitolo 6 dedicato alla progettazione geotecnica. Le paratie sono poi state studiate in condizioni sismiche secondo quanto previsto dal D.M. 2008 partendo dall’analisi degli aspetti innovativi nella progettazione sismica per poi illustrare i metodi pseudo-statici utilizzati nello studio delle paratie soggette ad azione sismica. Nel capitolo 3 si sono presi in esame i due programmi di calcolo maggiormente utilizzati per la modellazione delle paratie: Paratie e Plaxis. Dopo aver illustrato i due programmi per comprenderne le potenzialità, i limiti e le differenze, si sono analizzati i principali modelli costituitivi implementati nel programma Plaxis, infine si sono mostrati alcuni studi di modellazione presenti in letteratura. Si è posta molta attenzione ai modelli costitutivi, in particolare a quelli di Mohr-Coulomb, Hardening Soil model e Soft Soil Creep model capaci di rappresentare il comportamento dei diversi tipi di terreno. Nel capitolo 4, con il programma Plaxis si è eseguita un’analisi parametrica di due modelli di paratie al fine di comprendere come i parametri del terreno, della paratia e dei modelli costitutivi condizionino i risultati. Anche in questo caso si è posta molta attenzione alla modellazione del terreno, aspetto che in questa tesi ha assunto notevole importanza. Dato che nella progettazione delle paratie è spesso utilizzato il programma Paratie (Ceas) si è provveduto ad eseguire un confronto tra i risultati ottenuti con questo programma con quelli ricavati con il programma Plaxis. E’ stata inoltra eseguita la verifica della paratia secondo le prescrizioni del D.M. 2008 dal momento che tale decreto è cogente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il concetto di “sostenibilità” si riferisce allo sviluppo dei sistemi umani attraverso il più piccolo impatto possibile sul sistema ambientale. Le opere che si inseriscono bene nel contesto ambientale circostante e le pratiche che rispettano le risorse in maniera tale da permettere una crescita e uno sviluppo a lungo termine senza impattare sull’ambiente sono indispensabili in una società moderna. I progressi passati, presenti e futuri che hanno reso i conglomerati bituminosi materiali sostenibili dal punto di vista ambientale sono particolarmente importanti data la grande quantità di conglomerato usato annualmente in Europa e negli Stati Uniti. I produttori di bitume e di conglomerato bituminoso stanno sviluppando tecniche innovative per ridurre l’impatto ambientale senza compromettere le prestazioni meccaniche finali. Un conglomerato bituminoso ad “alta lavorabilità” (WMA), pur sviluppando le stesse caratteristiche meccaniche, richiede un temperatura di produzione minore rispetto a quella di un tradizionale conglomerato bituminoso a caldo (HMA). L’abbassamento della temperature di produzione riduce le emissioni nocive. Questo migliora le condizioni dei lavoratori ed è orientato verso uno sviluppo sostenibile. L’obbiettivo principale di questa tesi di laurea è quello di dimostrare il duplice valore sia dal punto di vista dell’eco-compatibilità sia dal punto di vista meccanico di questi conglomerati bituminosi ad “alta lavorabilità”. In particolare in questa tesi di laurea è stato studiato uno SMA ad “alta lavorabilità” (PGGWMA). L’uso di materiali a basso impatto ambientale è la prima fase verso un progetto ecocompatibile ma non può che essere il punto di partenza. L’approccio ecocompatibile deve essere esteso anche ai metodi di progetto e alla caratterizzazione di laboratorio dei materiali perché solo in questo modo è possibile ricavare le massime potenzialità dai materiali usati. Un’appropriata caratterizzazione del conglomerato bituminoso è fondamentale e necessaria per una realistica previsione delle performance di una pavimentazione stradale. La caratterizzazione volumetrica (Mix Design) e meccanica (Deformazioni Permanenti e Comportamento a fatica) di un conglomerato bituminoso è una fase importante. Inoltre, al fine di utilizzare correttamente i materiali, un metodo di progetto avanzato ed efficiente, come quello rappresentato da un approccio Empirico-Meccanicistico (ME), deve essere utilizzato. Una procedura di progetto Empirico-Meccanicistica consiste di un modello strutturale capace di prevedere gli stati di tensione e deformazione all’interno della pavimentazione sotto l’azione del traffico e in funzione delle condizioni atmosferiche e di modelli empirici, calibrati sul comportamento dei materiali, che collegano la risposta strutturale alle performance della pavimentazione. Nel 1996 in California, per poter effettivamente sfruttare i benefici dei continui progressi nel campo delle pavimentazioni stradali, fu iniziato un estensivo progetto di ricerca mirato allo sviluppo dei metodi di progetto Empirico - Meccanicistici per le pavimentazioni stradali. Il risultato finale fu la prima versione del software CalME che fornisce all’utente tre approcci diversi di l’analisi e progetto: un approccio Empirico, uno Empirico - Meccanicistico classico e un approccio Empirico - Meccanicistico Incrementale - Ricorsivo. Questo tesi di laurea si concentra sulla procedura Incrementale - Ricorsiva del software CalME, basata su modelli di danno per quanto riguarda la fatica e l’accumulo di deformazioni di taglio dai quali dipendono rispettivamente la fessurazione superficiale e le deformazioni permanenti nella pavimentazione. Tale procedura funziona per incrementi temporali successivi e, usando i risultati di ogni incremento temporale, ricorsivamente, come input dell’incremento temporale successivo, prevede le condizioni di una pavimentazione stradale per quanto riguarda il modulo complesso dei diversi strati, le fessurazioni superficiali dovute alla fatica, le deformazioni permanenti e la rugosità superficiale. Al fine di verificare le propreità meccaniche del PGGWMA e le reciproche relazioni in termini di danno a fatica e deformazioni permanenti tra strato superficiale e struttura della pavimentazione per fissate condizioni ambientali e di traffico, è stata usata la procedura Incrementale – Ricorsiva del software CalME. Il conglomerato bituminoso studiato (PGGWMA) è stato usato in una pavimentazione stradale come strato superficiale di 60 mm di spessore. Le performance della pavimentazione sono state confrontate a quelle della stessa pavimentazione in cui altri tipi di conglomerato bituminoso sono stati usati come strato superficiale. I tre tipi di conglomerato bituminoso usati come termini di paragone sono stati: un conglomerato bituminoso ad “alta lavorabilità” con granulometria “chiusa” non modificato (DGWMA), un conglomerato bituminoso modificato con polverino di gomma con granulometria “aperta” (GGRAC) e un conglomerato bituminoso non modificato con granulometria “chiusa” (DGAC). Nel Capitolo I è stato introdotto il problema del progetto ecocompatibile delle pavimentazioni stradali. I materiali a basso impatto ambientale come i conglomerati bituminosi ad “alta lavorabilità” e i conglomerati bituminosi modificati con polverino di gomma sono stati descritti in dettaglio. Inoltre è stata discussa l’importanza della caratterizzazione di laboratorio dei materiali e il valore di un metodo razionale di progetto delle pavimentazioni stradali. Nel Capitolo II sono stati descritti i diversi approcci progettuali utilizzabili con il CalME e in particolare è stata spiegata la procedura Incrementale – Ricorsiva. Nel Capitolo III sono state studiate le proprietà volumetriche e meccaniche del PGGWMA. Test di Fatica e di Deformazioni Permanenti, eseguiti rispettivamente con la macchina a fatica per flessione su quattro punti e il Simple Shear Test device (macchina di taglio semplice), sono stati effettuati su provini di conglomerato bituminoso e i risultati dei test sono stati riassunti. Attraverso questi dati di laboratorio, i parametri dei modelli della Master Curve, del danno a fatica e dell’accumulo di deformazioni di taglio usati nella procedura Incrementale – Ricorsiva del CalME sono stati valutati. Infine, nel Capitolo IV, sono stati presentati i risultati delle simulazioni di pavimentazioni stradali con diversi strati superficiali. Per ogni pavimentazione sono stati analizzati la fessurazione superficiale complessiva, le deformazioni permanenti complessive, il danno a fatica e la profondità delle deformazioni in ognuno degli stati legati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The aim of this PhD thesis is to study accurately and in depth the figure and the literary production of the intellectual Jacopo Aconcio. This minor author of the 16th century has long been considered a sort of “enigmatic character”, a profile which results from the work of those who, for many centuries, have left his writing to its fate: a story of constant re-readings and equally incessant oversights. This is why it is necessary to re-read Aconcio’s production in its entirety and to devote to it a monographic study. Previous scholars’ interpretations will obviously be considered, but at the same time an effort will be made to go beyond them through the analysis of both published and manuscript sources, in the attempt to attain a deeper understanding of the figure of this man, who was a Christian, a military and hydraulic engineer and a political philosopher,. The title of the thesis was chosen to emphasise how, throughout the three years of the doctorate, my research concentrated in equal measure and with the same degree of importance on all the reflections and activities of Jacopo Aconcio. My object, in fact, was to establish how and to what extent the methodological thinking of the intellectual found application in, and at the same time guided, his theoretical and practical production. I did not mention in the title the author’s religious thinking, which has always been considered by everyone the most original and interesting element of his production, because religion, from the Reformation onwards, was primarily a political question and thus it was treated by almost all the authors involved in the Protestant movement - Aconcio in the first place. Even the remarks concerning the private, intimate sphere of faith have therefore been analysed in this light: only by acknowledging the centrality of the “problem of politics” in Aconcio’s theories, in fact, is it possible to interpret them correctly. This approach proves the truth of the theoretical premise to my research, that is to say the unity and orderliness of the author’s thought: in every field of knowledge, Aconcio applies the rules of the methodus resolutiva, as a means to achieve knowledge and elaborate models of pacific cohabitation in society. Aconcio’s continuous references to method can make his writing pedant and rather complex, but at the same time they allow for a consistent and valid analysis of different disciplines. I have not considered the fact that most of his reflections appear to our eyes as strongly conditioned by the time in which he lived as a limit. To see in him, as some have done, the forerunner of Descartes’ methodological discourse or, conversely, to judge his religious theories as not very modern, is to force the thought of an author who was first and foremost a Christian man of his own time. Aconcio repeats this himself several times in his writings: he wants to provide individuals with the necessary tools to reach a full-fledged scientific knowledge in the various fields, and also to enable them to seek truth incessantly in the religious domain, which is the duty of every human being. The will to find rules, instruments, effective solutions characterizes the whole of the author’s corpus: Aconcio feels he must look for truth in all the arts, aware as he is that anything can become science as long as it is analysed with method. Nevertheless, he remains a man of his own time, a Christian convinced of the existence of God, creator and governor of the world, to whom people must account for their own actions. To neglect this fact in order to construct a “character”, a generic forerunner, but not participant, of whatever philosophical current, is a dangerous and sidetracking operation. In this study, I have highlighted how Aconcio’s arguments only reveal their full meaning when read in the context in which they were born, without depriving them of their originality but also without charging them with meanings they do not possess. Through a historical-doctrinal approach, I have tried to analyse the complex web of theories and events which constitute the substratum of Aconcio’s reflection, in order to trace the correct relations between texts and contexts. The thesis is therefore organised in six chapters, dedicated respectively to Aconcio’s biography, to the methodological question, to the author’s engineering activity, to his historical knowledge and to his religious thinking, followed by a last section concerning his fortune throughout the centuries. The above-mentioned complexity is determined by the special historical moment in which the author lived. On the one hand, thanks to the new union between science and technique, the 16th century produces discoveries and inventions which make available a previously unthinkable number of notions and lead to a “revolution” in the way of studying and teaching the different subjects, which, by producing a new form of intellectual, involved in politics but also aware of scientific-technological issues, will contribute to the subsequent birth of modern science. On the other, the 16th century is ravaged by religious conflicts, which shatter the unity of the Christian world and generate theological-political disputes which will inform the history of European states for many decades. My aim is to show how Aconcio’s multifarious activity is the conscious fruit of this historical and religious situation, as well as the attempt of an answer to the request of a new kind of engagement on the intellectual’s behalf. Plunged in the discussions around methodus, employed in the most important European courts, involved in the abrupt acceleration of technical-scientific activities, and especially concerned by the radical religious reformation brought on by the Protestant movement, Jacopo Aconcio reflects this complex conjunction in his writings, without lacking in order and consistency, differently from what many scholars assume. The object of this work, therefore, is to highlight the unity of the author’s thought, in which science, technique, faith and politics are woven into a combination which, although it may appear illogical and confused, is actually tidy and methodical, and therefore in agreement with Aconcio’s own intentions and with the specific characters of European culture in the Renaissance. This theory is confirmed by the reading of the Ars muniendorum oppidorum, Aconcio’s only work which had been up till now unavailable. I am persuaded that only a methodical reading of Aconcio’s works, without forgetting nor glorifying any single one, respects the author’s will. From De methodo (1558) onwards, all his writings are summae, guides for the reader who wishes to approach the study of the various disciplines. Undoubtedly, Satan’s Stratagems (1565) is something more, not only because of its length, but because it deals with the author’s main interest: the celebration of doubt and debate as bases on which to build religious tolerance, which is the best method for pacific cohabitation in society. This, however, does not justify the total centrality which the Stratagems have enjoyed for centuries, at the expense of a proper understanding of the author’s will to offer examples of methodological rigour in all sciences. Maybe it is precisely because of the reforming power of Aconcio’s thought that, albeit often forgotten throughout the centuries, he has never ceased to reappear and continues to draw attention, both as a man and as an author. His ideas never stop stimulating the reader’s curiosity and this may ultimately be the best demonstration of their worth, independently from the historical moment in which they come back to the surface.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il Medio Oriente è una regione in cui le scarse risorse idriche giocano un ruolo fondamentale nei rapporti e nelle relazioni tra gli Stati. Soprattutto nell'area di Israele, Palestina e Giordania la natura transfrontaliera delle fonti idriche condivise è considerata da qualche ricercatore come un catalizzatore del più ampio conflitto arabo-israeliano. Altri studiosi, tuttavia, vedono nella cooperazione regionale sulle risorse idriche un potenziale cammino verso una pace duratura veicolata dalla natura interdipendente delle fonti idriche comuni a più territori. Dato che l'acqua è l'elemento che per molti aspetti contribuisce allo sviluppo sociale ed economico e dato che le fonti idriche sotterranee e di superficie non conoscono confini e si muovono liberamente nel territorio, la cooperazione tra gli Stati rivieraschi delle risorse idriche dovrebbe arrivare a prevalere sul conflitto. Unica nel suo genere, l'ong trilaterale israelo-palestinese giordana Friends of the Earth Middle East, FoEME, ha fatto proprio tale auspicio e dal 1994 punta a sviluppare progetti di cooperazione per la salvaguardia del patrimonio naturale dell'area del bacino del fiume Giordano e del Mar Morto. Attraverso l'esperienza del Progetto Good Water Neighbors, GWN, avviato nel 2002, sta lavorando ad una serie di iniziative nel campo dell'environmental awareness e del social empowerment a favore di comunità  israeliane, palestinesi e giordane transfrontaliere che condividono risorse idriche sotterranee o di superficie. Operando inizialmente a livello locale per identificare i problemi idrico-ambientali di ogni comunità  selezionata e lavorare con i cittadini (ragazzi, famiglie e amministratori municipali) per migliorare la conoscenza idrica locale attraverso attività  di educazione ambientale, di water awareness e piani di sviluppo urbano eco-compatibile, il Progetto GWN ha facilitato a livello transfrontaliero i rapporti tra le comunità  confinanti abbattendo la barriera di sfiducia e sospetto che normalmente impedisce relazioni pacifiche, ha coadiuvato l'analisi dei problemi idrici comuni cercando di risolverli attraverso uno sforzo programmatico condiviso e sostenibile, per giungere infine a livello regionale ad incoraggiare la gestione idrica comune attraverso lo scambio di informazioni, il dialogo e lo sforzo/impegno cooperativo congiunto tra gli attori parte del GWN al fine di incentivare la pace attraverso l'interesse comune della tutela delle fonti idriche condivise. Gli approcci di local development e participation, le azioni di confidence building e il peacebuilding attraverso la tutela ambientale applicati con il metodo di bottom up all'interno di un contesto non pacificato come quello del conflitto arabo-israeliano, fanno del Progetto GWN un esperimento innovativo e originale. Le comunità  israeliane, palestinesi e giordane selezionate hanno imparato a migliorare le proprie condizioni idrico-ambiennali cooperando assieme e sfruttando l'interdipendenza dalle fonti idriche condivise, avviando nel contempo rapporti pacifici con società  sempre considerate nemiche. La sfida è stata quella di far comprendere le potenzialità  di una cooperazione locale, in vista di un coordinamento regionale e di uno sforzo comune in grado di generare un beneficio collettivo. La lezione appresa finora durante questi primi sette anni di Progetto è stata quella di capire che non è necessario attendere la fine del conflitto per poter essere di aiuto alle proprie comunità  o per un benessere personale, ma si può agire subito, anche nel pieno dell'Intifada al-Aqsa e con i coprifuoco.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’introduzione massiccia dell’elettronica di potenza nel campo degli azionamenti elettrici negli ultimi decenni ha sostanzialmente rivoluzionato la tipologia di alimentazione dei motori elettrici. Da un lato ciò ha migliorato la qualità del controllo della velocità, ma dall’altro ha aggravato le sollecitazioni che gli isolanti delle macchine devono sopportare. Si è infatti passati da tecniche di controllo tradizionali, che consistevano nell’alimentare i motori in alternata direttamente con la rete sinusoidale a 50 Hz (o a 60 Hz), ad alimentazioni indirette, cioè realizzate interponendo tra la rete e la macchina un convertitore elettronico (inverter). Tali dispositivi operano una conversione di tipo ac/dc e dc/ac che permette, come nella modulazione Pulse Width Modulation (PWM), di poter variare la frequenza di alimentazione della macchina, generando una sequenza di impulsi di larghezza variabile. Si è quindi passati dalle tradizionali alimentazioni con forme d’onda alternate sinusoidali a forme di tensione impulsive e ad elevata frequenza, cioè caratterizzate da rapidi fronti di salita e di discesa (dell’ordine di qualche kV/µs). La natura impulsiva di queste forme d’onda ha aggravato la sollecitazione elettrica a cui sono sottoposti i materiali impiegati per l’isolamento dei conduttori degli avvolgimenti delle macchine. E’ importante notare che l’utilizzo dei dispositivi elettronici, che ormai si trovano sparsi nelle reti di bassa tensione, assorbono correnti ad elevato contenuto armonico sul lato di prelievo, hanno quindi un effetto distorcente che altera l’andamento sinusoidale della rete stessa. Quindi, senza opportuni filtri, anche tutte le altre utenze connesse nelle vicinanze, dimensionate per alimentazioni sinusoidali di tipo tradizionale, possono risentire di queste distorsioni armoniche. Per tutti questi motivi è sorta la necessità di verificare l’adeguatezza dei tradizionali isolamenti ad essere in grado di sopportare le sollecitazioni che derivano dall’utilizzo di convertitori elettronici. In particolare, per i motori elettrici tale interrogativo è stato posto in seguito al verificarsi di un elevato numero di guasti inaspettati (precoci), probabilmente imputabile alla diversa sollecitazione elettrica applicata ai materiali. In questa tesi ci si è occupati della progettazione di un inverter di media tensione, che verrà impiegato per eseguire prove sugli avvolgimenti di statore di motori (formette), al fine di condurre successivamente uno studio sull’invecchiamento dei materiali che compongono gli isolamenti. Tale inverter è in grado di generare sequenze di impulsi con modulazione PWM. I parametri caratteristici delle sequenze possono essere modificati in modo da studiare i meccanismi di degradazione in funzione della tipologia delle sollecitazioni applicate. Avendo a che fare con provini di natura capacitiva, il cui isolamento può cedere durante la prova, il sistema deve essere intrinsecamente protetto nei confronti di tutte le condizioni anomale e di pericolo. In particolare deve essere in grado di offrire rapide ed efficaci protezioni per proteggere l’impianto stesso e per salvaguardare la sicurezza degli operatori, dato l’elevato livello delle tensioni in gioco. Per questo motivo è stata pensata un’architettura di sistema ad hoc, in grado di fronteggiare le situazioni anomale in modo ridondante. E’ infatti stato previsto l’inserimento di un sistema di controllo basato sul CompactRIO, sul quale è stato implementato un software in grado di monitorare le grandezze caratteristiche del sistema e le protezioni che affiancheranno quelle hardware, realizzate con dispositivi elettronici. I dispositivi elettronici di protezione e di interfacciamento sono stati studiati, implementati e simulati con PSpice, per poi essere successivamente dimensionati e realizzati su schede elettroniche, avvalendosi del software OrCAD. La tesi è strutturata come segue: - Il primo capitolo tratta, in maniera generale, i motori asincroni trifase, gli inverter e l’invecchiamento dei sistemi isolanti, con particolare interesse alle sollecitazioni meccaniche, termiche ed elettriche nel caso di sollecitazioni impulsive; - Il secondo capitolo riguarda il sistema realizzato nel suo complesso. Inizialmente verrà descritto lo schema elettrico generale, per poi analizzare più nello specifico le varie parti di cui il sistema è composto, come l’inverter di media tensione, il generatore di media tensione, la scheda di disaccoppiamento ottico, la scheda di controllo del generatore di media tensione, la scheda OCP; - Il terzo capitolo descrive le lavorazioni meccaniche eseguite sulle scatole contenti i rami di inverter, la realizzazione delle fibre ottiche e riporta le fasi di collaudo dell’intero sistema. Infine, verranno tratte le conclusioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Abstract L’utilizzo dei dati satellitari per la gestione dei disastri naturali è fondamentale nei paesi in via di sviluppo, dove raramente esiste un censimento ed è difficile per i governi aggiornare le proprie banche dati con le tecniche di rilevamento e metodi di mappatura tradizionali che sono entrambe lunghe e onerose. A supporto dell’importanza dell’impiego del telerilevamento e per favorirne l’uso nel caso di catastrofi, vi è l’operato di diverse organizzazioni internazionali promosse da enti di ricerca, da agenzie governative o da organismi sopranazionali, le quali svolgono un lavoro di cruciale valore, fornendo sostegno tecnico a chi si occupa di far giungere alle popolazioni colpite gli aiuti umanitari e i soccorsi nel più breve tempo possibile. L’attività di tesi è nata proprio dalla collaborazione con una di esse, ITHACA (Information Technology for Humanitarian Assistance, Cooperation and Action), organizzazione no-profit, fondata dal Politecnico di Torino e SiTI (Istituto Superiore sui Sistemi Territoriali per l’Innovazione), la quale a sua volta collabora con il WFP (World Food Programme) delle Nazioni Unite, realizzando cartografie speditive necessarie per la valutazione delle conseguenze di un evento catastrofico, attraverso l’impiego di dati acquisiti da satellite. Su questo tema si è inserito il presente lavoro che ha come obiettivo quello di dimostrare la valenza dei dati telerilevati, siano essi di tipo ottico o Radar, nel caso di alcuni dei disastri naturali più catastrofici, le alluvioni. In particolare è stata studiata la vulnerabilità del Bangladesh, il quale annualmente si trova ad affrontare eventi alluvionali, spesso di grave intensità. Preliminarmente allo studio, è stata condotta una ricerca bibliografica al fine di avere una buona conoscenza dell’area sia in termini geografici e fisici che di sviluppo e tipologia di urbanizzazione. E’stata indagata in particolare l’alluvione che ha colpito il paese nel Luglio del 2004, attraverso delle immagini satellitari multispettrali, in particolare Landsat 7, per un inquadramento pre-evento, ed ASTER per studiare la situazione a distanza di tre mesi dall’accaduto (immagine rilevata il 20 Ottobre 2004). Su tali immagini sono state condotte delle classificazioni supervisionate con il metodo della massima verosimiglianza che hanno portato la suddivisione del territorio in quattro classi di destinazione d’uso del suolo: urbano (Build-up), campi e vegetazione (Crops&Vegetation), sabbia e scavi (Sand&Excavation), idrografia e zone alluvionate (Water). Dalla sperimentazione è emerso come tali immagini multispettrali si prestino molto bene per l’analisi delle differenti caratteristiche del territorio, difatti la validazione condotta sulla mappa tematica derivata dall’immagine Landsat 7 ha portato ad un’accuratezza del 93% circa, mentre la validazione dell’immagine ASTER è stata solo di tipo qualitativo, in quanto, considerata l’entità della situazione rilevata, non è stato possibile avere un confronto con dei punti da assumere come verità a terra. Un’interpretazione della mappa tematica derivante dalla classificazione dell’immagine ASTER è stata elaborata incrociandola in ambiente GIS con dati forniti dal CEGIS (Center for Environmental and Geographic Information Services) riguardanti il landuse della zona in esame; da ciò è emerso che le zone destinate alla coltivazione del riso sono più vulnerabili alle inondazioni ed in particolare nell’Ottobre 2004 il 95% delle aree esondate ha interessato tali colture. Le immagini ottiche presentano un grosso limite nel caso delle alluvioni: la rilevante copertura nuvolosa che spesso accompagna siffatti eventi impedisce ai sensori satellitari operanti nel campo dell’ottico di rilevare il territorio, e per questo di frequente essi non si prestano ad essere impiegati per un’indagine nella fase di prima emergenza. In questa circostanza, un valido aiuto giunge dall’impiego di immagini Radar, le quali permettono osservazioni ad ogni ora del giorno e della notte, anche in presenza di nuvole, rendendole di fondamentale importanza nelle situazioni descritte. Per dimostrare la validità di questi sensori si sono analizzati due subset derivanti da un mosaico di immagini della nuova costellazione italiana ad alta risoluzione CosmoSkymed: il primo va dalla città di Dhaka al Golfo del Bengala ed il secondo copre la zona più a Nord nel distretto di Sylhet. Dalla sperimentazione condotta su tali immagini radar, che ha comportato come ovvio problematiche del tutto differenti rispetto alle elaborazioni tradizionalmente condotte su immagini nel campo dell’ottico, si è potuto verificare come l’estrazione dei corpi d’acqua e più in generale dell’idrografia risulti valida e di veloce computazione. Sono emersi tuttavia dei problemi, per esempio per quanto riguarda la classificazione dell’acqua in presenza di rilievi montuosi; tali complicazioni sono dovute alla presenza di zone d’ombra che risultano erroneamente assegnate alla classe water, ma è stato possibile correggere tali errori di attribuzione mascherando i rilievi con l’ausilio di una mappa delle pendenze ricavata da modelli di elevazione SRTM (Shuttle Radar Topographic Mission). La validazione dei risultati della classificazione, condotta con un grande numero di check points, ha fornito risultati molto incoraggianti (ca. 90%). Nonostante le problematiche riscontrate, il Radar, in sé o in accoppiamento con altri dati di diversa origine, si presta dunque a fornire in breve tempo informazioni sull’estensione dell’esondazione, sul grado di devastazione, sulle caratteristiche delle aree esondate, sulle vie di fuga più adatte, diventando un’importante risorsa per chi si occupa di gestire l’emergenza in caso di eventi calamitosi. L’integrazione con i dati di tipo ottico è inoltre essenziale per pervenire ad una migliore caratterizzazione del fenomeno, sia in termini di change detection che di monitoraggio post-evento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi dottorale in oggetto prende spunto da alcune considerazioni di base relative alla salute di una comunità. Infatti quest’ultima si fonda sulla sicurezza dell’ambiente in cui vive e sulla qualità delle relazioni tra i suoi componenti. In questo ambito la mobilità rappresenta uno degli elementi di maggior criticità, sia per la sicurezza delle persone, che per la salute pubblica, che per le conseguenze sull’ambiente che ne derivano. Negli ultimi anni la circolazione stradale è notevolmente aumentata è questo ha portato a notevoli aspetti negativi, uno dei quali è connesso agli incidenti stradali. In tale ambito viene ricordato che l’Unione Europea ha da tempo indicato come obiettivo prioritario il miglioramento della sicurezza stradale e nel 2001 ha fissato il traguardo di dimezzare entro il 2010 il numero delle vittime degli incidenti stradali. Non ultima, l’approvazione da parte del Parlamento europeo e del Consiglio di un atto legislativo (d’imminente pubblicazione sulla GU Europea) relativo alla gestione della sicurezza in tutte le fasi della pianificazione, della progettazione e del funzionamento delle infrastrutture stradali, in cui si evidenzia l’esigenza di una quantificazione della sicurezza stradale. In tale contesto viene sottolineato come uno dei maggiori problemi nella gestione della sicurezza stradale sia la mancanza di un metodo affidabile per stimare e quantificare il livello di sicurezza di una strada esistente o in progetto. Partendo da questa considerazione la tesi si sviluppa mettendo in evidenza le grandezza fondamentali nel problema della sicurezza stradale, (grado di esposizione, rischio d’incidente e le possibili conseguenze sui passeggeri) e analizzando i sistemi adottati tradizionalmente per effettuare analisi di sicurezza: • Statistiche dei dati storici d’incidente; • Previsione da modelli basati su analisi di regressione dei dati incidentali; • Studi Before-After; • Valutazione da giudizi di esperti. Dopo aver analizzato gli aspetti positivi e negativi delle alternative in parola, viene proposto un nuovo approccio, che combina gli elementi di ognuno dei metodi sopra citati in un algoritmo di previsione incidentale. Tale nuovo algoritmo, denominato Interactive Highway Safety Design Model (IHSDM) è stato sviluppato dalla Federal Highway Administration in collaborazione con la Turner Fairbank Higway Research Center ed è specifico per le strade extraurbane a due corsie. Il passo successivo nello sviluppo della tesi è quello di un’analisi dettagliata del modello IHSDM che fornisce il numero totale di incidenti previsti in un certo intervallo temporale. Viene analizzata la struttura del modello, i limiti d’applicabilità, le equazioni che ne sono alla base e i coefficienti moltiplicativi relativi ad ogni caratteristica geometrica e funzionale. Inoltre viene presentata un’ampia analisi di sensibilità che permette di definire quale sia l’influenza d’ogni singolo Fattore di Previsione incidentale (Accident Predication Factor) sul risultato finale. Dai temi trattati, emerge chiaramente come la sicurezza è legata a più sistemi tra loro interconnessi e che per utilizzare e migliorare i modelli previsionali è necessario avere a disposizione dati completi, congruenti, aggiornati e facilmente consultabili. Infatti, anche quando sono disponibili elementi su tutti gli incidenti avvenuti, spesso mancano informazioni di dettaglio ma fondamentali, riguardanti la strada come ad esempio il grado di curvatura, la larghezza della carreggiata o l’aderenza della pavimentazione. In tale ottica, nella tesi viene presentato il Sistema Informativo Stradale (SIS) della Provincia di Bologna, concepito come strumento di gestione delle problematiche inerenti la viabilità e come strumento di supporto per la pianificazione degli interventi e la programmazione delle risorse da investire sulla rete. Viene illustrato come il sistema sia in grado di acquisire, elaborare ed associare dati georeferenziati relativi al territorio sia sotto forma di rappresentazioni grafiche, sia mediante informazioni descrittive di tipo anagrafico ed alfanumerico. Quindi viene descritto il rilievo ad alto rendimento, effettuato con l’ausilio di un laboratorio mobile multifunzionale (Mobile Mapping System), grazie al quale è stato possibile definire con precisione il grafo completo delle strade provinciali e il database contenente i dati relativi al patrimonio infrastrutturale. Tali dati, relativi alle caratteristiche plano-altimetriche dell’asse (rettifili, curve planimetriche, livellette, raccordi altimetrici, ecc...), alla sezione trasversale (numero e larghezza corsie, presenza di banchine, ecc..), all’ambiente circostante e alle strutture annesse vengono presentati in forma completa specificando per ognuno la variabilità specifica. Inoltre viene evidenziato come il database si completi con i dati d’incidentali georeferenziati sul grafo e compresivi di tutte le informazioni contenute nel modello ISTAT CTT/INC spiegandone le possibili conseguenze sul campo dell’analisi di sicurezza. La tesi si conclude con l’applicazione del modello IHSDM ad un caso reale, nello specifico la SP255 di S.Matteo Decima. Infatti tale infrastruttura sarà oggetto di un miglioramento strutturale, finanziato dalla Regione Emilia Romagna, che consistente nell’allargamento della sede stradale attraverso la realizzazione di una banchina pavimentata di 1.00m su entrambi i lati della strada dalla prog. km 19+000 al km 21+200. Attraverso l’utilizzo dell’algoritmo di previsione incidentale è stato possibile quantificare gli effetti di questo miglioramento sul livello di sicurezza dell’infrastruttura e verificare l’attendibilità del modello con e senza storia incidentale pregressa. Questa applicazione ad un caso reale mette in evidenza come le informazioni del SIS possano essere sfruttate a pieno per la realizzazione di un analisi di sicurezza attraverso l’algoritmo di previsione incidentale IHSDM sia nella fase di analisi di uno specifico tronco stradale che in quella fondamentale di calibrazione del modello ad una specifica rete stradale (quella della Provincia di Bologna). Inoltre viene sottolineato come la fruibilità e la completezza dei dati a disposizione, possano costituire la base per sviluppi di ricerca futuri, come ad esempio l’indagine sulle correlazioni esistenti tra le variabili indipendenti che agiscono sulla sicurezza stradale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’ecografia è la metodica diagnostica più utilizzata come screening e follow-up nei pazienti epatopatici con o senza lesioni focali e questo grazie alle sue peculiari caratteristiche, che sono date dall’essere real-time, maneggevole, priva di radiazioni ionizzanti e con bassi costi. Tuttavia tale metodica se confrontata con la TC o la RMN, può avere importanti limiti, quali l’impossibilità di visualizzare piccole lesioni localizzate in aree anatomicamente “difficili” o in pazienti obesi, che sono già state identificate con altre tecniche, come la TC o la RMN. Per superare queste limitazioni sono stati introdotti dei sistemi di “fusione d’immagine” che consentono di sincronizzare in tempo reale una metodica real time con bassa risoluzione spaziale come l’ecografia ed una statica ad alta risoluzione come la TC o la RMN. Ciò si ottiene creando attorno al paziente un piccolo campo elettromagnetico costituito da un generatore e da un rilevatore applicato al trasduttore ecografico ed introducendo in un computer abbinato all’ecografo il “volume rendering” dell’addome del paziente ottenuto mediante TC multistrato o RM. Il preciso “ appaiamento spaziale “ delle due metodiche si ottiene individuando in entrambe lo stesso piano assiale di riferimento e almeno 3-4 punti anatomici interni. Tale sistema di fusione d’immagine potrebbe essere molto utile in campo epatologico nella diagnostica non invasiva del piccolo epatocarcinoma, che secondo le ultime linee guida, nei noduli di dimensioni fra 1 e 2 cm, richiede una concordanza nel comportamento contrastografico della lesione in almeno due tecniche d’immagine. Lo scopo del nostro lavoro è stato pertanto quello di valutare, in pazienti epatopatici, il contributo che tale sistema può dare nell’identificazione e caratterizzazione di lesioni inferiori a 20 mm, che erano già state identificate alla TC o alla RMN come noduli sospetti per HCC, ma che non erano stati visualizzati in ecografia convenzionale. L’eventuale re-identificazione con l’ecografia convenzionale dei noduli sospetti per essere HCC, può permettere di evitare, alla luce dei criteri diagnostici non invasivi un’ ulteriore tecnica d’immagine ed eventualmente la biopsia. Pazienti e Metodi: 17 pazienti cirrotici (12 Maschi; 5 Femmine), con età media di 68.9 +/- 6.2 (SD) anni, in cui la TC e la RMN con mezzo di contrasto avevano identificato 20 nuove lesioni focali epatiche, inferiori a 20 mm (13,6 +/- 3,6 mm), sospette per essere epatocarcinomi (HCC), ma non identificate all’ecografia basale (eseguita in cieco rispetto alla TC o alla RMN) sono stati sottoposti ad ecografia senza e con mezzo di contrasto, focalizzata su una zona bersaglio identificata tramite il sistema di fusione d’immagini, che visualizza simultaneamente le immagini della TC e della RMN ricostruite in modalità bidimensionale ( 2D), tridimensionale ( 3 D) e real-time. La diagnosi finale era stata stabilita attraverso la presenza di una concordanza diagnostica, secondo le linee guida internazionali o attraverso un follow-up nei casi di discordanza. Risultati: Una diagnosi non invasiva di HCC è stata raggiunta in 15/20 lesioni, inizialmente sospettate di essere HCC. Il sistema di fusione ha identificato e mostrato un comportamento contrastografico tipico in 12/15 noduli di HCC ( 80%) mentre 3/15 HCC (20%) non sono stati identificati con il sistema di fusione d’immagine. Le rimanenti 5/20 lesioni non sono state visualizzate attraverso i sistemi di fusione d’immagine ed infine giudicate come falsi positivi della TC e della RMN, poiché sono scomparse nei successivi mesi di follow-up e rispettivamente dopo tre, sei, nove, dodici e quindici mesi. Conclusioni: I nostri risultati preliminari mostrano che la combinazione del sistema di fusione dell’immagine associata all’ecografia senza e con mezzo di contrasto (CEUS), migliora il potenziale dell’ecografia nell’identificazione e caratterizzazione dell’HCC su fegato cirrotico, permettendo il raggiungimento di una diagnosi, secondo criteri non invasivi e slatentizzazndo casi di falsi positivi della TC e della RMN.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Introduzione La diagnosi di HCC con le tecniche di immagine ed in particolare con CEUS su fegato cirrotico secondo le ultime linee guida prevede un comportamento contrastografico di ipervascolarizzazione nella fase arteriosa e wash-out nella fase tardiva. CEUS è ormai una metodica accettata per la diagnosi ma il wash out nella fase tardiva presenta notevoli difficoltà nel determinare il comportamento contrastografico in quanto valutato soggettivamente su display, infatti il giudizio di tale fase dipende molto dall’operatore e non è rarissimo che nascono discordanza tra operatori anche per piccole differenze. Recentemente è stato proposto un nuovo software(SonoLiver, Bracco, Italy) in grado di quantificare la perfusione delle lesione durante CEUS. Pertanto lo scopo di questo studio pilota è quello di valutare l’impatto di SonoLiver nel rilevare caratteristiche contrastografiche tipiche dell’HCC e valutare la riproducibilità tra due operatori. Pazienti e metodi: Sono stati presi in considerazione 20 noduli (di dimensioni tra 12-95 mm) con diagnosi di HCC in 20 pazienti con cirrosi . La CEUS è stata valutata dapprima ad occhio nudo su display e successivamente con le curve ottenute con DVP da parte di due operatori diversi in cieco, dopo un periodo di formazione adeguata. Sono state quindi analizzate le performance di ciascuna metodica sia in termini di variabilità tra i due operatori che la variabilità tra CEUS ad occhio nudo e CEUS con SonoLiver dello stesso operatore. Risultati:Operatore 1 ha rilevato ipervascolarizzazione in fase arteriosa in 17 su 20 pazienti con valutazione ad occhio nudo su schermo e su 19/20 con le curve ottenute con DVP (+10% sensibilità) mentre operatore 2 ha rilevato ipervascolarizzazione in fase arteriosa19/20 pazienti sia con valutazione ad occhio nudo che con le curve DVP. Nella fase tardiva il wash-out è stato rilevato in 7/20 ad occhio nudo e 10/20 pazienti con le curve DVP (sensibilità aumenta da 35% a 50%) mentre operatore 2 ha rilevato rispettivamente 8/20 e 11/20 (sensibilità aumenta da 40% a 55%). La riproducibilità tra i due operatori rimane invariata con la valutazione di Sonoliver sia nella fase arteriosa che nella fase tardiva. Conclusione:La quantificazione perfusionale con SonoLiver sembra essere uno strumento promettente nella diagnosi di HCC su fegato cirrotico, aumentando aspetti tipici contrastografici.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo lavoro si è posto l’obiettivo di valutare l’effetto dei processi di combustione della biomassa sulla composizione chimica del particolato atmosferico. Sono state analizzate le polveri totali sospese (TSP) e le sotto-frazioni PM10 e PM2.5. Il sito di campionamento è collocato in un’area suburbana costiera nella provincia di Rimini. L’area di studio è soggetta all’apporto di contaminanti derivanti dalle emissioni del traffico autoveicolare (urbano e della vicina autostrada A14) e di piccole attività industriali, tra cui la più importante è l’inceneritore di rifiuti solidi urbani. Il campionamento è stato effettuato nei mesi marzo-aprile 2011. Durante questo periodo ricorre la tradizionale festa popolare delle “Focheracce” dove si bruciano enormi cataste di legna per salutare l’inverno ed accogliere la primavera. In corrispondenza proprio di questa giornata si registra in atmosfera un forte incremento della concentrazione di polveri accompagnato da una variazione nella loro composizione chimica. Il levoglucosano (LG), marker specifico dei processi di combustione della biomassa, mostra concentrazioni di un ordine più elevato rispetto a tutto il periodo di campionamento. Incrementi si registrano, più in generale, per tutti quei composti direttamente imputabili ai processi di combustione incompleta, come CO, CE ed IPA. Il campionamento in occasione dei fuochi ha inoltre evidenziato maggiori concentrazioni in atmosfera di potassio, magnesio, ammonio, nitrati e carbonati nella frazione TSP-PM10. In conclusione, dai risultati della caratterizzazione chimica nelle diverse frazioni granulometriche delle polveri è possibile affermare che i processi di combustione della biomassa, hanno nell’area di studio un ruolo importante nel determinare il carico complessivo delle PM. La correlazione inversa tra temperatura atmosferica e concentrazione di levoglucosano induce a pensare che il contributo dovuto alla combustione di biomassa sulle PM sia imputabile al riscaldamento domestico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Oggigiorno si osserva a livello mondiale un continuo aumento dei consumi di acqua per uso domestico, agricolo ed industriale che dopo l’impiego viene scaricata nei corpi idrici (laghi, fiumi, torrenti, bacini, ecc) con caratteristiche chimico fisiche ed organolettiche completamente alterate, necessitando così di specifici trattamenti di depurazione. Ricerche relative a metodi di controllo della qualità dell’acqua e, soprattutto, a sistemi di purificazione rappresentano pertanto un problema di enorme importanza. I trattamenti tradizionali si sono dimostrati efficienti, ma sono metodi che operano normalmente trasferendo l’inquinante dalla fase acquosa contaminata ad un’altra fase, richiedendo perciò ulteriori processi di depurazione. Recentemente è stata dimostrata l’efficacia di sistemi nano strutturati come TiO2-Fe3O4 ottenuto via sol-gel, nella foto-catalisi di alcuni sistemi organici. Questo lavoro di tesi è rivolto alla sintesi e caratterizzazione di un catalizzatore nanostrutturato composito costituito da un core di Fe3O4 rivestito da un guscio di TiO2 separate da un interstrato inerte di SiO2, da utilizzare nella foto-catalisi di sistemi organici per la depurazione delle acque utilizzando un metodo di sintesi alternativo che prevede un “approccio” di tipo colloidale. Partendo da sospensioni colloidali dei diversi ossidi, presenti in commercio, si è condotta la fase di deposizione layer by layer via spray drying, sfruttando le diverse cariche superficiali dei reagenti. Questo nuovo procedimento permette di abbattere i costi, diminuire i tempi di lavoro ed evitare possibili alterazioni delle proprietà catalitiche della titania, risultando pertanto adatto ad una possibile applicazione su scala industriale. Tale sistema composito consente di coniugare le proprietà foto-catalitiche dell’ossido di titanio con le proprietà magnetiche degli ossidi di ferro permettendo il recupero del catalizzatore a fine processo. Il foto-catalizzatore è stato caratterizzato durante tutte la fasi di preparazione tramite microscopia SEM e TEM, XRF, Acusizer, spettroscopia Raman e misure magnetiche. L’attività foto-calitica è stata valutata con test preliminari utilizzando una molecola target tipo il rosso di metile in fase acquosa. I risultati ottenuti hanno dimostrato che il sistema core-shell presenta inalterate sia le proprietà magnetiche che quelle foto-catalitiche tipiche dei reagenti.