582 resultados para retorinen metodi


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La seguente tesi di Laurea è stata scritta durante uno stage della durata di sei mesi (dal 15 Giugno al 1 Dicembre 2011) presso la raffineria del gruppo Saras S.p.A. situata nel golfo di Cagliari. L’elaborato si prefigge di rappresentare un’ulteriore testimonianza dell’accresciuto interesse e della maggiore sensibilità e attenzione sviluppatesi negli ultimi anni nei confronti della Manutenzione dei sistemi di produzione. Lo scopo principale dello stage è stato quello di riuscire a scattare una dettagliata fotografia dei tempi e dei metodi dell’intero processo manutentivo riguardante le macchine rotanti di una delle più grandi e complesse raffinerie del Mediterraneo. Il lettore potrà rintracciare nel testo un’accurata analisi della politica manutentiva Saras seguita da alcune riflessioni e proposte di miglioramento organizzativo che abbiano un positivo impatto sull’ottimizzazione dell’intero sistema Manutenzione. L’esperienza in raffineria ha avuto come principale punto d’interesse la funzione manutentiva dell’azienda ed in particolare la sua sfera operativa. Tuttavia si è cercato di fornire una veduta d’insieme del sistema aziendale rintracciando fondamentali tematiche da sempre oggetto di studi di un corso di laurea in Ingegneria Gestionale, con l’obiettivo di suscitare nel lettore il maggior interesse possibile. Nella dissertazione si parlerà di processi di Manutenzione senza prescindere dall’analisi della sicurezza sul lavoro, delle politiche di approvvigionamento di beni e servizi, della gestione del magazzino ricambi e, ultima ma forse più importante, della gestione delle risorse umane. Si ringrazia la Saras, in particolare nella persona di Renato Virdis, responsabile dell’Unità Operativa Meccanica, per l’opportunità concessa e la collaborazione mostrata durante tutto il periodo, sperando di aver lasciato in azienda un utile documento che offra uno spunto di riflessione per tutti gli attori coinvolti.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I copolimeri derivanti da acido lattico, hanno attirato una grande attenzione, negli ultimi decenni, per le loro caratteristiche di biodegradabilità e biocompatibilità e per questo sono stati ampiamente studiati i loro metodi di sintesi e le loro proprietà. Il lavoro presentato parte dalla sintesi dei due monomeri trimetilene carbonato (TMC) e p-diossanone (PDO) da utilizzare poi nella formazione di copolimeri a blocchi con il lattide commerciale racemo e levogiro. Tali copolimeri dovrebbero presentare la proprietà di memoria di forma. Nell’elaborato sono presentate le diverse tecniche di polimerizzazione sperimentate per ognuno dei copolimeri sintetizzati: la prima parte riguarderà i copolimeri TMC-lattide, inizialmente con lattide racemo (DL-lattide) e poi, trovato un metodo di sintesi appropriato, approfondito con esempi di polimerizzazione TMC-L-lattide; la seconda parte esaminerà invece i copolimeri PDO-DL-lattide.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi rientra nel progetto europeo SaveMe, al quale partecipa il gruppo di ricerca del dipartimento di chimica organica nel quale ho svolto l’attività di tirocinio. Obiettivo finale di tale progetto è la sintesi di nanoparticelle a base di PLGA (acido poli(D,L-lattico-co-glicolico)) superficialmente funzionalizzate con biomolecole, per l’impiego nel trattamento e nella diagnosi del cancro al pancreas. L’obiettivo da raggiungere nel primo anno di ricerca per il mio gruppo era la sintesi delle nanoparticelle centrali (core nanosystems). Nel presente lavoro sono quindi riportati i metodi di sintesi di polimeri derivati da PLGA e suoi copolimeri con PEG (polietilenglicole) aventi vari gruppi funzionali terminali: acidi idrossamici, amminici e acidi carbossilici. I polimeri sintetizzati sono stati caratterizzati tramite test colorimetrici qualitativi, 1H-NMR, 13C-NMR, spettrometria IR e TGA. Sono state sintetizzate nanoparticelle polimeriche (PNPs), con le tecniche Oil/Water (O/W) e nanoprecipitazione (NP), basate sui polimeri ottenuti, aventi quindi funzioni acide, idrossamiche ed amminiche sulla superficie. Su queste PNPs è stato effettuata una decorazione superficiale con nanoparticelle metalliche di maghemite (CAN-Maghemite). Le nanoparticelle polimeriche sono state caratterizzate tramite DLS e delle PNPs decorate sono state ottenute immagini TEM. Sono riportati inoltre i test di viabilità cellulare delle nanoparticelle ottenute.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Cloud Storage è un modello di conservazione dati su computer in rete, dove i dati stessi sono memorizzati su molteplici server, reali e/o virtuali, generalmente ospitati presso strutture di terze parti o su server dedicati. Tramite questo modello è possibile accedere alle informazioni personali o aziendali, siano essi video, fotografie, musica, database o file in maniera “smaterializzata”, senza conoscere l’ubicazione fisica dei dati, da qualsiasi parte del mondo, con un qualsiasi dispositivo adeguato. I vantaggi di questa metodologia sono molteplici: infinita capacita’ di spazio di memoria, pagamento solo dell’effettiva quantità di memoria utilizzata, file accessibili da qualunque parte del mondo, manutenzione estremamente ridotta e maggiore sicurezza in quanto i file sono protetti da furto, fuoco o danni che potrebbero avvenire su computer locali. Google Cloud Storage cade in questa categoria: è un servizio per sviluppatori fornito da Google che permette di salvare e manipolare dati direttamente sull’infrastruttura di Google. In maggior dettaglio, Google Cloud Storage fornisce un’interfaccia di programmazione che fa uso di semplici richieste HTTP per eseguire operazioni sulla propria infrastruttura. Esempi di operazioni ammissibili sono: upload di un file, download di un file, eliminazione di un file, ottenere la lista dei file oppure la dimensione di un dato file. Ogniuna di queste richieste HTTP incapsula l’informazione sul metodo utilizzato (il tipo di richista, come GET, PUT, ...) e un’informazione di “portata” (la risorsa su cui effettuare la richiesta). Ne segue che diventa possibile la creazione di un’applicazione che, facendo uso di queste richieste HTTP, fornisce un servizio di Cloud Storage (in cui le applicazioni salvano dati in remoto generalmene attraverso dei server di terze parti). In questa tesi, dopo aver analizzato tutti i dettagli del servizio Google Cloud Storage, è stata implementata un’applicazione, chiamata iHD, che fa uso di quest’ultimo servizio per salvare, manipolare e condividere dati in remoto (nel “cloud”). Operazioni comuni di questa applicazione permettono di condividere cartelle tra più utenti iscritti al servizio, eseguire operazioni di upload e download di file, eliminare cartelle o file ed infine creare cartelle. L’esigenza di un’appliazione di questo tipo è nata da un forte incremento, sul merato della telefonia mobile, di dispositivi con tecnologie e con funzioni sempre più legate ad Internet ed alla connettività che esso offre. La tesi presenta anche una descrizione delle fasi di progettazione e implementazione riguardanti l’applicazione iHD. Nella fase di progettazione si sono analizzati tutti i requisiti funzionali e non funzionali dell’applicazione ed infine tutti i moduli da cui è composta quest’ultima. Infine, per quanto riguarda la fase di implementazione, la tesi presenta tutte le classi ed i rispettivi metodi presenti per ogni modulo, ed in alcuni casi anche come queste classi sono state effettivamente implementate nel linguaggio di programmazione utilizzato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Protocollo di Montreal, che succede alla Convenzione di Vienna per la protezione dello strato di ozono richiede l’eliminazione di idrocarburi contenenti cloro (CFC). Nel corso degli ultimi decenni ha quindi assunto importanza la reazione di idrodeclorurazione di clorofluorocarburi, in particolare rivolta alla produzione di idrocarburi fluorurati che sono risultati interessanti per la produzione di polimeri con specifiche caratteristiche di resistenza meccanica, termica e chimica. In questo lavoro di tesi, svolto in collaborazione con SOLVAY SPECIALTY POLYMERS ITALY, sono stati studiati catalizzatori innovativi per la produzione di perfluorometilviniletere (MVE), mediante idrodeclorurazione di perfluorometilcloroviniletere (AM). Attualmente la reazione di produzione industriale dell’MVE, condotta con l'utilizzo di quantità stechiometriche di Zn e dimetilformammide (DMF), presenta il notevole problema dello smaltimento di grandi quantità di zinco cloruro e di DMF. La reazione studiata, condotta in catalisi eterogenea, in presenta di H2, presenta una forte dipendenza dalla natura dei metalli utilizzati oltre che dal tipo di sintesi dei catalizzatori impiegati. Nell'ambito di questo lavoro è stato sviluppato un metodo, a basso impatto ambientale, per la sintesi si nanoparticelle preformate da utilizzare per la preparazione di catalizzatori supportati si TiO2 e SiO2. Le nanosospensioni ed i sistemi catalitici prodotti sono stati caratterizzati utilizzando diverse metodologie di analisi quali: XRD, XRF, TEM, TPR-MS, che hanno permesso di ottimizzare le diverse fasi della preparazione. Allo scopo di osservare effetti sinergici tra le specie utilizzate sono stati confrontati sistemi catalitici monometallici con sistemi bimetallici, rivelando interessanti implicazioni derivanti dall’utilizzo di fasi attive nanoparticellari a base di Pd e Cu. In particolare, è stato possibile apprezzare miglioramenti significativi nelle prestazioni catalitiche in termini di selettività a perfluorometilviniletere all’aumentare del contenuto di Cu. La via di sintesi ottimizzata e impiegata per la produzione di nanoparticelle bimetalliche è risultata una valida alternativa, a basso impatto ambientale, ai metodi di sintesi normalmente usati, portando alla preparazione di catalizzatori maggiormente attivi di quelli preparati con i metalli standard.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

All'interno della tesi si è sviluppata una metodologia di supporto alle decisioni utile all'individuazione di determinate zone distribuite all'interno dell'area del delta del fiume Ural (Kazakistan), da considerare prioritarie ai fini della tutela della biodiversità. Il livello di priorità di queste aree è stato ricavato mediante l'aggregazione delle informazioni relative alle categorie di conservazione delle specie minacciate che popolano i diversi ecosistemi che caratterizzano l'area studio. Le categorie sono state confrontate fra loro mediante l'AHP che ha permesso di ottenere un set di pesi. L'utilizzo di tre differenti metodi di aggregazione (SAW, OWA, TOPSIS), ha permesso di ricavare un valore di conservazione che raggruppa le informazioni dei pesi attribuiti alle specie in un unico valore (CV) diverso per ogni metodo. Distribuiti i CV, sulla base della presenza delle relative specie, viene sviluppata una mappa di distribuzione dei valori di conservazione sintetici (CVS) ricavati mediante l'aggregazione dei CV in ogni punto dell'area studio. L'utilizzo di questa metodologia ha permesso di individuare, come previsto dagli obiettivi dell'elaborato, le aree a maggior valore per la conservazione degli habitat e delle specie, sulle quali focalizzare le future azioni di tutela e monitoraggio ambientale, dall'altro l'applicazione di una metodologia di supporto alle decisioni in grado di far fronte ai problemi di scarsa disponibilità e reperibilità di dati utili alla caratterizzazione dell’area di studio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro valuta le prestazioni di 14 stati membri dell'Unione Europea, la quale attraverso la strategia Europa 2020 propone il raggiungimento di 8 target fondamentali per una crescita intelligente, sostenibile e inclusiva entro il 2020. I target riguardano l'occupazione, il tasso d'istruzione superiore, la percentuale di energia rinnovabile, il consumo energetico, le emissioni di gas serra, la spesa in ricerca e sviluppo, la povertà , il prematuro abbandono scolastico. A tali target corrispondono indicatori che sono annualmente censiti attraverso le autorità statistiche nazionali ed Eurostat. La misura della performance degli Stati è stata effettuata mediante il calcolo della distanza dal target di ciascun paese negli anni compresi tra il 2000 e il 2009. In particolare si è effettuato, adattandolo alle esigenze del lavoro, il calcolo della distanza euclidea e della distanza di Mahalanobis. Con le limitazioni dovute alla qualità dei dati disponibili e ad una difficoltà oggettiva di stabilire una linea di base, il lavoro ha permesso di dare un giudizio alla qualità dello sforzo compiuto da ciascun paese per raggiungere i target, fornendo un quadro analitico e articolato dei rapporti che intercorrono tra i diversi indicatori. In particolare è stato realizzato un modello relazionale basato su quattro indicatori che sono risultati essere correlati e legati da relazioni di tipo causale. I risultati possono essere sintetizzati come segue. La strategia Europa 2020 sembra partire da buone basi in quanto si è potuto osservare che in generale tutti gli stati membri osservati, Europa a 15, mostrano avere un miglioramento verso i loro rispettivi target dal 2005. Durante gli anni osservati si è notato che il range temporale 2005 e 2008 sembra essere stato il periodo dove gli stati hanno rallentato maggiormente la loro crescita di performance, con poi un buon miglioramento nell'anno finale. Questo miglioramento è stato indagato ed è risultato essere coincidente con l'anno di inizio della crisi economica. Inoltre si sono osservate buone relazioni tra il GDP e gli indicatori che hanno contribuito alla diminuzione delle performance, ma il range di riferimento non molto ampio, non ha permesso di definire la reale correlazione tra il GDP e il consumo energetico ed il GDP e l'investimento in ricerca e sviluppo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il tema sui prezzi di trasferimento inizia a essere un tema d'interesse durante la Prima guerra Mondiale, però acquisisce maggiore importanza come conseguenza de la crescente integrazione dei mercati e della globalizzazione economica ragion per cui le amministrazioni tributarie di tutti i paesi prestano maggiore attenzione. La comunità internazionale ha creato un organismo internazionale che può stabilire le basi per regolare il flusso nelle operazioni di import/export. L'organizzazione per la cooperazione e lo sviluppo economico ("OCDE") è uno di questi organismi internazionali e ha stabilito una serie di direttrici per la regolazione delle operazioni tra imprese associate,direttrice che si basa sul principio di Arm's lenght. La presente tesi investiga e analizza il marco regolatore dei prezzi di trasferimento in Mexico e descrive i tipi di operazioni che si possono realizzare in materia di prezzi di trasferimento. Descrive le principali differenze tra Messico e Italia in materia di prezzi di trasferimento. Descrive i vari metodi per la determinazione di questi prezzi e soprattutto elabora uno studio approfondito su come si svolge un analisi funzionale che è la base del tutto. Documenta come si realizza un analisi delle funzioni aziendali,attivi e rischi analizzando le disposizioni fiscali Messicane, investiga le linee principali di un'analisi economica e in particolare nel caso Messicano analizza il Bollettino B-5 delle norme di informazione finanziarie. Descrive come si realizza un'analisi economica per tipo di operazione, includendo la regola del metodo migliore e la selezione di imprese comparabili includendo un caso concreto di un'impresa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'informatica musicale è una disciplina in continua crescita che sta ottenendo risultati davvero interessanti con l'impiego di sistemi artificiali intelligenti, come le reti neuronali, che permettono di emulare capacità umane di ascolto e di esecuzione musicale. Di particolare interesse è l'ambito della codifica di informazioni musicali tramite formati simbolici, come il MIDI, che permette un'analisi di alto livello dei brani musicali e consente la realizzazione di applicazioni sorprendentemente innovative. Una delle più fruttifere applicazioni di questi nuovi strumenti di codifica riguarda la classificazione di file audio musicali. Questo elaborato si propone di esporre i fondamentali aspetti teorici che concernono la classificazione di brani musicali tramite reti neuronali artificiali e descrivere alcuni esperimenti di classificazione di file MIDI. La prima parte fornisce alcune conoscenze di base che permettono di leggere gli esperimenti presenti nella seconda sezione con una consapevolezza teorica più profonda. Il fine principale della prima parte è quello di sviluppare una comparazione da diversi punti di vista disciplinari tra le capacità di classificazione musicale umane e quelle artificiali. Si descrivono le reti neuronali artificiali come sistemi intelligenti ispirati alla struttura delle reti neurali biologiche, soffermandosi in particolare sulla rete Feedforward e sull'algoritmo di Backpropagation. Si esplora il concetto di percezione nell'ambito della psicologia cognitiva con maggiore attenzione alla percezione uditiva. Accennate le basi della psicoacustica, si passa ad una descrizione delle componenti strutturali prima del suono e poi della musica: la frequenza e l'ampiezza delle onde, le note e il timbro, l'armonia, la melodia ed il ritmo. Si parla anche delle illusioni sonore e della rielaborazione delle informazioni audio da parte del cervello umano. Si descrive poi l'ambito che interessa questa tesi da vicino: il MIR (Music Information Retrieval). Si analizzano i campi disciplinari a cui questa ricerca può portare vantaggi, ossia quelli commerciali, in cui i database musicali svolgono ruoli importanti, e quelli più speculativi ed accademici che studiano i comportamenti di sistemi intelligenti artificiali e biologici. Si descrivono i diversi metodi di classificazione musicale catalogabili in base al tipo di formato dei file audio in questione e al tipo di feature che si vogliono estrarre dai file stessi. Conclude la prima sezione di stampo teorico un capitolo dedicato al MIDI che racconta la storia del protocollo e ne descrive le istruzioni fondamentali nonchè la struttura dei midifile. La seconda parte ha come obbiettivo quello di descrivere gli esperimenti svolti che classificano file MIDI tramite reti neuronali mostrando nel dettaglio i risultati ottenuti e le difficoltà incontrate. Si coniuga una presentazione dei programmi utilizzati e degli eseguibili di interfaccia implementati con una descrizione generale della procedura degli esperimenti. L'obbiettivo comune di tutte le prove è l'addestramento di una rete neurale in modo che raggiunga il più alto livello possibile di apprendimento circa il riconoscimento di uno dei due compositori dei brani che le sono stati forniti come esempi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni si è sviluppata una forte sensibilità nei confronti del rischio che il dissesto idrogeologico comporta per il territorio, soprattutto in un paese come il nostro, densamente abitato e geologicamente fragile. Il rischio idrogeologico In Italia infatti è diffuso in modo capillare e si presenta in modo differente a seconda dell’assetto geomorfologico del territorio. Tra i fattori naturali che predispongono il nostro territorio a frane ed alluvioni, rientra la conformazione geologica e geomorfologica, caratterizzata da un’orografia giovane e da rilievi in via di sollevamento. A seguito del verificarsi di una serie di eventi calamitosi (Piemonte 1994, Campania 1998 e 1999, Sovereto 2000, Alpi centrali 2000 e 2002) sono state emanate leggi specifiche finalizzate all’individuazione e all’applicazione di norme, volte a prevenire e contenere i gravi effetti derivanti dai fenomeni di dissesto. Si fa riferimento in particolare, alle leggi n°267 del 3/08/1998 e 365/2000 che hanno integrato la legge 183/1989. In questo modo gli enti territoriali (Regioni, Autorità di bacino) sono stati obbligati a predisporre una adeguata cartografia con perimetrazione delle aree a differente pericolosità e rischio. Parallelamente continuano ad essere intrapresi, promossi e finanziati numerosi studi scientifici volti allo studio dei fenomeni ed alla definizione più puntuale delle condizioni di rischio, oltre alle iniziative volte alla creazione di un efficace sistema di allertamento e di sorveglianza dei fenomeni e alla messa a punto di una pianificazione di emergenza volta a coordinare in modo efficace la risposta delle istituzioni agli eventi. In questo contesto gli studi su validi approcci metodologici per l’analisi e la valutazione del rischio possono fornire un supporto al processo decisionale delle autorità preposte alla gestione del territorio, identificando gli scenari di rischio e le possibili strategie di mitigazione, e individuando la soluzione migliore in termini di accettabilità sociale e convenienza economica. Nel presente elaborato si vuole descrivere i temi relativi alla valutazione della pericolosità, del rischio e della sua gestione, con particolare attenzione ai fenomeni di instabilità dei versanti e nello specifico ai fenomeni di crollo da pareti rocciose che interessano il territorio della Provincia Autonoma di Bolzano. Il fenomeno della caduta massi infatti è comunemente diffuso in tutte le regioni di montagna e lungo le falesie costiere, ed in funzione dell’elevata velocità con cui si manifesta può costituire una costante fonte di pericolo per le vite, i beni e le attività umane in zone generalmente molto attive dal punto di vista del turismo e delle grandi vie di comunicazione. Il territorio della Provincia Autonoma di Bolzano è fortemente interessato da questo problema, sia per la morfologia montuosa della provincia che per le infrastrutture che sempre più occupano zone di territorio un tempo poco urbanizzate. Al fine di pervenire ad una legittima programmazione delle attività di previsione e prevenzione, il Dipartimento dei Lavori Pubblici della Provincia, ha scelto di utilizzare una strategia che prevedesse un insieme di attività dirette allo studio ed alla determinazione delle cause dei fenomeni calamitosi, alla identificazione dei rischi, ed alla determinazione delle zone del territorio soggette ai rischi stessi. E’ nato così, con l’operatività dell’Ufficio Geologia e Prove Materiali, il supporto del Dipartimento Opere Pubbliche e della Ripartizione Protezione Civile e la collaborazione scientifica del DISTART – Università degli Studi di Bologna, Alma Mater Studiorum, il progetto VISO che riguarda i pericoli generati da frane di crollo, ribaltamento, scivolamento di porzioni di pareti rocciose e caduta massi. Il progetto ha come scopo la valutazione del pericolo, della vulnerabilità e del rischio e dell’effettiva funzionalità delle opere di protezione contro la caduta massi lungo la strada statale del Brennero. Il presente elaborato mostra l’iter per l’individuazione del rischio specifico che caratterizza un particolare tratto stradale, così come è stato pensato dalla Provincia Autonoma di Bolzano all’interno di una strategia di previsione e prevenzione, basata su metodi il più possibile oggettivi, ed estesa all’intera rete stradale di competenza provinciale. Si esamina l’uso di metodologie diverse per calcolare l’intensità di un fenomeno franoso che potrebbe potenzialmente svilupparsi su un versante e si osserva in che modo la presenza di opere di protezione passiva influisce sull’analisi di pericolosità. Nel primo capitolo viene presentata una panoramica sui fenomeni di crollo descrivendo i fattori principali che li originano e gli interventi di protezione posti a difesa del versante. Si esaminano brevemente le tipologie di intervento, classificate in opere attive e passive, con particolare attenzione alle barriere paramassi., che si collocano tra gli interventi di difesa passivi e che stanno diventando il tipo di intervento più frequentemente utilizzato. Nel capitolo vengono descritte dal punto di vista progettuale, prendendo in esame anche la normativa di riferimento nonché le nuove linee guida per la certificazione CE delle barriere, nate negli ultimi anni per portare ad una facile comparabilità dei vari prodotti sottoposti ad impatti normalizzati, definendo con chiarezza i livelli energetici ai quali possono essere utilizzati i vari prodotti e, nel contempo, fornendo informazioni assolutamente indispensabili per la buona progettazione degli stessi. Nel capitolo successivo si prendono in esame i temi relativi alla valutazione della pericolosità e del rischio, l’iter procedurale di analisi del rischio adottato dalla Provincia Autonoma di Bolzano in relazione alle frane da crollo che investono le strade della rete provinciale ed in particolare viene descritto il progetto VISO (Viability Information Operating System), nato allo scopo di implementare un catasto informatizzato che raccolga indicazioni sul patrimonio delle opere di protezione contro la caduta massi e di rilevare e valutare il pericolo, la vulnerabilità, il rischio e l’effettiva funzionalità delle opere di protezione contro la caduta massi lungo le strade statali e provinciali. All’interno dello stesso capitolo si espone come, nell’ambito del progetto VISO e grazie alla nascita del progetto europeo Paramount ” (Improved accessibility reliability and safety of Alpine tran sport infrastructure related to mountainous hazard in a changing climate) si è provveduto, con l’aiuto di una collega del corso di laurea, a raccogliere i dati relativi all’installazione delle barriere paramassi sul territorio della Provincia Autonoma di Bolzano. Grazie ad un’analisi di archivio effettuata all’interno delle diverse sedi del servizio strade della Provincia Autonoma di Bolzano, si è presa visione (laddove presenti) delle schede tecniche delle barriere collocate sul territorio, si sono integrati i dettagli costruttivi contattando le principali ditte fornitrici e si è proceduto con una classificazione delle opere, identificando alcuni modelli di “barriere-tipo che sono stati inseriti nel database PARAMOUNT, già creato per il progetto VISO. Si è proseguito associando a tali modelli le barriere provviste di documentazione fotografica rilevate in precedenza dall’istituto di Geologia della Provincia Autonoma di Bolzano e inserite in VISO e si è valutata la corrispondenza dei modelli creati, andando a verificare sul posto che le barriere presenti sul territorio ed inserite nel database (tramite modello), effettivamente coincidessero, nelle misure e per le caratteristiche geometrico-costruttive, ai modelli a cui erano state associate. Inoltre sono stati considerati i danni tipici a cui può essere soggetta una barriera paramassi durante il suo periodo di esercizio poiché tali difetti andranno ad incidere sulla valutazione dell’utilità del sistema di difesa e di conseguenza sulla valutazione della pericolosità del versante(H*). Nel terzo capitolo si è esposta una possibile integrazione, mediante il software di calcolo RocFall, della procedura di valutazione dell’analisi di pericolosità di un versante utilizzata nell’ambito del progetto VISO e già analizzata in dettaglio nel secondo capitolo. Il software RocFall utilizza un metodo lumped mass su schema bidimensionale basato su ipotesi semplificative e consente di effettuare simulazioni probabilistiche di fenomeni di caduta massi, offrendo importanti informazioni sull’energia che si sviluppa durante il crollo, sulle velocità raggiunte e sulle altezze di rimbalzo lungo tutto il versante considerato, nonché sulla distanza di arresto dei singoli massi. Si sono realizzati dei profili-tipo da associare al versante, considerando il pendio suddiviso in tre parti : parete verticale (H = 100 m) lungo la quale si sviluppa il movimento franoso; pendio di altezza H = 100 m e angolo pari ai quattro valori medi della pendenza indicati nella scheda di campagna; strada (L = 10 m). Utilizzando il software Cad si sono realizzati 16 profili associando la pendenza media del versante a 4 morfologie individuate grazie all’esperienza dell’Istituto di Geologia e Prove materiali della Provincia Autonoma di Bolzano; si è proceduto importando tali profili in RocFall dove sono state aggiunte informazioni riguardanti la massa del blocco e l’uso del suolo, ottenendo 256 profili-tipo ai quali è stata associata una sigla definita come segue : morfologia (1, 2, 3, 4) _ pendenza (37, 53, 67, 83 gradi) _ uso del suolo (A, B, C, D) _ massa (a,b,c,d). Fissando i parametri corrispondenti al peso del masso ( inserito al solo scopo di calcolare la velocità rotazionale e l’energia cinetica ) e considerando, per ogni simulazione, un numero di traiettorie possibili pari a 1000, avendo osservato che all’aumentare di tale numero (purchè sufficientemente elevato) non si riscontrano variazioni sostanziali nei risultati dell’analisi, si è valutato come i parametri uso del suolo (A;B;C;D), morfologia (1;2;3;4) e pendenza (37°;53°;67°;83°) incidano sulla variazione di energia cinetica, di altezza di rimbalzo e sulla percentuale di massi che raggiunge la strada, scegliendo come punto di riferimento il punto di intersezione tra il pendio e la strada. Al fine di realizzare un confronto tra un profilo reale e un profilo-tipo, sono stati utilizzati 4 profili posti su un versante situato nel Comune di Laives, noto per le frequenti cadute di massi che hanno raggiunto in molti casi la strada. Tali profili sono stati visionati in sede di sopralluogo dove si è provveduto alla compilazione delle schede di campagna (impiegate per valutare l’intensità del fenomeno che potenzialmente si sviluppa dal versante) e all’individuazione dei profili-tipo corrispondenti. Sono state effettuate analisi di simulazione per entrambe le tipologie di profilo, e sono stati confrontati i risultati ottenuti in termini di Energia cinetica; altezza di rimbalzo e percentuale dei blocchi in corrispondenza della strada. I profili reali sono stati importati in RocFal in seguito ad estrapolazione dal modello digitale del terreno (ottenuto da analisi con Laser Scanner) utilizzando l’ estensione Easy Profiler nel software Arcmap. Infine si è valutata la possibilità di collocare eventuali barriere paramassi su un profilo reale, si è proceduto effettuando una analisi di simulazione di caduta massi in RocFall, importando in excel i valori corrispondenti all’andamento dei massimi dell’Energia cinetica e dell’altezza di rimbalzo lungo il pendio che forniscono una buona indicazione circa l´idonea ubicazione delle opere di protezione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La terapia di resincronizzazione cardiaca (CRT) si è imposta negli ultimi dieci anni come l'alternativa migliore all'approccio farmacologico primario nella cura allo scompenso cardiaco: la stimolazione biventricolare utilizzando un elettrocatetere in ventricolo sinistro si è infatti rivelata uno dei metodi più efficaci per migliorare la dissincronia ventricolare negli stadi più avanzati anche nei pazienti che necessitano di una stimolazione continua e permanente come coloro che sono stati sottoposti ad ablazione del nodo AV. Esistono diversi punti irrisolti su cui la ricerca sta ancora lavorando per poter ottimizzare questa terapia, in particolar modo la percentuale (circa il 25-30%) dei pazienti in cui non si registrano miglioramenti dovuti alla terapia. Questa tesi, proposta dall'azienda St.Jude Medical Inc., segue la costruzione di un registro osservazionale per poter valutare l'efficacia della tecnologia quadripolare di ultima generazione. Dai dati emersi, la possibilità di programmare dieci diversi vettori di stimolazione contro i tre offerti dagli attuali dispositivi bipolari permette una maggiore libertà nel posizionamento dell'elettrocatetere ventricolare sinistro e una più semplice gestione delle complicanze come la stimolazione del nervo frenico (PNS), oltre a strutturare una terapia più specifica a seconda della risposta del paziente; inoltre la tecnologia quadripolare ha evidenziato migliori prestazioni in sede di impianto – tempi minori, più percentuali di successo e maggiori possibilità di posizionamento del catetere in zona ottimale con buoni valori di soglia – e meno interventi in seguito a complicanze. Il miglioramento della percentuale dei responder non è stato particolarmente significativo e necessita di ulteriori studi, ma è comunque incoraggiante e mostra che un numero più alto di configurazioni di stimolazione può essere una soluzione ottimale per la ricerca di una cura personalizzata, specialmente verso quei pazienti che durante l'impianto verrebbero esclusi per mancanza di stimolazioni corrette e possono, in questo modo, rientrare nella terapia fin dall'inizio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A causa della limitata estensione del campo di vista del sistema, con un microscopio ottico tradizionale non è possibile acquisire una singola immagine completamente a fuoco se l’oggetto è caratterizzato da una profondità non trascurabile. Fin dagli anni ’70, il problema dell’estensione della profondità di fuoco è stato ampiamente trattato in letteratura e molti metodi sono stati proposti per superare questo limite. Tuttavia, è molto difficile riuscire a decretare quale metodo risulti essere il migliore in una specifica applicazione, a causa della mancanza di una metrica validata e adatta ad essere utilizzata anche in casi reali, dove generalmente non si ha a disposizione un’immagine di riferimento da considerare come “la verità” (ground truth). L’Universal Quality Index (UQI) è ampiamente utilizzato in letteratura per valutare la qualità dei risultati in processi di elaborazione di immagini. Tuttavia, per poter calcolare questo indice è necessaria una ground truth. In effetti, sono state proposte in letteratura alcune estensioni dell’UQI per valutare il risultato dei metodi di fusione anche senza immagine di riferimento, ma nessuna analisi esaustiva è stata proposta per dimostrare la loro equivalenza con l’UQI standard nel valutare la qualità di un’immagine. In questo lavoro di Tesi, partendo dai limiti dei metodi attualmente utilizzati per l'estensione della profondità di campo di un microscopio, ed esposti in letteratura, per prima cosa è stato proposto un nuovo metodo, basato su approccio spaziale e fondato su analisi locale del segnale appositamente filtrato. Attraverso l’uso di sequenze di immagini sintetiche, delle quali si conosce la ground truth, è stato dimostrato, utilizzando metriche comuni in image processing, che il metodo proposto è in grado di superare le performance dei metodi allo stato dell'arte. In seguito, attraverso una serie di esperimenti dedicati, è stato provato che metriche proposte e ampiamente utilizzate in letteratura come estensione dell'UQI per valutare la qualità delle immagini prodotte da processi di fusione, sebbene dichiarate essere sue estensioni, non sono in grado di effettuare una valutazione quale quella che farebbe l'UQI standard. E’ quindi stato proposto e validato un nuovo approccio di valutazione che si è dimostrato in grado di classificare i metodi di fusione testati così come farebbe l’UQI standard, ma senza richiedere un’immagine di riferimento. Infine, utilizzando sequenze di immagini reali acquisite a differenti profondità di fuoco e l’approccio di valutazione validato, è stato dimostrato che il metodo proposto per l’estensione della profondità di campo risulta sempre migliore, o almeno equivalente, ai metodi allo stato dell’arte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le moderne tecniche di imaging e i recenti sviluppi nel campo della visione computazionale consentono sempre più diffusamente l'utilizzo di metodi di image analysis, specialmente in ambito medico e biologico, permettendo un maggiore supporto sia alla diagnosi, sia alla ricerca. Il lavoro svolto in questa tesi si pone in un contesto di ricerca di carattere interdisciplinare, e riguarda il progetto e la realizzazione di un‘interfaccia grafica per l'analisi di colture batteriche geneticamente modificate, marcate con proteine fluorescenti (GFP), acquisite tramite un microscopio ad epifluorescenza. Nota la funzione di risposta del sistema di acquisizione delle immagini, l'analisi quantitativa delle colture batteriche è effettuata mediante la misurazione di proprietà legate all'intensità della risposta al marcatore fluorescente. L'interfaccia consente un'analisi sia globale dei batteri individuati nell'immagine, sia di singoli gruppi di batteri selezionati dall'utente, fornendo utili informazioni statistiche, sia in forma grafica che numerica. Per la realizzazione dell'interfaccia sono state adottate tecniche di ingegneria del software, con particolare enfasi alla interazione uomo-macchina e seguendo criteri di usability, al fine di consentire un corretto utilizzo dello strumento anche da parte di personale senza conoscenza in campo informatico.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi propone una riflessione critica sulle pratiche della pianificazione urbanistica attraverso l’analisi di un significativo caso di studio, costituito dalla Darsena di Città a Ravenna. Questo approccio di ricerca è dal nostro punto di vista una conseguenza della difficoltà di governare le attuali problematiche di sviluppo dello spazio urbano attraverso gli strumenti tradizionali della pianificazione e dell’urbanistica. La tesi ha lo scopo di far emergere temi di dibattito attuale sulle aree di sviluppo urbano, in particolare la complessità dei compiti decisionali riguardanti aree oggetto di interventi di rigenerazione urbana. La definizione “area di sviluppo urbano” si pone come prodotto di un’attiva collaborazione tra Stato, mercato e società civile e costituisce dal nostro punto di vista una vera “questione sociale”. Prenderemo come riferimento il caso della Darsena di Città di Ravenna, oggetto della sperimentazione urbanistica degli ultimi trenta anni, sul quale diversi “stili” e strumenti di pianificazione si sono confrontati, nell’intento di guidare un processo di riqualificazione che ha portato ad oggi a risultati concreti assai limitati. Attraverso gli strumenti consultabili e un rapido sopralluogo infatti, possiamo intuire immediatamente come la realizzazione di interventi sull’area si limiti a casi localizzati come la riqualificazione della raffineria Almagià, la nuova sede dell’autorità portuale e l’ex molino Pineta, oltre agli interventi residenziali riconducibili all’edificio progettato dall’architetto Cino Zucchi e ai nuovi isolati attorno alla parte centrale di via Trieste. Le problematiche di fondo che hanno creato conflitti sono molte, dall’elevata divisione proprietaria alla cesura del comparto con il centro storico data dalla barriera ferroviaria, alla questione relativa al risanamento delle acque e dei suoli, solo per citare le più evidenti. Siamo quindi interessati a capire il problema dal punto di vista del processo di pianificazione per poi concentrare la nostra riflessione su possibili soluzioni che possano risolvere i conflitti che sembrano all’oggi non trovare una risposta condivisa. Per meglio comprendere come rapportarci al caso specifico si è cercato di analizzare alcuni aspetti teorici fondanti del “procedimento archetipico” di pianificazione urbana in contrapposizione con metodi di pianificazione “non convenzionali”. Come lo studio dei primi ci ha permesso di capire come si è arrivati all’attuale situazione di stallo nella trasformazione urbana della Darsena di Città, i secondi ci hanno aiutato a comprendere per quali ragioni i piani urbanistici di tipo “tradizionale” pensati per la Darsena di Città non sono stati portati a realizzazione. Consci che i fattori in gioco sono molteplici abbiamo deciso di affrontare questa tesi attraverso un approccio aperto al dialogo con le reali problematiche presenti sul territorio, credendo che la pianificazione debba relazionarsi con il contesto per essere in grado di proporre e finalizzare i suoi obiettivi. Conseguenza di questo è per noi il fatto che una sensibile metodologia di pianificazione debba confrontarsi sia con i processi istituzionali sia con le dinamiche e i valori socio-culturali locali. In generale gerarchie di potere e decisioni centralizzate tendono a prevalere su pratiche decisionali di tipo collaborativo; questa tesi si è proposta quindi l’obiettivo di ragionare sulle une e sulle altre in un contesto reale per raggiungere uno schema di pianificazione condiviso. La pianificazione urbanistica è da noi intesa come una previsione al futuro di pratiche di accordo e decisione finalizzate a raggiungere un obiettivo comune, da questo punto di vista il processo è parte essenziale della stessa pianificazione. Il tema è attuale in un contesto in cui l’urbanistica si è sempre confrontata in prevalenza con i temi della razionalizzazione della crescita, e con concetti da tempo in crisi che vanno oggi rimessi in discussione rispetto alle attuali istanze di trasformazione “sostenibile” delle città e dei territori. Potremmo riassumere le nostre riflessioni sull’urbanistica ed i nostri intenti rispetto al piano della Darsena di Città di Ravenna attraverso una definizione di Rem Koolhaas: l’urbanistica è la disciplina che genera potenziale, crea opportunità e causa eventi, mentre l’architettura è tradizionalmente la disciplina che manipola questo potenziale, sfrutta le possibilità e circoscrive. Il percorso di ragionamento descritto in questa tesi intende presentare attraverso alcune questioni significative l’evoluzione dello spazio urbano e delle pratiche di pianificazione, arrivando a formulare un “progetto tentativo” sul territorio della Darsena di Città.