934 resultados para analisi di Fourier, mercati elettrici.
Resumo:
Nell’ambito dell’analisi computazionale delle strutture il metodo degli elementi finiti è probabilmente uno dei metodi numerici più efficaci ed impiegati. La semplicità dell’idea di base del metodo e la relativa facilità con cui può essere implementato in codici di calcolo hanno reso possibile l’applicazione di questa tecnica computazionale in diversi settori, non solo dell’ingegneria strutturale, ma in generale della matematica applicata. Ma, nonostante il livello raggiunto dalle tecnologie ad elementi finiti sia già abbastanza elevato, per alcune applicazioni tipiche dell’ingegneria strutturale (problemi bidimensionali, analisi di lastre inflesse) le prestazioni fornite dagli elementi usualmente utilizzati, ovvero gli elementi di tipo compatibile, sono in effetti poco soddisfacenti. Vengono in aiuto perciò gli elementi finiti basati su formulazioni miste che da un lato presentano una più complessa formulazione, ma dall’altro consentono di prevenire alcuni problemi ricorrenti quali per esempio il fenomeno dello shear locking. Indipendentemente dai tipi di elementi finiti utilizzati, le quantità di interesse nell’ambito dell’ingegneria non sono gli spostamenti ma gli sforzi o più in generale le quantità derivate dagli spostamenti. Mentre i primi sono molto accurati, i secondi risultano discontinui e di qualità scadente. A valle di un calcolo FEM, negli ultimi anni, hanno preso piede procedure di post-processing in grado, partendo dalla soluzione agli elementi finiti, di ricostruire lo sforzo all’interno di patch di elementi rendendo quest’ultimo più accurato. Tali procedure prendono il nome di Procedure di Ricostruzione (Recovery Based Approaches). Le procedure di ricostruzione qui utilizzate risultano essere la REP (Recovery by Equilibrium in Patches) e la RCP (Recovery by Compatibility in Patches). L’obbiettivo che ci si prefigge in questo lavoro è quello di applicare le procedure di ricostruzione ad un esempio di piastra, discretizzato con vari tipi di elementi finiti, mettendone in luce i vantaggi in termini di migliore accurattezza e di maggiore convergenza.
Resumo:
Oltre un miliardo di persone non ha oggi accesso all’acqua potabile; più di due miliardi è il numero di coloro che vivono in condizioni igienico-sanitarie realmente proibitive. Sono 80 i paesi nel mondo (con il 40% della popolazione totale) in cui si riscontra difficoltà di approvvigionamento e presenza di risorse idriche che mancano dei requisiti che dovrebbero essere assicurati per la tutela della salute: quotidianamente e sistematicamente il diritto di accesso all’acqua, che nessun individuo dovrebbe vedersi negato, viene violato. Scarsità di acqua e non omogenea distribuzione sulla superficie terrestre sono fattori che concorrono alla crisi della risorsa, cui contribuiscono processsi di natura ambientale (cambiamenti climatici, desertificazione), di natura economica (le sorti dell’industria agroalimentare, la globalizzazione degli scambi, il bisogno crescente di energia), di natura sociale (migrazioni, urbanizzazione, crescita demografica, epidemie), di natura culturale (passaggio dal rurale all’urbano, dall’agricoltura di sussistenza a quella di profitto). Nell’ottica di uno sviluppo sostenibile un aumento indiscriminato dell’offerta non può costituire soluzione al continuo incremento della domanda di acqua. Si rende pertanto necessaria la definizione di politiche e strumenti di cambiamento nei modelli di consumo e nella pianificazione che consentano una riduzione degli squilibri nella distribuzione e nella gestione della risorsa a livello domestico e civile, industriale, agricolo. L’uso efficiente, e quindi sostenibile, dell’acqua è da perseguirsi secondo le modalità: • Risparmio, inteso come minore consumo di acqua all’inizio del ciclo. • Riciclo dell’acqua in circuito chiuso, inteso come riuso dell’acqua di scarico, o uso multiplo dell’acqua. Una idonea utilizzazione dipende da una idonea progettazione, che abbia come finalità: • La destinazione in via prioritaria delle fonti e delle risorse di più elevata qualità agli usi idropotabili, con una graduale sostituzione del consumo per altri usi con risorse di minore pregio. • La regolamentazione dell’uso delle acque sotterranee, mediante la limitazione del ricorso all’impiego di pozzi solo in mancanza di forniture alternative per uso civile, industriale, agricolo. • L’incentivazione ad un uso razionale della risorsa, anche mediante l’attuazione di idonee politiche tariffarie. • L’aumento dell’efficienza delle reti di adduzione e distribuzione, sia civili che irrigue. • La promozione di uso efficiente, riciclo e recupero di acqua nell’industria. • Il miglioramento dell’efficienza ed efficacia delle tecniche di irrigazione. • La promozione del riutilizzo delle acque nei vari settori. • La diffusione nella pratica domestica di apparati e tecnologie progettati per la riduzione degli sprechi e dei consumi di acqua. In ambito agricolo la necessità di un uso parsimonioso della risorsa impone il miglioramento dell’efficienza irrigua, pari appena al 40%. La regione Emilia Romagna a livello locale, Israele a livello internazionale, forniscono ottimi esempi in termini di efficacia dei sistemi di trasporto e di distribuzione, di buona manutenzione delle strutture. Possibili soluzioni verso le quali orientare la ricerca a livello mondiale per arginare la progressiva riduzione delle riserve idriche sono: • Revisione dei costi idrici. • Recupero delle riserve idriche. • Raccolta dell’acqua piovana. • Miglioramento degli impianti di distribuzione idrica. • Scelta di metodi di coltivazione idonei alle caratteristiche locali. • Scelta di colture a basso fabbisogno idrico. • Conservazione della risorsa attraverso un sistema di irrigazione efficiente. • Opere di desalinizzazione. • Trasferimento idrico su vasta scala da un’area all’altra. Si tratta di tecniche la cui attuazione può incrementare la disponibilità media pro capite di acqua, in particolare di coloro i quali non ne posseggono in quantità sufficiente per bere o sono privi di sistemi igienico-sanitari sufficienti.
Resumo:
CAPITOLO 1 INTRODUZIONE Il lavoro presentato è relativo all’utilizzo a fini metrici di immagini satellitari storiche a geometria panoramica; in particolare sono state elaborate immagini satellitari acquisite dalla piattaforma statunitense CORONA, progettata ed impiegata essenzialmente a scopi militari tra gli anni ’60 e ’70 del secolo scorso, e recentemente soggette ad una declassificazione che ne ha consentito l’accesso anche a scopi ed utenti non militari. Il tema del recupero di immagini aeree e satellitari del passato è di grande interesse per un ampio spettro di applicazioni sul territorio, dall’analisi dello sviluppo urbano o in ambito regionale fino ad indagini specifiche locali relative a siti di interesse archeologico, industriale, ambientale. Esiste infatti un grandissimo patrimonio informativo che potrebbe colmare le lacune della documentazione cartografica, di per sé, per ovvi motivi tecnici ed economici, limitata a rappresentare l’evoluzione territoriale in modo asincrono e sporadico, e con “forzature” e limitazioni nel contenuto informativo legate agli scopi ed alle modalità di rappresentazione delle carte nel corso del tempo e per diversi tipi di applicazioni. L’immagine di tipo fotografico offre una rappresentazione completa, ancorché non soggettiva, dell’esistente e può complementare molto efficacemente il dato cartografico o farne le veci laddove questo non esista. La maggior parte del patrimonio di immagini storiche è certamente legata a voli fotogrammetrici che, a partire dai primi decenni del ‘900, hanno interessato vaste aree dei paesi più avanzati, o regioni di interesse a fini bellici. Accanto a queste, ed ovviamente su periodi più vicini a noi, si collocano le immagini acquisite da piattaforma satellitare, tra le quali rivestono un grande interesse quelle realizzate a scopo di spionaggio militare, essendo ad alta risoluzione geometrica e di ottimo dettaglio. Purtroppo, questo ricco patrimonio è ancora oggi in gran parte inaccessibile, anche se recentemente sono state avviate iniziative per permetterne l’accesso a fini civili, in considerazione anche dell’obsolescenza del dato e della disponibilità di altre e migliori fonti di informazione che il moderno telerilevamento ci propone. L’impiego di immagini storiche, siano esse aeree o satellitari, è nella gran parte dei casi di carattere qualitativo, inteso ad investigare sulla presenza o assenza di oggetti o fenomeni, e di rado assume un carattere metrico ed oggettivo, che richiederebbe tra l’altro la conoscenza di dati tecnici (per esempio il certificato di calibrazione nel caso delle camere aerofotogrammetriche) che sono andati perduti o sono inaccessibili. Va ricordato anche che i mezzi di presa dell’epoca erano spesso soggetti a fenomeni di distorsione ottica o altro tipo di degrado delle immagini che ne rendevano difficile un uso metrico. D’altra parte, un utilizzo metrico di queste immagini consentirebbe di conferire all’analisi del territorio e delle modifiche in esso intercorse anche un significato oggettivo che sarebbe essenziale per diversi scopi: per esempio, per potere effettuare misure su oggetti non più esistenti o per potere confrontare con precisione o co-registrare le immagini storiche con quelle attuali opportunamente georeferenziate. Il caso delle immagini Corona è molto interessante, per una serie di specificità che esse presentano: in primo luogo esse associano ad una alta risoluzione (dimensione del pixel a terra fino a 1.80 metri) una ampia copertura a terra (i fotogrammi di alcune missioni coprono strisce lunghe fino a 250 chilometri). Queste due caratteristiche “derivano” dal principio adottato in fase di acquisizione delle immagini stesse, vale a dire la geometria panoramica scelta appunto perché l’unica che consente di associare le due caratteristiche predette e quindi molto indicata ai fini spionaggio. Inoltre, data la numerosità e la frequenza delle missioni all’interno dell’omonimo programma, le serie storiche di questi fotogrammi permettono una ricostruzione “ricca” e “minuziosa” degli assetti territoriali pregressi, data appunto la maggior quantità di informazioni e l’imparzialità associabili ai prodotti fotografici. Va precisato sin dall’inizio come queste immagini, seppur rappresentino una risorsa “storica” notevole (sono datate fra il 1959 ed il 1972 e coprono regioni moto ampie e di grandissimo interesse per analisi territoriali), siano state molto raramente impiegate a scopi metrici. Ciò è probabilmente imputabile al fatto che il loro trattamento a fini metrici non è affatto semplice per tutta una serie di motivi che saranno evidenziati nei capitoli successivi. La sperimentazione condotta nell’ambito della tesi ha avuto due obiettivi primari, uno generale ed uno più particolare: da un lato il tentativo di valutare in senso lato le potenzialità dell’enorme patrimonio rappresentato da tali immagini (reperibili ad un costo basso in confronto a prodotti simili) e dall’altro l’opportunità di indagare la situazione territoriale locale per una zona della Turchia sud orientale (intorno al sito archeologico di Tilmen Höyük) sulla quale è attivo un progetto condotto dall’Università di Bologna (responsabile scientifico il Prof. Nicolò Marchetti del Dipartimento di Archeologia), a cui il DISTART collabora attivamente dal 2005. L’attività è condotta in collaborazione con l’Università di Istanbul ed il Museo Archeologico di Gaziantep. Questo lavoro si inserisce, inoltre, in un’ottica più ampia di quelle esposta, dello studio cioè a carattere regionale della zona in cui si trovano gli scavi archeologici di Tilmen Höyük; la disponibilità di immagini multitemporali su un ampio intervallo temporale, nonché di tipo multi sensore, con dati multispettrali, doterebbe questo studio di strumenti di conoscenza di altissimo interesse per la caratterizzazione dei cambiamenti intercorsi. Per quanto riguarda l’aspetto più generale, mettere a punto una procedura per il trattamento metrico delle immagini CORONA può rivelarsi utile all’intera comunità che ruota attorno al “mondo” dei GIS e del telerilevamento; come prima ricordato tali immagini (che coprono una superficie di quasi due milioni di chilometri quadrati) rappresentano un patrimonio storico fotografico immenso che potrebbe (e dovrebbe) essere utilizzato sia a scopi archeologici, sia come supporto per lo studio, in ambiente GIS, delle dinamiche territoriali di sviluppo di quelle zone in cui sono scarse o addirittura assenti immagini satellitari dati cartografici pregressi. Il lavoro è stato suddiviso in 6 capitoli, di cui il presente costituisce il primo. Il secondo capitolo è stato dedicato alla descrizione sommaria del progetto spaziale CORONA (progetto statunitense condotto a scopo di fotoricognizione del territorio dell’ex Unione Sovietica e delle aree Mediorientali politicamente correlate ad essa); in questa fase vengono riportate notizie in merito alla nascita e all’evoluzione di tale programma, vengono descritti piuttosto dettagliatamente gli aspetti concernenti le ottiche impiegate e le modalità di acquisizione delle immagini, vengono riportati tutti i riferimenti (storici e non) utili a chi volesse approfondire la conoscenza di questo straordinario programma spaziale. Nel terzo capitolo viene presentata una breve discussione in merito alle immagini panoramiche in generale, vale a dire le modalità di acquisizione, gli aspetti geometrici e prospettici alla base del principio panoramico, i pregi ed i difetti di questo tipo di immagini. Vengono inoltre presentati i diversi metodi rintracciabili in bibliografia per la correzione delle immagini panoramiche e quelli impiegati dai diversi autori (pochi per la verità) che hanno scelto di conferire un significato metrico (quindi quantitativo e non solo qualitativo come è accaduto per lungo tempo) alle immagini CORONA. Il quarto capitolo rappresenta una breve descrizione del sito archeologico di Tilmen Höyuk; collocazione geografica, cronologia delle varie campagne di studio che l’hanno riguardato, monumenti e suppellettili rinvenute nell’area e che hanno reso possibili una ricostruzione virtuale dell’aspetto originario della città ed una più profonda comprensione della situazione delle capitali del Mediterraneo durante il periodo del Bronzo Medio. Il quinto capitolo è dedicato allo “scopo” principe del lavoro affrontato, vale a dire la generazione dell’ortofotomosaico relativo alla zona di cui sopra. Dopo un’introduzione teorica in merito alla produzione di questo tipo di prodotto (procedure e trasformazioni utilizzabili, metodi di interpolazione dei pixel, qualità del DEM utilizzato), vengono presentati e commentati i risultati ottenuti, cercando di evidenziare le correlazioni fra gli stessi e le problematiche di diversa natura incontrate nella redazione di questo lavoro di tesi. Nel sesto ed ultimo capitolo sono contenute le conclusioni in merito al lavoro in questa sede presentato. Nell’appendice A vengono riportate le tabelle dei punti di controllo utilizzati in fase di orientamento esterno dei fotogrammi.
Resumo:
Il progresso nella tecnica di recupero e di rinforzo nelle strutture metalliche con i polimeri fibro-rinforzati FRP (fibre reinforced polymers). 1.1 Introduzione nelle problematiche ricorrenti delle strutture metalliche. Le strutture moderne di una certa importanza, come i grattacieli o i ponti, hanno tempi e costi di costruzione molto elevati ed è allora di importanza fondamentale la loro durabilità, cioè la lunga vita utile e i bassi costi di manutenzione; manutenzione intesa anche come modo di restare a livelli prestazionali predefiniti. La definizione delle prestazioni comprende la capacità portante, la durabilità, la funzionalità e l’aspetto estetico. Se il livello prestazionale diventa troppo basso, diventa allora necessario intervenire per ripristinare le caratteristiche iniziali della struttura. Strutture con una lunga vita utile, come per la maggior parte delle strutture civili ed edilizie, dovranno soddisfare esigenze nuove o modificate: i mezzi di trasporto ad esempio sono diventati più pesanti e più diffusi, la velocità dei veicoli al giorno d'oggi è aumentata e ciò comporta anche maggiori carichi di tipo dinamico.
Resumo:
Il traffico veicolare è la principale fonte antropogenica di NOx, idrocarburi (HC) e CO e, dato che la sostituzione dei motori a combustione interna con sistemi alternativi appare ancora lontana nel tempo, lo sviluppo di sistemi in grado di limitare al massimo le emissioni di questi mezzi di trasporto riveste un’importanza fondamentale. Sfortunatamente non esiste un rapporto ottimale aria/combustibile che permetta di avere basse emissioni, mentre la massima potenza ottenibile dal motore corrisponde alle condizioni di elevata formazione di CO e HC. Gli attuali sistemi di abbattimento permettono il controllo delle emissioni da sorgenti mobili tramite una centralina che collega il sistema di iniezione del motore e la concentrazione di ossigeno del sistema catalitico (posto nella marmitta) in modo da controllare il rapporto aria/combustibile (Fig. 1). Le marmitte catalitiche per motori a benzina utilizzano catalizzatori “three way” a base di Pt/Rh supportati su ossidi (allumina, zirconia e ceria), che, dovendo operare con un rapporto quasi stechiometrico combustibile/comburente, comportano una minore efficienza del motore e consumi maggiori del 20-30% rispetto alla combustione in eccesso di ossigeno. Inoltre, questa tecnologia non può essere utilizzata nei motori diesel, che lavorano in eccesso di ossigeno ed utilizzano carburanti con un tenore di zolfo relativamente elevato. In questi ultimi anni è cresciuto l’interesse per il controllo delle emissioni di NOx da fonti veicolari, con particolare attenzione alla riduzione catalitica in presenza di un eccesso di ossigeno, cioè in condizioni di combustione magra. Uno sviluppo recente è rappresentato dai catalizzatori tipo “Toyota” che sono basati sul concetto di accumulo e riduzione (storage/reduction), nei quali l’NO viene ossidato ed accumulato sul catalizzatore come nitrato in condizioni di eccesso di ossigeno. Modificando poi per brevi periodi di tempo le condizioni di alimentazione da ossidanti (aria/combustibile > 14,7 p/p) a riducenti (aria/combustibile < 14,7 p/p) il nitrato immagazzinato viene ridotto a N2 e H2O. Questi catalizzatori sono però molto sensibili alla presenza di zolfo e non possono essere utilizzati con i carburanti diesel attualmente in commercio. Obiettivo di questo lavoro di tesi è stato quello di ottimizzare e migliorare la comprensione del meccanismo di reazione dei catalizzatori “storage-reduction” per l’abbattimento degli NOx nelle emissioni di autoveicoli in presenza di un eccesso di ossigeno. In particolare lo studio è stato focalizzato dapprima sulle proprietà del Pt, fase attiva nei processi di storage-reduction, in funzione del tipo di precursore e sulle proprietà e composizione della fase di accumulo (Ba, Mg ed una loro miscela equimolare) e del supporto (γ-Al2O3 o Mg(Al)O). Lo studio è stato inizialmente focalizzato sulle proprietà dei precursori del Pt, fase attiva nei processi di storage-reduction, sulla composizione della fase di accumulo (Ba, Mg ed una loro miscela equimolare) e del supporto (γ-Al2O3 o Mg(Al)O). E’ stata effettuata una dettagliata caratterizzazione chimico-fisica dei materiali preparati tramite analisi a raggi X (XRD), area superficiale, porosimetria, analisi di dispersione metallica, analisi in riduzione e/o ossidazione in programmata di temperatura (TPR-O), che ha permesso una migliore comprensione delle proprietà dei catalizzatori. Vista la complessità delle miscele gassose reali, sono state utilizzate, nelle prove catalitiche di laboratorio, alcune miscele più semplici, che tuttavia potessero rappresentare in maniera significativa le condizioni reali di esercizio. Il comportamento dei catalizzatori è stato studiato utilizzando differenti miscele sintetiche, con composizioni che permettessero di comprendere meglio il meccanismo. L’intervallo di temperatura in cui si è operato è compreso tra 200-450°C. Al fine di migliorare i catalizzatori, per aumentarne la resistenza alla disattivazione da zolfo, sono state effettuate prove alimentando in continuo SO2 per verificare la resistenza alla disattivazione in funzione della composizione del catalizzatore. I principali risultati conseguiti possono essere così riassunti: A. Caratteristiche Fisiche. Dall’analisi XRD si osserva che l’impregnazione con Pt(NH3)2(NO2)2 o con la sospensione nanoparticellare in DEG, non modifica le proprietà chimico-fisiche del supporto, con l’eccezione del campione con sospensione nanoparticellare impregnata su ossido misto per il quale si è osservata sia la segregazione del Pt, sia la presenza di composti carboniosi sulla superficie. Viceversa l’impregnazione con Ba porta ad una significativa diminuzione dell’area superficiale e della porosità. B. Caratteristiche Chimiche. L’analisi di dispersione metallica, tramite il chemiassorbimento di H2, mostra per i catalizzatori impregnati con Pt nanoparticellare, una bassa dispersione metallica e di conseguenza elevate dimensioni delle particelle di Pt. I campioni impregnati con Pt(NH3)2(NO2)2 presentano una migliore dispersione. Infine dalle analisi TPR-O si è osservato che: Maggiore è la dispersione del metallo nobile maggiore è la sua interazione con il supporto, L’aumento della temperatura di riduzione del PtOx è proporzionale alla quantità dei metalli alcalino terrosi, C. Precursore Metallo Nobile. Nelle prove di attività catalitica, con cicli ossidanti e riducenti continui in presenza ed in assenza di CO2, i catalizzatori con Pt nanoparticellare mostrano una minore attività catalitica, specie in presenza di un competitore come la CO2. Al contrario i catalizzatori ottenuti per impregnazione con la soluzione acquosa di Pt(NH3)2(NO2)2 presentano un’ottima attività catalitica, stabile nel tempo, e sono meno influenzabili dalla presenza di CO2. D. Resistenza all’avvelenamento da SO2. Il catalizzatore di riferimento, 17Ba1Pt/γAl2O3, mostra un effetto di avvelenamento con formazione di solfati più stabili che sul sistema Ba-Mg; difatti il campione non recupera i valori iniziali di attività se non dopo molti cicli di rigenerazione e temperature superiori ai 300°C. Per questi catalizzatori l’avvelenamento da SO2 sembra essere di tipo reversibile, anche se a temperature e condizioni più favorevoli per il 1.5Mg8.5Ba-1Pt/γAl2O3. E. Capacità di Accumulo e Rigenerabilità. Tramite questo tipo di prova è stato possibile ipotizzare e verificare il meccanismo della riduzione. I catalizzatori ottenuti per impregnazione con la soluzione acquosa di Pt(NH3)2(NO2)2 hanno mostrato un’elevata capacità di accumulo. Questa è maggiore per il campione bimetallico (Ba-Mg) a T < 300°C, mentre per il riferimento è maggiore per T > 300°C. Per ambedue i catalizzatori è evidente la formazione di ammoniaca, che potrebbe essere utilizzata come un indice che la riduzione dei nitrati accumulati è arrivata al termine e che il tempo ottimale per la riduzione è stato raggiunto o superato. Per evitare la formazione di NH3, sul catalizzatore di riferimento, è stata variata la concentrazione del riducente e la temperatura in modo da permettere alle specie adsorbite sulla superficie e nel bulk di poter raggiungere il Pt prima che l’ambiente diventi troppo riducente e quindi meno selettivo. La presenza di CO2 riduce fortemente la formazione di NH3; probabilmente perché la CO2, occupando i siti degli elementi alcalino-terrosi lontani dal Pt, impedisce ai nitriti/nitrati o all’H2 attivato di percorrere “elevate” distanze prima di reagire, aumentando così le possibilità di una riduzione più breve e più selettiva. F. Tempo di Riduzione. Si è migliorata la comprensione del ruolo svolto dalla concentrazione dell’agente riducente e dell’effetto della durata della fase riducente. Una durata troppo breve porta, nel lungo periodo, alla saturazione dei siti attivi, un eccesso alla formazione di NH3 Attraverso queste ultime prove è stato possibile formulare un meccanismo di reazione, in particolare della fase riducente. G. Meccanismo di Riduzione. La mobilità dei reagenti, nitriti/nitrati o H2 attivato è un elemento fondamentale nel meccanismo della riduzione. La vicinanza tra i siti di accumulo e quelli redox è determinante per il tipo di prodotti che si possono ottenere. La diminuzione della concentrazione del riducente o l’aumento della temperatura concede maggiore tempo o energia alle specie adsorbite sulla superficie o nel bulk per migrare e reagire prima che l’ambiente diventi troppo riducente e quindi meno selettivo.
Resumo:
L' argomento di questa tesi tratta l'analisi di una copertura reticolare a forma libera di grande luce. Partendo da una modellazione FEM della reticolare risolta al calcolatore si è cercato un metodo di analisi semplificato alternativo per l'individuazione approssimata delle sollecitazioni che nascono in seguito ai carichi. Ripercorrendo i passi sviluppati dal metodo americano per il calcolo dei solai a fungo, si individuano le sezioni portanti principali della forma strutturale, deducendo l'andamento del momento flettente dagli sforzi in corrispondenza dei correnti tesi e compressi. Sulle stesse sezioni sono stati costruiti dei modelli mono e bidimensionali semplificati che cercano di rappresentare, con diversa scala di precisione, l'andamento della sollecitazione flettente realmente presente nella struttura. Dall'analisi del momento flettente risultante dai modelli monodimensionali si individuano le modifiche effettuabili sulla geometria strutturale con lo scopo di migliorarne la risposta globale ed i parametri di progetto utili per il dimensionamento. Al termine si sono confrontati i risultati ottenuti dalle due strutture analizzate, ovvero con o senza le modifiche alla geometria, riportando alcuni parametri caratteristici del comportamento strutturale e traendo così conclusioni sulla soluzione migliore.
Resumo:
Lo sviluppo locale rappresenta, non solo per gli economisti, un tema di analisi sempre più rilevante sia al livello istituzionale che al livello scientifico. La complessità degli aspetti inerenti lo sviluppo locale richiede il coinvolgimento di diverse discipline, in ambito economico, politico, sociale e ambientale e di tutti i livelli istituzionali. Parallelamente è cresciuta l’esigenza di processi valutativi coerenti e sistematici, basati su di un numero sempre maggiore di strumenti e metodologie di valutazione. Dall’orientamento della Commissione Europea emerge del resto con sempre maggiore evidenza il binomio fra politica di sviluppo locale e valutazione, che coinvolge i diversi livelli di governo. Il presente lavoro realizza un quadro delle politiche di sviluppo locale, partendo dal livello europeo fino ad arrivare al livello locale, ed una successiva analisi di metodologie e strumenti di valutazione consolidati e di frontiera. La considerazione della valutazione come strumento strategico per le politiche di sviluppo locale trova applicazione nella realizzazione di una analisi comparativa di due aree di montagna. Tali aree, identificate nell’Appennino Bolognese e nell’area montana della Contea di Brasov in Romania, pur collocate in paesi a diverso livello di sviluppo, risultano confrontabili, in termini di similitudini e criticità, al fine di trarre considerazioni di policy inerenti il disegno di adeguate politiche di riqualificazione, mettendo in luce l’importanza del processo valutativo e la necessità di contribuire a diffondere una vera e propria cultura della valutazione.
Resumo:
Il Lavoro si inserisce nel quadro complesso del settore Energy & Utilities e si propone l’obiettivo di analizzare l’attuale mercato dell’energia per individuarne i driver al cambiamento e presentare un innovativo modello di business per le aziende di vendita di energia, con lo scopo di recuperare efficienza nella gestione del Cliente finale, cercando di quantificarne i vantaggi potenziali. L’attività di studio e progettuale è stata svolta nell’ambito di un periodo di tirocinio formativo della durata di sei mesi, effettuato presso Engineering Ingegneria Informatica S.p.A., in particolare nella sede di viale Masini di Bologna, a seguito della candidatura autonoma dello studente e del suo immediato inserimento nei processi di business della divisione Utilities dell’azienda. Il Lavoro si suddivide in 9 capitoli: dopo una breve introduzione sul settore Energy&Utilities, nei primi quattro capitoli sono descritte le filiere produttive dei principali servizi, i principali attori del mercato e gli aspetti normativi e tariffari che caratterizzano l’intero settore, valutando in particolare la formazione del prezzo del gas e dell’energia elettrica. I capitoli cinque e sei descrivono invece le principali tendenze, le strategie competitive in atto nel mercato delle Utilities e l’importanza del Cliente, in un’ottica di CRM che segue i dettami del modello “Customer Centric”. Gli ultimi capitoli mostrano invece, dopo una breve presentazione dell’azienda in cui lo studente ha svolto l’attività, l’intero lavoro di analisi realizzato, input del modello di business a chiusura del Lavoro, volto a quantificare gli impatti del processo di liberalizzazione che ha radicalmente modificato il settore delle Utilities negli ultimi anni, valutando a proposito la profittabilità per un cliente medio in base ad un’opportuna pre-analisi di segmentazione. Il modello di business che occupa l’ultimo capitolo costituisce una soluzione originale e innovativa per incrementare tale profittabilità.
Resumo:
La presente tesi tratta delle analisi di sicurezza delle intersezioni sia esistenti, sia di nuova progettazione. Nel primo capitolo vengono definite le intersezioni secondo il D.M. 19-04-06 âNorme funzionali e geometriche per la costruzione delle intersezioni stradaliâ. Sono descritte le manovre possibili, le problematiche ed i punti di conflitto che si vengono a creare durante lâattraversamento, definendo le varie tipologie. Successivamente si affronta una classificazione tipologica delle intersezioni rappresentando per mezzo di una matrice simbolica tutti i possibili nodi. Questi vengono suddivisi in base alla possibilità di connessione. Ampio spazio è dato alla descrizione dellâintersezione a raso dove vengono esaminate le caratteristiche geometriche tra cui le configurazioni delle corsie e le tipologie di isole divisionali. Vengono esaminate le particolarità dellâintersezione semaforizzata definendo il ciclo semaforico e gli elementi che lo compongono, la fasatura, il livello di servizio (LOS), il ritardo, definendo gli elementi che lo compongono per mezzo di formule empiriche. Nella seconda parte del capitolo viene descritta lâintersezione a rotatoria in base al D.M. 19-04-06. Inizialmente si introduce lâargomento con nozioni storiche a carattere informativo, quindi si da una classificazione generale degli elementi che la caratterizzano. Viene descritta lâisola divisionale spiegandone la tipologia costruttiva e rappresentando i parametri di classificazione geometrica. A titolo di esempio sono state inserite varie rappresentazioni di rotatorie suddivise per tipologie costruttive. Nellâultima parte viene affrontato lâelemento rotatoria definendo la distanza di visibilità e i criteri per il calcolo della capacità . Il secondo capitolo parla delle analisi di sicurezza delle intersezioni. Inizialmente viene descritta la circolare 3699 âLinee guida per le analisi di sicurezza delle stradeâ definendo il concetto di analisi di sicurezza ed esaminando le differenze tra le due tipologie di analisi: Road safety review e Road safety audit. In seguito si descrivono gli obbiettivi dellâanalisi di sicurezza, vantaggi e svantaggi e la valutazione dellâapproccio concettuale. Viene descritta più approfonditamente la tipologia del Road safety review evidenziando lâutilità , gli elementi che la caratterizzano, le figure professionali che prendono parte a queste analisi con le azioni che devono seguire. Dopo si analizzano i criteri per affrontare gli studi sulla sicurezza e le fasi per le procedure di analisi. Si procede con la descrizione di una tipologia di ispezione, analizzando le problematiche e la stesura del rapporto di analisi con la descrizione dei tempi di attuazione. Nella parte centrale del capitolo viene descritta la direttiva del parlamento europeo e del consiglio sulla gestione della sicurezza delle infrastrutture stradali con i relativi obbiettivi che si prefigge. Vengono riportati i 13 articoli che si compone con i relativi 4 allegati inerenti a: - Valutazione di impatto sulla sicurezza; - Audit della sicurezza stradale; - Gestione dei tratti stradali ad alto rischio, gestione della sicurezza della rete e ispezione di sicurezza; - Dati che devono figurare nelle relazioni di incidenti. Lâultimo argomento preso in esame riguarda le norme per gli interventi di adeguamento delle strade esistenti. Vengono descritte le categorie di intervento e gli obbiettivi da raggiungere distinguendoli in obbiettivi prestazionali, di funzionalità operativa e sicurezza della circolazione. Vengono affrontate le caratteristiche e le differenze tra interventi strutturali e non strutturali con i relativi obbiettivi valutando gli effetti che si ottengono dallâadeguamento delle strade. Successivamente vengono descritte le campagne di monitoraggio con le relative procedure e tempistiche. Infine si valutano le responsabilità degli interventi. Nel capitolo 3 viene descritta lâanalisi dello stato di fatto. Si è proceduto con la classificazione della infrastruttura descrivendo i tratti di strada interessati dallâintervento ed utilizzando delle foto per individuare alcune problematiche emerse nellâintersezione. Utilizzando lâelaborato âazzonamento del territorio comunale di Carpiâ è stata descritta la zona oggetto di studio. Poi con la macroclassificazione del territorio con scala 1:10000 viene mostrato graficamente il territorio urbanizzato, in corso di urbanizzazione e a destinazione urbana. Lâultimo elaborato preso in esame riguarda la classificazione acustica del territorio. Infine si è proceduto con lâanalisi del traffico e di incidentalità . Utilizzando i dati rilevati dalla polizia municipale del comune di Carpi sono stati costruiti i grafici e studiati gli andamenti nel periodo di tempo di riferimento dal 2000 al 2008. Utilizzando poi i dati dei flussi di traffico si sono analizzati le tipologie e i volumi di traffico nellâintersezione. Nellâultimo capitolo viene studiato il Road safety review dellâintersezione. Si procede con una descrizione generale dellâintersezione, e si prosegue poi con lâindividuazione delle problematiche lungo il tracciato. Inizialmente sono state scattate numerose foto nella zona interessata poi sono state divise per tipologia di problema. Per ogni problema si è cercato una soluzione descrivendo e motivando la scelta. Nelle conclusioni si sono descritti i risultati ottenuti nellâanalisi di sicurezza elencando le principali raccomandazioni emerse dallâanalisi.
Resumo:
Negli ultimi anni, un crescente numero di studiosi ha focalizzato la propria attenzione sullo sviluppo di strategie che permettessero di caratterizzare le proprietà ADMET dei farmaci in via di sviluppo, il più rapidamente possibile. Questa tendenza origina dalla consapevolezza che circa la metà dei farmaci in via di sviluppo non viene commercializzato perché ha carenze nelle caratteristiche ADME, e che almeno la metà delle molecole che riescono ad essere commercializzate, hanno comunque qualche problema tossicologico o ADME [1]. Infatti, poco importa quanto una molecola possa essere attiva o specifica: perché possa diventare farmaco è necessario che venga ben assorbita, distribuita nell’organismo, metabolizzata non troppo rapidamente, ne troppo lentamente e completamente eliminata. Inoltre la molecola e i suoi metaboliti non dovrebbero essere tossici per l’organismo. Quindi è chiaro come una rapida determinazione dei parametri ADMET in fasi precoci dello sviluppo del farmaco, consenta di risparmiare tempo e denaro, permettendo di selezionare da subito i composti più promettenti e di lasciar perdere quelli con caratteristiche negative. Questa tesi si colloca in questo contesto, e mostra l’applicazione di una tecnica semplice, la biocromatografia, per caratterizzare rapidamente il legame di librerie di composti alla sieroalbumina umana (HSA). Inoltre mostra l’utilizzo di un’altra tecnica indipendente, il dicroismo circolare, che permette di studiare gli stessi sistemi farmaco-proteina, in soluzione, dando informazioni supplementari riguardo alla stereochimica del processo di legame. La HSA è la proteina più abbondante presente nel sangue. Questa proteina funziona da carrier per un gran numero di molecole, sia endogene, come ad esempio bilirubina, tiroxina, ormoni steroidei, acidi grassi, che xenobiotici. Inoltre aumenta la solubilità di molecole lipofile poco solubili in ambiente acquoso, come ad esempio i tassani. Il legame alla HSA è generalmente stereoselettivo e ad avviene a livello di siti di legame ad alta affinità. Inoltre è ben noto che la competizione tra farmaci o tra un farmaco e metaboliti endogeni, possa variare in maniera significativa la loro frazione libera, modificandone l’attività e la tossicità. Per queste sue proprietà la HSA può influenzare sia le proprietà farmacocinetiche che farmacodinamiche dei farmaci. Non è inusuale che un intero progetto di sviluppo di un farmaco possa venire abbandonato a causa di un’affinità troppo elevata alla HSA, o a un tempo di emivita troppo corto, o a una scarsa distribuzione dovuta ad un debole legame alla HSA. Dal punto di vista farmacocinetico, quindi, la HSA è la proteina di trasporto del plasma più importante. Un gran numero di pubblicazioni dimostra l’affidabilità della tecnica biocromatografica nello studio dei fenomeni di bioriconoscimento tra proteine e piccole molecole [2-6]. Il mio lavoro si è focalizzato principalmente sull’uso della biocromatografia come metodo per valutare le caratteristiche di legame di alcune serie di composti di interesse farmaceutico alla HSA, e sul miglioramento di tale tecnica. Per ottenere una miglior comprensione dei meccanismi di legame delle molecole studiate, gli stessi sistemi farmaco-HSA sono stati studiati anche con il dicroismo circolare (CD). Inizialmente, la HSA è stata immobilizzata su una colonna di silice epossidica impaccata 50 x 4.6 mm di diametro interno, utilizzando una procedura precedentemente riportata in letteratura [7], con alcune piccole modifiche. In breve, l’immobilizzazione è stata effettuata ponendo a ricircolo, attraverso una colonna precedentemente impaccata, una soluzione di HSA in determinate condizioni di pH e forza ionica. La colonna è stata quindi caratterizzata per quanto riguarda la quantità di proteina correttamente immobilizzata, attraverso l’analisi frontale di L-triptofano [8]. Di seguito, sono stati iniettati in colonna alcune soluzioni raceme di molecole note legare la HSA in maniera enantioselettiva, per controllare che la procedura di immobilizzazione non avesse modificato le proprietà di legame della proteina. Dopo essere stata caratterizzata, la colonna è stata utilizzata per determinare la percentuale di legame di una piccola serie di inibitori della proteasi HIV (IPs), e per individuarne il sito(i) di legame. La percentuale di legame è stata calcolata attraverso il fattore di capacità (k) dei campioni. Questo parametro in fase acquosa è stato estrapolato linearmente dal grafico log k contro la percentuale (v/v) di 1-propanolo presente nella fase mobile. Solamente per due dei cinque composti analizzati è stato possibile misurare direttamente il valore di k in assenza di solvente organico. Tutti gli IPs analizzati hanno mostrato un’elevata percentuale di legame alla HSA: in particolare, il valore per ritonavir, lopinavir e saquinavir è risultato maggiore del 95%. Questi risultati sono in accordo con dati presenti in letteratura, ottenuti attraverso il biosensore ottico [9]. Inoltre, questi risultati sono coerenti con la significativa riduzione di attività inibitoria di questi composti osservata in presenza di HSA. Questa riduzione sembra essere maggiore per i composti che legano maggiormente la proteina [10]. Successivamente sono stati eseguiti degli studi di competizione tramite cromatografia zonale. Questo metodo prevede di utilizzare una soluzione a concentrazione nota di un competitore come fase mobile, mentre piccole quantità di analita vengono iniettate nella colonna funzionalizzata con HSA. I competitori sono stati selezionati in base al loro legame selettivo ad uno dei principali siti di legame sulla proteina. In particolare, sono stati utilizzati salicilato di sodio, ibuprofene e valproato di sodio come marker dei siti I, II e sito della bilirubina, rispettivamente. Questi studi hanno mostrato un legame indipendente dei PIs ai siti I e II, mentre è stata osservata una debole anticooperatività per il sito della bilirubina. Lo stesso sistema farmaco-proteina è stato infine investigato in soluzione attraverso l’uso del dicroismo circolare. In particolare, è stato monitorata la variazione del segnale CD indotto di un complesso equimolare [HSA]/[bilirubina], a seguito dell’aggiunta di aliquote di ritonavir, scelto come rappresentante della serie. I risultati confermano la lieve anticooperatività per il sito della bilirubina osservato precedentemente negli studi biocromatografici. Successivamente, lo stesso protocollo descritto precedentemente è stato applicato a una colonna di silice epossidica monolitica 50 x 4.6 mm, per valutare l’affidabilità del supporto monolitico per applicazioni biocromatografiche. Il supporto monolitico monolitico ha mostrato buone caratteristiche cromatografiche in termini di contropressione, efficienza e stabilità, oltre che affidabilità nella determinazione dei parametri di legame alla HSA. Questa colonna è stata utilizzata per la determinazione della percentuale di legame alla HSA di una serie di poliamminochinoni sviluppati nell’ambito di una ricerca sulla malattia di Alzheimer. Tutti i composti hanno mostrato una percentuale di legame superiore al 95%. Inoltre, è stata osservata una correlazione tra percentuale di legame è caratteristiche della catena laterale (lunghezza e numero di gruppi amminici). Successivamente sono stati effettuati studi di competizione dei composti in esame tramite il dicroismo circolare in cui è stato evidenziato un effetto anticooperativo dei poliamminochinoni ai siti I e II, mentre rispetto al sito della bilirubina il legame si è dimostrato indipendente. Le conoscenze acquisite con il supporto monolitico precedentemente descritto, sono state applicate a una colonna di silice epossidica più corta (10 x 4.6 mm). Il metodo di determinazione della percentuale di legame utilizzato negli studi precedenti si basa su dati ottenuti con più esperimenti, quindi è necessario molto tempo prima di ottenere il dato finale. L’uso di una colonna più corta permette di ridurre i tempi di ritenzione degli analiti, per cui la determinazione della percentuale di legame alla HSA diventa molto più rapida. Si passa quindi da una analisi a medio rendimento a una analisi di screening ad alto rendimento (highthroughput- screening, HTS). Inoltre, la riduzione dei tempi di analisi, permette di evitare l’uso di soventi organici nella fase mobile. Dopo aver caratterizzato la colonna da 10 mm con lo stesso metodo precedentemente descritto per le altre colonne, sono stati iniettati una serie di standard variando il flusso della fase mobile, per valutare la possibilità di utilizzare flussi elevati. La colonna è stata quindi impiegata per stimare la percentuale di legame di una serie di molecole con differenti caratteristiche chimiche. Successivamente è stata valutata la possibilità di utilizzare una colonna così corta, anche per studi di competizione, ed è stata indagato il legame di una serie di composti al sito I. Infine è stata effettuata una valutazione della stabilità della colonna in seguito ad un uso estensivo. L’uso di supporti cromatografici funzionalizzati con albumine di diversa origine (ratto, cane, guinea pig, hamster, topo, coniglio), può essere proposto come applicazione futura di queste colonne HTS. Infatti, la possibilità di ottenere informazioni del legame dei farmaci in via di sviluppo alle diverse albumine, permetterebbe un migliore paragone tra i dati ottenuti tramite esperimenti in vitro e i dati ottenuti con esperimenti sull’animale, facilitando la successiva estrapolazione all’uomo, con la velocità di un metodo HTS. Inoltre, verrebbe ridotto anche il numero di animali utilizzati nelle sperimentazioni. Alcuni lavori presenti in letteratura dimostrano l’affidabilita di colonne funzionalizzate con albumine di diversa origine [11-13]: l’utilizzo di colonne più corte potrebbe aumentarne le applicazioni.
Resumo:
La tesi affronta il problema finanziario della valutazione dei derivati, illustrando un metodo di prezzaggio basato su un particolare sviluppo in serie di Fourier, la serie coseno (Fourier-cosine expansion).
Resumo:
A far data dalla pubblicazione di un importante ed illustre contributo scientifico (GIORGIANNI, voce Causa (dir. priv.), in Enc. dir., VI, Milano, 1960), e dalla proposta, in esso contenuta, di restituire spazio a fattispecie attributive di diritti giustificate, sotto il profilo causale, dal solo riferimento espresso al rapporto fondamentale che ne costituisca fondamento (le c.d.
Resumo:
Fino ad un recente passato, le macchine elettriche di tipo trifase costituivano l’unica soluzione in ambito industriale per la realizzazione di azionamenti di grande potenza. Da quando i motori sono gestiti da convertitori elettronici di potenza si è ottenuto un notevole passo in avanti verso l’innovazione tecnologica. Infatti, negli ultimi decenni, le tecnologie sempre più all’avanguardia e l’aumento dell’utilizzo dell’elettronica, sia in campo civile quanto in quello industriale, hanno contribuito a una riduzione dei costi dei relativi componenti; questa situazione ha permesso di utilizzare tecnologie elaborate che in passato avevano costi elevati e quindi risultavano di scarso interesse commerciale. Nel campo delle macchine elettriche tutto questo ha permesso non solo la realizzazione di azionamenti alimentati e controllati tramite inverter, in grado di garantire prestazioni nettamente migliori di quelle ottenute con i precedenti sistemi di controllo, ma anche l’avvento di una nuova tipologia di macchine con un numero di fasi diverso da quello tradizionale trifase, usualmente impiegato nella generazione e distribuzione dell’energia elettrica. Questo fatto ha destato crescente interesse per lo studio di macchine elettriche multifase. Il campo di studio delle macchine multifase è un settore relativamente nuovo ed in grande fermento, ma è già possibile affermare che le suddette macchine sono in grado di fornire prestazioni migliori di quelle trifase. Un motore con un numero di fasi maggiore di tre presenta numerosi vantaggi: 1. la possibilità di poter dividere la potenza su più fasi, riducendo la taglia in corrente degli interruttori statici dell’inverter; 2. la maggiore affidabilità in caso di guasto di una fase; 3. la possibilità di sfruttare le armoniche di campo magnetico al traferro per ottenere migliori prestazioni in termini di coppia elettromagnetica sviluppata (riduzione dell’ampiezza e incremento della frequenza della pulsazione di coppia); 4. l’opportunità di creare azionamenti elettrici multi-motore, collegando più macchine in serie e comandandole con un unico convertitore di potenza; 5. Maggiori e più efficaci possibilità di utilizzo nelle applicazioni Sensorless. Il presente lavoro di tesi, ha come oggetto lo studio e l’implementazione di una innovativa tecnica di controllo di tipo “sensorless”, da applicare in azionamenti ad orientamento di campo per macchine asincrone eptafase. Nel primo capitolo vengono illustrate le caratteristiche e le equazioni rappresentanti il modello della macchina asincrona eptafase. Nel secondo capitolo si mostrano il banco di prova e le caratteristiche dei vari componenti. Nel terzo capitolo sono rappresentate le tecniche di modulazione applicabili per macchine multifase. Nel quarto capitolo vengono illustrati il modello del sistema implementato in ambiente Simulink ed i risultati delle simulazioni eseguite. Nel quinto capitolo viene presentato il Code Composer Studio, il programma necessario al funzionamento del DSP. Nel sesto capitolo, sono presentati e commentati i risultati delle prove sperimentali.
Resumo:
Nella presente tesi viene analizzato in modo approfondito il ciclo integrato dell'acciaio che è uno dei metodi più consolidati e affermati per la produzione sia di semilavorati, sia di prodotti finiti di acciaio. L'approccio all'analisi del ciclo integrato dell'acciaio è di tipo dinamico e basato sulla simulazione, vale a dire che si cerca di capire come e in che modo i vari fattori del ciclo integrato interagiscono e si influenzano fra di loro per cercare in seguto di esplicitare tali dinamiche in un unico modello di simulazione. Sino ad ora infatti nella letteratura si possono trovare modelli che analizzano separatamente solo alcuni aspetti del ciclo integrato dell'acciaio. L'intenzione ultima di questa tesi è quella di fornire uno strumento in più che possa far capire, date determinate caratteristiche e obiettivi dell'azienda, quale sia la direzione più plausibile e giustificabile da seguire.
Resumo:
La tesi riguarda lo studio degli effetti indotti dal deposito di terreno che si trova sopra il substrato roccioso. la Valutazione è stata condotta con riferimento al sito del Duomo di Modena. Il segnale sismico che giunge dagli strati rocciosi profonfi, attraversando il deposito ed interagendo con il terreno soffice che lo compone, si modifica fino a giungere in superficie. Sono state condotte analisi in campo libero e con interazione suolo-struttura, facendo riferimento a 63 eventi sismici scelti in funzione dei risultati di specifiche analisi di pericolosità sismica condotte per il Duomo. Sono stati impiegati tre approcci di calcolo: monodimensionale lineare, tramite script implementato in Matlab a cura dello scrivente, monodimensionale lineare-equivalente, a mezzo del codice EERA, bidimensionale ad elementi finiti con software PLAXIS. Si sono ottenuti i periodi propri di vibrazione del deposito, i coefficienti di amplificazione stratigrafica, gli accelerogrammi e gli spettri di risposta elastici a livello del piano campagna utilizzabili direttamente per la verifica sismica di strutture poste in superficie nel centro di Modena. E' stato infine condotto un confronto scientifico tra gli spettri di risposta calcolati e quelli proposti dal D.M. 14/01/2008.