548 resultados para simulazione, cinetica, sodio, modello monocompartimentale


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nello sviluppo di sistemi informatici si sono affermate numerose tecnologie, che vanno utilizzate in modo combinato e, possibilmente sinergico. Da una parte, i sistemi di gestione di basi di dati relazionali consentono una gestione efficiente ed efficace di dati persistenti, condivisi e transazionali. Dall'altra, gli strumenti e i metodi orientati agli oggetti (linguaggi di programmazione, ma anche metodologie di analisi e progettazione) consentono uno sviluppo efficace della logica applicativa delle applicazioni. E’ utile in questo contesto spiegare che cosa s'intende per sistema informativo e sistema informatico. Sistema informativo: L'insieme di persone, risorse tecnologiche, procedure aziendali il cui compito è quello di produrre e conservare le informazioni che servono per operare nell'impresa e gestirla. Sistema informatico: L'insieme degli strumenti informatici utilizzati per il trattamento automatico delle informazioni, al fine di agevolare le funzioni del sistema informativo. Ovvero, il sistema informatico raccoglie, elabora, archivia, scambia informazione mediante l'uso delle tecnologie proprie dell'Informazione e della Comunicazione (ICT): calcolatori, periferiche, mezzi di comunicazione, programmi. Il sistema informatico è quindi un componente del sistema informativo. Le informazioni ottenute dall'elaborazione dei dati devono essere salvate da qualche parte, in modo tale da durare nel tempo dopo l'elaborazione. Per realizzare questo scopo viene in aiuto l'informatica. I dati sono materiale informativo grezzo, non (ancora) elaborato da chi lo riceve, e possono essere scoperti, ricercati, raccolti e prodotti. Sono la materia prima che abbiamo a disposizione o produciamo per costruire i nostri processi comunicativi. L'insieme dei dati è il tesoro di un'azienda e ne rappresenta la storia evolutiva. All'inizio di questa introduzione è stato accennato che nello sviluppo dei sistemi informatici si sono affermate diverse tecnologie e che, in particolare, l'uso di sistemi di gestione di basi di dati relazionali comporta una gestione efficace ed efficiente di dati persistenti. Per persistenza di dati in informatica si intende la caratteristica dei dati di sopravvivere all'esecuzione del programma che li ha creati. Se non fosse cosi, i dati verrebbero salvati solo in memoria RAM e sarebbero persi allo spegnimento del computer. Nella programmazione informatica, per persistenza si intende la possibilità di far sopravvivere strutture dati all'esecuzione di un programma singolo. Occorre il salvataggio in un dispositivo di memorizzazione non volatile, come per esempio su un file system o su un database. In questa tesi si è sviluppato un sistema che è in grado di gestire una base di dati gerarchica o relazionale consentendo l'importazione di dati descritti da una grammatica DTD. Nel capitolo 1 si vedranno più in dettaglio cosa di intende per Sistema Informativo, modello client-server e sicurezza dei dati. Nel capitolo 2 parleremo del linguaggio di programmazione Java, dei database e dei file XML. Nel capitolo 3 descriveremo un linguaggio di analisi e modellazione UML con esplicito riferimento al progetto sviluppato. Nel capitolo 4 descriveremo il progetto che è stato implementato e le tecnologie e tools utilizzati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel periodo storico compreso tra la seconda metà dell’Ottocento ed il primo ventennio del Novecento, un’ondata di innovazioni tecnologiche e scientifiche, unitamente all’espansione dell’industria siderurgica e la conseguente diffusione del ferro come materiale da costruzione, portarono alla realizzazione di strutture metalliche grandiose. Ciò fu reso possibile grazie ad una fervida attività di ricerca che permise la risoluzione di problematiche tecniche di assoluto rilievo, come la progettazione di grandi coperture o di ponti destinati al traffico ferroviario in grado di coprire luci sempre maggiori. In questo contesto si sviluppò il sistema della chiodatura come metodo di unione per il collegamento rigido e permanente dei vari elementi che compongono la struttura portante metallica. Ad oggi il sistema della chiodatura è stato quasi completamente sostituito dalla bullonatura di acciaio ad alta resistenza e dalla saldatura, che garantendo gli stessi standard di affidabilità e sicurezza, offrono vantaggi in termini economici e di rapidità esecutiva. Tuttavia lo studio delle unioni chiodate continua a rivestire notevole importanza in tutti quei casi in cui il progettista debba occuparsi di restauro, manutenzione o adeguamento di strutture esistenti che in molti casi continuano ad assolvere le funzioni per le quali erano state progettate. La valutazione delle strutture esistenti, in particolare i ponti, ha assunto un’importanza sempre crescente. L’incremento della mobilità e del traffico sulle infrastrutture di trasporto ha portato ad un incremento contemporaneo di carichi e velocità sui ponti. In particolare nelle ferrovie, i ponti rappresentano una parte strategica della rete ferroviaria e in molti casi, essi hanno già raggiunto i loro limiti di capacità di traffico, tanto è vero che l’età media del sessanta percento dei ponti metallici ferroviari è di un centinaio di anni. Pertanto i carichi di servizio, i cicli di sforzo accumulati a causa dei carichi da traffico e il conseguente invecchiamento delle strutture esistenti, inducono la necessità della valutazione della loro rimanente vita a fatica. In questo contesto, la valutazione delle condizioni del ponte e le conseguenti operazioni di manutenzione o sostituzione diventano indispensabili. Negli ultimi decenni sono state effettuate numerose iniziative di ricerca riguardo il comportamento a fatica dei ponti ferroviari chiodati, poiché le passate esperienze hanno mostrato che tali connessioni sono suscettibili di rotture per fatica. Da uno studio dell’ASCE Committee on Fatigue and Fracture Reliability è emerso che l’ottanta, novanta percento delle crisi nelle strutture metalliche è da relazionarsi ai fenomeni di fatica e frattura. Il danno per fatica riportato dai ponti chiodati è stato osservato principalmente sulle unioni tra elementi principali ed è causato dagli sforzi secondari, che si possono sviluppare in diverse parti delle connessioni. In realtà riguardo la valutazione della fatica sui ponti metallici chiodati, si è scoperto che giocano un ruolo importante molti fattori, anzitutto i ponti ferroviari sono soggetti a grandi variazioni delle tensioni indotte da carichi permanenti e accidentali, così come imperfezioni geometriche e inclinazioni o deviazioni di elementi strutturali comportano sforzi secondari che solitamente non vengono considerati nella valutazione del fenomeno della fatica. Vibrazioni, forze orizzontali trasversali, vincoli interni, difetti localizzati o diffusi come danni per la corrosione, rappresentano cause che concorrono al danneggiamento per fatica della struttura. Per questo motivo si studiano dei modelli agli elementi finiti (FE) che riguardino i particolari delle connessioni e che devono poi essere inseriti all’interno di un modello globale del ponte. L’identificazione degli elementi critici a fatica viene infatti solitamente svolta empiricamente, quindi è necessario che i modelli numerici di cui si dispone per analizzare la struttura nei particolari delle connessioni, così come nella sua totalità, siano il più corrispondenti possibile alla situazione reale. Ciò che ci si propone di sviluppare in questa tesi è un procedimento che consenta di affinare i modelli numerici in modo da ottenere un comportamento dinamico analogo a quello del sistema fisico reale. Si è presa in esame la seguente struttura, un ponte metallico ferroviario a binario unico sulla linea Bologna – Padova, che attraversa il fiume Po tra le località di Pontelagoscuro ed Occhiobello in provincia di Ferrara. Questo ponte fu realizzato intorno agli anni che vanno dal 1945 al 1949 e tra il 2002 e il 2006 ha subito interventi di innalzamento, ampliamento ed adeguamento nel contesto delle operazioni di potenziamento della linea ferroviaria, che hanno portato tra l’altro all’affiancamento di un nuovo ponte, anch’esso a singolo binario, per i convogli diretti nella direzione opposta. Le travate metalliche del ponte ferroviario sono costituite da travi principali a traliccio a gabbia chiusa, con uno schema statico di travi semplicemente appoggiate; tutte le aste delle travi reticolari sono formate da profilati metallici in composizione chiodata. In particolare si è rivolta l’attenzione verso una delle travate centrali, della quale si intende affrontare un’analisi numerica con caratterizzazione dinamica del modello agli Elementi Finiti (FEM), in modo da conoscerne lo specifico comportamento strutturale. Ad oggi infatti l’analisi strutturale si basa prevalentemente sulla previsione del comportamento delle strutture tramite modelli matematici basati su procedimenti risolutivi generali, primo fra tutti il Metodo agli Elementi Finiti. Tuttavia i risultati derivanti dal modello numerico possono discostarsi dal reale comportamento della struttura, proprio a causa delle ipotesi poste alla base della modellazione. Difficilmente infatti si ha la possibilità di riscontrare se le ipotesi assunte nel calcolo della struttura corrispondano effettivamente alla situazione reale, tanto più se come nella struttura in esame si tratta di una costruzione datata e della quale si hanno poche informazioni circa i dettagli relativi alla costruzione, considerando inoltre che, come già anticipato, sforzi secondari e altri fattori vengono trascurati nella valutazione del fenomeno della fatica. Nel seguito si prenderanno in esame le ipotesi su masse strutturali, rigidezze dei vincoli e momento d’inerzia delle aste di parete, grandezze che caratterizzano in particolare il comportamento dinamico della struttura; per questo sarebbe ancora più difficilmente verificabile se tali ipotesi corrispondano effettivamente alla costruzione reale. Da queste problematiche nasce l’esigenza di affinare il modello numerico agli Elementi Finiti, identificando a posteriori quei parametri meccanici ritenuti significativi per il comportamento dinamico della struttura in esame. In specifico si andrà a porre il problema di identificazione come un problema di ottimizzazione, dove i valori dei parametri meccanici vengono valutati in modo che le caratteristiche dinamiche del modello, siano il più simili possibile ai risultati ottenuti da elaborazioni sperimentali sulla struttura reale. La funzione costo è definita come la distanza tra frequenze proprie e deformate modali ottenute dalla struttura reale e dal modello matematico; questa funzione può presentare più minimi locali, ma la soluzione esatta del problema è rappresentata solo dal minimo globale. Quindi il successo del processo di ottimizzazione dipende proprio dalla definizione della funzione costo e dalla capacità dell’algoritmo di trovare il minimo globale. Per questo motivo è stato preso in considerazione per la risoluzione del problema, l’algoritmo di tipo evolutivo DE (Differential Evolution Algorithm), perché gli algoritmi genetici ed evolutivi vengono segnalati per robustezza ed efficienza, tra i metodi di ricerca globale caratterizzati dall’obiettivo di evitare la convergenza in minimi locali della funzione costo. Obiettivo della tesi infatti è l’utilizzo dell’algoritmo DE modificato con approssimazione quadratica (DE-Q), per affinare il modello numerico e quindi ottenere l’identificazione dei parametri meccanici che influenzano il comportamento dinamico di una struttura reale, il ponte ferroviario metallico a Pontelagoscuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa Tesi forniamo una libreria di funzioni aritmetiche che operano in spazio logaritmico rispetto all'input. Partiamo con un'analisi dei campi in cui è necessario o conveniente porre dei limiti, in termini di spazio utilizzato, alla computazione di un determinato software. Vista la larga diffusione del Web, si ha a che fare con collezioni di dati enormi e che magari risiedono su server remoti: c'è quindi la necessità di scrivere programmi che operino su questi dati, pur non potendo questi dati entrare tutti insieme nella memoria di lavoro del programma stesso. In seguito studiamo le nozioni teoriche di Complessità, in particolare quelle legate allo spazio di calcolo, utilizzando un modello alternativo di Macchina di Turing: la Offline Turing Machine. Presentiamo quindi un nuovo “modello” di programmazione: la computazione bidirezionale, che riteniamo essere un buon modo di strutturare la computazione limitata in spazio. Forniamo poi una “guida al programmatore” per un linguaggio di recente introduzione, IntML, che permettere la realizzazione di programmi logspace mantenendo però il tradizionale stile di programmazione funzionale. Infine, per mostrare come IntML permetta concretamente di scrivere programmi limitati in spazio, realizziamo una libreria di funzioni aritmetiche che operano in spazio logaritmico. In particolare, mostriamo funzioni per calcolare divisione intera e resto sui naturali, e funzioni per confrontare, sommare e moltiplicare numeri espressi come parole binarie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo dell’elaborato è analizzare la fattibilità tecnica ed economica di un impianto di prelievo d’acqua da falda artesiana per lo scambio termico nell’impianto frigorifero centralizzato dell’ospedale civile nuovo di Imola. Esso provvede a fornire acqua refrigerata a tutte le unità di trattamento aria (u.t.a.) del complesso ospedaliero ed è finalizzato a garantire per ogni locale le specifiche condizioni igrometriche , nonchè il benessere degli operatori e dei pazienti della struttura. Il lavoro di progettazione ha riguardato il dimensionamento di componenti e reti idrauliche con l’ausilio del software “EPANET” (programma per la simulazione di reti idrauliche). L’idea che ha guidato il presente elaborato è stata la creazione di un “ciclo” dell’acqua tale per cui l’acqua di scarto delle torri evaporative viene utilizzata per l’irrigazione degli orti nei pressi dei quale sorge il pozzo e successivamente, va ad alimentare la falda stessa. Le scelte progettuali hanno quindi dovuto considerare questo importante vincolo e sono state tese alla minimizzazione dei consumi d’acqua e , quindi, alla sostenibilità ambientale dell’intero impianto. In generale, infatti non è detto che la soluzione economicamente più vantaggiosa lo sia anche dal punto di vista ambientale. La soluzione adottata con rilancio dell’acqua agli orti limita il prelievo medio giornaliero d’acqua di falda di 20 m3/gg durante il periodo estivo. E’stato dimostrato come il progetto sia tecnicamente fattibile e generi valore per l’impresa con indice di rendimento IR(VAN/Capitale investito) pari a 1,29 per i primi 20 anni e pari a 2,06 per n anni di funzionamento dell’impianto con un tempo di recupero del capitale investito pari a sei anni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La crescente attenzione verso un utilizzo attento, sostenibile ed economicamente efficiente della risorsa idrica rende di primaria importanza il tema delle perdite idriche e della gestione efficiente dei sistemi idrici. La richiesta di controlli dell’uso dell’acqua è stata avanzata a livello mondiale. Il problema delle perdite idriche nei Paesi industrializzati è stato così affrontato con specifiche normative e procedure di best practice gestionale per avanzare una valutazione delle perdite idriche e una limitazione degli sprechi e degli usi impropri. In quest’ambito, la pressione gioca un ruolo fondamentale nella regolazione delle perdite reali. La regolazione delle pressioni nelle diverse ore del giorno consente, infatti, di poter agire su queste ultime perdite, che aumentano all’aumentare della pressione secondo una cosiddetta legge di potenza. La motivazione della presente tesi è originata dalla necessità di quantificare il livello di perdita idrica in un sistema acquedottistico in relazione alla pressione all’interno del sistema stesso. Per avere una stima realistica che vada al di là della legge della foronomia, si vuole valutare l’influenza della deformabilità della condotta in pressione fessurata sull’entità delle perdite idriche, con particolare attenzione alle fessurazioni di tipo longitudinale. Tale studio è condotto tramite l’introduzione di un semplice modello di trave alla Winkler grazie al quale, attraverso un’analisi elastica, si descrive il comportamento di una generica condotta fessurata longitudinalmente e si valuta la quantità d’acqua perduta. I risultati ottenuti in condizioni specifiche della condotta (tipo di materiale, caratteristiche geometriche dei tubi e delle fessure, etc.) e mediante l’inserimento di opportuni parametri nel modello, calibrati sui risultati forniti da una raffinata modellazione tridimensionale agli elementi finiti delle medesime condotte, verranno poi confrontati con i risultati di alcune campagne sperimentali. Gli obiettivi del presente lavoro sono, quindi, la descrizione e la valutazione del modello di trave introdotto, per stabilire se esso, nonostante la sua semplicità, sia effettivamente in grado di riprodurre, in maniera realistica, la situazione che si potrebbe verificare nel caso di tubo fessurato longitudinalmente e di fornire risultati attendibili per lo studio delle perdite idriche. Nella prima parte verrà approfondito il problema della perdite idriche. Nella seconda parte si illustrerà il semplice modello di trave su suolo elastico adottato per l’analisi delle condotte in pressione fessurate, dopo alcuni cenni teorici ai quali si è fatto riferimento per la realizzazione del modello stesso. Successivamente, nella terza parte, si procederà alla calibrazione del modello, tramite il confronto con i risultati forniti da un’analisi tridimensionale agli elementi finiti. Infine nella quarta parte verrà ricavata la relazione flusso-pressione con particolare attenzione all’esponente di perdita, il cui valore risulterà superiore a quello predetto dalla teoria della foronomia, e verrà verificata l’effettiva validità del modello tramite un confronto con i risultati sperimentali di cui è stata fatta menzione in precedenza.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Analisi del progetto di canale di bypass al bacino artificiale sul Torrente Conca (comune di Misano Adriatico). Richiami di teoria del trasporto solido. Simulazione del comportamento idraulico in moto vario del canale di bypass attraverso il programma HEC RAS. Verifiche di trasporto solido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La risorsa acqua in zone semi-aride è sottoposta a un'estrema variabilità climatica nello spazio e nel tempo. La gestione della risorsa acqua è quindi soggetta a un insieme di sfide quando i vincoli naturali vengono uniti agli effetti indotti da attività umana come per esempio l'aumento dello sfruttamento dell'acqua di sottosuolo, cambiamento dell'uso del suolo e presenza di infrastruttura mista. Si spera che il cambiamento climatico e l'attività risultanti dallo sviluppo economico, a corto termine aumentino la pressione su un sistema ormai sensibile. Se pianificato e gestito correttamente, lo stoccaggio dell'acqua, nelle sue varie forme, funge come un meccanismo di controllo della variabilità climatica e può potenziare la capacità adattiva. Lo uadi Merguellil è un corso d'acqua a carattere non perenne al centro della Tunisia, più specificamente a est della città di Kairouan. Il Merguellil drena la pioggia sulla dorsale Tunisina insieme al uadi Zeroud e Nebhana, ed è tra i principali fiumi che scorre sulla piana di Kairouan. Lo stoccaggio dell'acqua nel bacino assume diverse forme come i laghi collinari, i terrazzi, acqua di sottosuolo e una diga. Alcune delle opzioni per lo stoccaggio dell'acqua sono state costruite per preservare la risorsa acqua, mantenere la popolazione rurale e mantenere l'equità tra le zone a monte ed a valle ma solitamente non è mai stata fatta un'analisi comprensiva dei "trade-offs" coinvolti in tali sviluppi. Anche se la ricerca è sviluppata in questa zona, finora nessuna analisi ha cercato di combinare le dinamiche del sistema idrologico con scenari gestionali. L'analisi di scenari gestionali consente ai decisori di valutare delle alternative di pianificazione e può incrementare positivamente la loro abilità di creare delle politiche che si basino sulle necessità fisiche ma anche sociali di un particolare sistema. Questo lavoro è un primo passo verso un Sistema di Gestione Integrata della Risorsa Idrica (inglese: IWMR) capace di mettere in prospettiva strategie future su diverse scale. L'uso di uno strumento metodologico illustra le sfide associate nell'affrontare questo compito. In questo caso, un modello WEAP (Water Evaluation and Planning System) è stato sviluppato in collaborazione con partners Tunisini in modo da integrare le conoscenze su processi fisici e valutare diverse tendenze come l'aumento dell'irrigazione o il cambio di alcuni aspetti climatici. Lo strumento ora è disponibile ai ricercatori locali dove potrà essere sviluppato ulteriormente a fine di indirizzare domande più specifiche. Questo lavoro focalizza lo stoccaggio dell'acqua per poter evidenziare le interazioni dinamiche tra le diverse opzioni di stoccaggio nella zona di studio e valutare i "trade-offs" tra di esse. I risultati iniziali dimostrati in questo lavoro sono: - Se lo sfruttamento degli acquiferi fosse ristretto ai livelli delle loro ricarica, la domanda d'acqua dei diversi utilizzatori non sarebbe soddisfatta al 25% dei livelli di consumo attuale. - La tendenza di incremento dell'agricoltura di irrigazione crea un impatto più accentuato nelle risorse di sottosuolo di quello creato da un'ipotetica riduzione della piovosità all'85% - L'aumento del numero di laghi collinari riduce la quantità d'acqua che arriva a valle, allo stesso tempo aumenta la quantità d'acqua "persa" per evaporazione.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La geolocalizzazione e i LBS (Location-based services), servizi associati a questi tecnologia stanno trasformando radicalmente il modo in cui i consumatori interagiscono con brand, prodotti e aziende, sia online che nel mondo reale. L 'esplosione nell'utilizzo degli smartphone ha causato un notevole aumento dell'interesse degli utenti per i servizi geolocalizzati, che aprono nuove frontiere sia ai consumatori che ai marketers. Questa tesi di laurea analizza in particolare il fenomeno Foursquare nel mondo e in Italia definendo il modello di business associato a questa tecnologia, servendosi di numerose case history e testimonianze.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il seguente lavoro di tesi tratta l'argomento delle aste in modo tecnico, ovvero cerca di descriverne i modelli e le caratteristiche principali, spesso ignorate dagli stessi fruitori. Nel capitolo 1 si introduce brevemente il concetto di asta, descrivendone i principali elementi costitutivi. Si ripercorrono poi le origini di questa procedura ed alcuni suoi utilizzi. Nel capitolo 2 si presentano inizialmente le principali tipologie di aste conosciute e si accenna al processo di valutazione dell'oggetto d'asta. Si introduce poi il concetto di Private Value, analizzandolo per ogni tipo di asta e confrontando queste sotto l'aspetto della rendita. Si enuncia in seguito un principio fondamentale, quale quello dell'equivalenza delle rendite, rilassandone alcuni assunti basilari. Infine si passa al concetto di valori interdipendenti all'interno delle aste, valutandone equilibri, rendite ed efficienza, accennando nel contempo al problema denominato Winner's curse. Nel capitolo 3 si parla dei meccanismi di asta online, ponendo l'attenzione su un loro aspetto importante, ovvero la veridicità, ed analizzandoli attraverso l'analisi del caso peggiore e del caso medio in alcuni esempi costruiti ad-hoc. Nel capitolo 4 si descrivono in particolare le sponsored search auctions, narrandone inizialmente la storia, e successivamente passando all'analisi di equilibri, rendite ed efficienza; si presenta, infine, un modello di tali aste mettendone in rapporto la computabilità con quella dei meccanismi offline conosciuti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si studia in modo formale una specifica proprietà della Computazione Quantistica. In particolare, il modello di calcolo che si utilizzerà (circuito quantistico) può essere rappresentato da una sequenza di operazioni. Una sequenza è detta mista (circuito misto) se si presentano operazioni classiche e quantistiche in modo alternato (sequenze del tipo Q-C-C-Q-Q-C). Una sequenza in Forma Normale, invece, ammette operazioni classiche solamente all'inizio o alla fine, mentre in mezzo possono esserci solamente operazioni quantistiche (sequenze del tipo C-C-Q-Q-Q-C). Una sequenza di operazioni esclusivamente quantistiche porta numerosi vantaggi, per questo la forma normale è molto importante. Essa infatti separa le operazioni classiche da quelle quantistiche, concentrandole tutte all'interno. Quello che si farà in questa tesi sarà fornire un modo operativo (mediante riscritture) per ottenere la forma normale di una qualsiasi sequenza di operazioni classiche o quantistiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fino ad un recente passato, le macchine elettriche di tipo trifase costituivano l’unica soluzione in ambito industriale per la realizzazione di azionamenti di grande potenza. Da quando i motori sono gestiti da convertitori elettronici di potenza si è ottenuto un notevole passo in avanti verso l’innovazione tecnologica. Infatti, negli ultimi decenni, le tecnologie sempre più all’avanguardia e l’aumento dell’utilizzo dell’elettronica, sia in campo civile quanto in quello industriale, hanno contribuito a una riduzione dei costi dei relativi componenti; questa situazione ha permesso di utilizzare tecnologie elaborate che in passato avevano costi elevati e quindi risultavano di scarso interesse commerciale. Nel campo delle macchine elettriche tutto questo ha permesso non solo la realizzazione di azionamenti alimentati e controllati tramite inverter, in grado di garantire prestazioni nettamente migliori di quelle ottenute con i precedenti sistemi di controllo, ma anche l’avvento di una nuova tipologia di macchine con un numero di fasi diverso da quello tradizionale trifase, usualmente impiegato nella generazione e distribuzione dell’energia elettrica. Questo fatto ha destato crescente interesse per lo studio di macchine elettriche multifase. Il campo di studio delle macchine multifase è un settore relativamente nuovo ed in grande fermento, ma è già possibile affermare che le suddette macchine sono in grado di fornire prestazioni migliori di quelle trifase. Un motore con un numero di fasi maggiore di tre presenta numerosi vantaggi: 1. la possibilità di poter dividere la potenza su più fasi, riducendo la taglia in corrente degli interruttori statici dell’inverter; 2. la maggiore affidabilità in caso di guasto di una fase; 3. la possibilità di sfruttare le armoniche di campo magnetico al traferro per ottenere migliori prestazioni in termini di coppia elettromagnetica sviluppata (riduzione dell’ampiezza e incremento della frequenza della pulsazione di coppia); 4. l’opportunità di creare azionamenti elettrici multi-motore, collegando più macchine in serie e comandandole con un unico convertitore di potenza; 5. Maggiori e più efficaci possibilità di utilizzo nelle applicazioni Sensorless. Il presente lavoro di tesi, ha come oggetto lo studio e l’implementazione di una innovativa tecnica di controllo di tipo “sensorless”, da applicare in azionamenti ad orientamento di campo per macchine asincrone eptafase. Nel primo capitolo vengono illustrate le caratteristiche e le equazioni rappresentanti il modello della macchina asincrona eptafase. Nel secondo capitolo si mostrano il banco di prova e le caratteristiche dei vari componenti. Nel terzo capitolo sono rappresentate le tecniche di modulazione applicabili per macchine multifase. Nel quarto capitolo vengono illustrati il modello del sistema implementato in ambiente Simulink ed i risultati delle simulazioni eseguite. Nel quinto capitolo viene presentato il Code Composer Studio, il programma necessario al funzionamento del DSP. Nel sesto capitolo, sono presentati e commentati i risultati delle prove sperimentali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente dissertazione si apre con l’analisi della costa dell’Emilia Romagna, in particolare quella antistante la città di Cesenatico. Nel primo capitolo si è voluto fare un breve inquadramento delle problematiche che affliggono le acque costiere a debole ricambio. Il Mare Adriatico e in particolare le acque costiere, ormai da più di trent’anni, sono afflitti da una serie di problemi ambientali correlati all’inquinamento. Sulla costa romagnola, già verso la metà degli anni settanta, le prime estese morie di organismi viventi acquatici avevano posto sotto gli occhi dell’opinione pubblica l’insorgenza di situazioni drammatiche per l’ambiente, per la salute pubblica e per due importanti settori dell’economia regionale e nazionale quali il turismo e la pesca. Fino ad allora aveva dominato la diffusa convinzione che la diluizione nell’enorme quantità di acqua disponibile avrebbe consentito di immettere nel mare quantità crescenti di sostanze inquinanti senza intaccare in misura apprezzabile la qualità delle acque. Questa teoria si rivelò però clamorosamente errata per i mari interni con scarso ricambio di acqua (quali per esempio il Mare Adriatico), perché in essi le sostanze che entrano in mare dalla terraferma si mescolano per lungo tempo solo con un volume limitato di acqua antistante la costa. Solo se l’immissione di sostanze organiche è limitata, queste possono essere demolite agevolmente attraverso processi di autodepurazione per opera di microrganismi naturalmente presenti in mare. Una zona molto critica per questo processo è quella costiera, perché in essa si ha la transizione tra acque dolci e acque salate, che provoca la morte sia del plancton d’acqua dolce che di quello marino. Le sostanze estranee scaricate in mare giungono ad esso attraverso tre vie principali: • dalla terraferma: scarichi diretti in mare e scarichi indiretti attraverso corsi d’acqua che sfociano in mare; • da attività svolte sul mare: navigazione marittima e aerea, estrazione di materie prime dai fondali e scarico di rifiuti al largo; • dall’atmosfera: tramite venti e piogge che trasportano inquinanti provenienti da impianti e attività situati sulla terraferma. E’ evidente che gli scarichi provenienti dalla terraferma sono quelli più pericolosi per la salvaguardia delle acque costiere, in particolare vanno considerati: gli scarichi civili (enormemente accresciuti nel periodo estivo a causa del turismo), gli scarichi agricoli e gli scarichi industriali. Le sostanze estranee scaricate in mare contengono una grande abbondanza di sali nutrienti per i vegetali (in particolare nitrati e fosfati) che provengono dai concimi chimici, dai residui del trattamento biologico negli impianti di depurazione e dall’autodepurazione dei fiumi. Queste sostanze una volta giunte in mare subiscono un nuovo processo di autodepurazione che genera ulteriori quantità di nutrienti; i sali di fosforo e azoto così formati si concentrano soprattutto nelle acque basse e ferme della costa e vengono assimilati dalle alghe che possono svilupparsi in modo massivo: tale fenomeno prende il nome di eutrofizzazione. La produzione eccessiva di biomasse vegetali pone seri problemi per la balneazione in quanto può portare a colorazioni rossastre, brune, gialle o verdi delle acque; inoltre la decomposizione delle alghe impoverisce di ossigeno l’acqua, soprattutto sul fondo, provocando morie della fauna ittica. Nello specifico, in questo lavoro di tesi, si prende in considerazione il Porto Canale di Cesenatico, e come le acque da esso convogliate vadano ad influenzare il recettore finale, ovvero il Mar Adriatico. Attraverso l’uso di un particolare software, messo a mia disposizione dal D.I.C.A.M. è stata portata avanti un’analisi dettagliata, comprendente svariati parametri, quali la velocità dell’acqua, la salinità, la concentrazione dell’inquinante e la temperatura, considerando due possibili situazioni. A monte di ciò vi è stata una lunga fase preparatoria, in cui dapprima sono state recepite, attraverso una campagna di misure progettata ad hoc, ed elaborate le informazione necessarie per la compilazione del file di input; in seguito è stato necessario calibrare e tarare il programma, in quanto sono state apportate numerose variazioni di recepimento tutt’altro che immediato; dopodiché è stata introdotta la geometria rappresentante l’area presa in esame, geometria molto complessa in quanto trattasi di una zona molto ampia e non uniforme, infatti vi è la presenza di più barriere frangiflutti, sommerse ed emerse, che alterano in svariati punti la profondità del fondale. Non è stato semplice, a tal proposito, ricostruire l’area e ci si è avvalsi di una carta nautica riportante la batimetria del litorale antistante Cesenatico. Come è stato già detto, questa fase iniziale ha occupato molto tempo e si è dimostrata molto impegnativa. Non sono state comunque da meno le fasi successive. Inoltre, tale simulazione è stata effettuata su due scenari differenti, per poter valutare le differenti conclusioni alle quali essi hanno indotto. Dopo molti “tentativi”, l’eseguibile ha girato ed è arrivato al termine ricoprendo un lasso di tempo pari a ventiquattro ore. I risultati ottenuti in output, sono stati tradotti e vagliati in modo da essere graficati e resi più interpretabili. Segue infine la fase di analisi che ha portato alle deduzioni conclusive. Nei prossimi capitoli, si riporta nel dettaglio quello che in questo paragrafo è stato sinteticamente citato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the early 1970 the community has started to realize that have as a main principle the industry one, with the oblivion of the people and health conditions and of the world in general, it could not be a guideline principle. The sea, as an energy source, has the characteristic of offering different types of exploitation, in this project the focus is on the wave energy. Over the last 15 years the Countries interested in the renewable energies grew. Therefore many devices have came out, first in the world of research, then in the commercial one; these converters are able to achieve an energy transformation into electrical energy. The purpose of this work is to analyze the efficiency of a new wave energy converter, called WavePiston, with the aim of determine the feasibility of its actual application in different wave conditions: from the energy sea state of the North Sea, to the more quiet of the Mediterranean Sea. The evaluation of the WavePiston is based on the experimental investigation conducted at the University of Aalborg, in Denmark; and on a numerical modelling of the device in question, to ascertain its efficiency regardless the laboratory results. The numerical model is able to predict the laboratory condition, but it is not yet a model which can be used for any installation, in fact no mooring or economical aspect are included yet. È dai primi anni del 1970 che si è iniziato a capire che il solo principio dell’industria con l’incuranza delle condizioni salutari delle persone e del mondo in generale non poteva essere un principio guida. Il mare, come fonte energetica, ha la caratteristica di offrire diverse tipologie di sfruttamento, in questo progetto è stata analizzata l’energia da onda. Negli ultimi 15 anni sono stati sempre più in aumento i Paesi interessati in questo ambito e di conseguenza, si sono affacciati, prima nel mondo della ricerca, poi in quello commerciale, sempre più dispositivi atti a realizzare questa trasformazione energetica. Di tali convertitori di energia ondosa ne esistono diverse classificazioni. Scopo di tale lavoro è analizzare l’efficienza di un nuovo convertitore di energia ondosa, chiamato WavePiston, al fine si stabilire la fattibilità di una sua reale applicazione in diverse condizioni ondose: dalle più energetiche del Mare del Nord, alle più quiete del Mar Mediterraneo. La valutazione sul WavePiston è basata sullo studio sperimentale condotto nell’Università di Aalborg, in Danimarca; e su di una modellazione numerica del dispositivo stesso, al fine di conoscerne l’efficienza a prescindere dalla possibilità di avere risultati di laboratorio. Il modello numerico è in grado di predirre le condizioni di laboratorio, ma non considera ancora elementi come gli ancoraggi o valutazione dei costi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questo lavoro di tesi si prefiggeva la produzione di nuovi materiali geopolimerici a partire da meta-caolino, come fonte allumino-silicatica, e silicato di sodio o potassio, come soluzione attivante. L’ambito di applicazione di questi materiali era il restauro di beni culturali, sia come riempimento di lacune che come adesivo nella giunzione di parti, che richiedeva un consolidamento a temperatura ambiente ed una trascurabile cessione di sali solubili da parte del materiale d’apporto, caratteristiche non facilmente realizzabili con i materiali tradizionali. Il progetto può essere temporalmente suddiviso in tre fasi principali: 1) caratterizzazione di tre caolini commerciali utilizzati come materie prime, analizzando la loro composizione chimica e mineralogica, la granulometria, la superficie specifica ed il comportamento termico. Sulla base dell’analisi termica è stato individuato l’intervallo di temperatura ottimale per la trasformazione in meta-caolini, mantenendo buone proprietà superficiali. 2) Caratterizzazione dei meta-caolini ottenuti, analizzando la composizione mineralogica, la granulometria, la superficie specifica ed il contenuto di Al(V). E’ stata inoltre valutata la loro attività pozzolanica, scegliendo sulla base di tutti i dati raccolti sei campioni per la fase successiva. 3) Preparazione di paste geopolimeriche utilizzando quantità di soluzione attivante (silicato di sodio o potassio) tali da raggiungere un rapporto molare SiO2/Al2O3 nella miscela di reazione pari a 3,6 e 4,0; sui prodotti così ottenuti sono state effettuate alcune prove di leaching in acqua. Sulla base risultati ottenuti in questo lavoro di tesi è stato possibile correlare le caratteristiche del caolino di partenza alla reattività nella reazione di geopolimerizzazione. È stato inoltre identificato l’intervallo di calcinazione per massimizzare la suddetta reattività e le condizioni per ridurre la cessione di sali solubili da parte del materiale geopolimerico. Sono stati inoltre evidenziati possibili effetti sinergici, legati alla presenza contemporanea di Na e K.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Si parte dalla storia delle console attraversando tutte le varie epoche.In seguito si analizza nel dettaglio le quote di mercato del mercato delle console nell'anno 2010 e primi mesi del 2011 per capire come si muovono strategicamente le tre più importanti aziende di console nel mondo.