751 resultados para Coordinazione, Spazi di tuple, Sistemi distribuiti, Semantica
Resumo:
Uno dei temi più discussi ed interessanti nel mondo dell’informatica al giorno d’oggi è sicuramente il Cloud Computing. Nuove organizzazioni che offrono servizi di questo tipo stanno nascendo ovunque e molte aziende oggi desiderano imparare ad utilizzarli, migrando i loro centri di dati e le loro applicazioni nel Cloud. Ciò sta avvenendo anche grazie alla spinta sempre più forte che stanno imprimendo le grandi compagnie nella comunità informatica: Google, Amazon, Microsoft, Apple e tante altre ancora parlano sempre più frequentemente di Cloud Computing e si stanno a loro volta ristrutturando profondamente per poter offrire servizi Cloud adeguandosi così a questo grande cambiamento che sta avvenendo nel settore dell’informatica. Tuttavia il grande movimento di energie, capitali, investimenti ed interesse che l’avvento del Cloud Computing sta causando non aiuta a comprendere in realtà che cosa esso sia, al punto tale che oggi non ne esiste ancora una definizione univoca e condivisa. La grande pressione inoltre che esso subisce da parte del mondo del mercato fa sì che molte delle sue più peculiari caratteristiche, dal punto di vista dell’ingegneria del software, vengano nascoste e soverchiate da altre sue proprietà, architetturalmente meno importanti, ma con un più grande impatto sul pubblico di potenziali clienti. L’obbiettivo che ci poniamo con questa tesi è quindi quello di esplorare il nascente mondo del Cloud Computing, cercando di comprenderne a fondo le principali caratteristiche architetturali e focalizzando l’attenzione in particolare sullo sviluppo di applicazioni in ambiente Cloud, processo che sotto alcuni aspetti si differenzia molto dallo sviluppo orientato ad ambienti più classici. La tesi è così strutturata: nel primo capitolo verrà fornita una panoramica sul Cloud Computing nella quale saranno date anche le prime definizioni e verranno esposti tutti i temi fondamentali sviluppati nei capitoli successivi. Il secondo capitolo costituisce un approfondimento su un argomento specifico, quello dei Cloud Operating System, componenti fondamentali che permettono di trasformare una qualunque infrastruttura informatica in un’infrastruttura Cloud. Essi verranno presentati anche per mezzo di molte analogie con i classici sistemi operativi desktop. Con il terzo capitolo ci si addentra più a fondo nel cuore del Cloud Computing, studiandone il livello chiamato Infrastructure as a Service tramite un esempio concreto di Cloud provider: Amazon, che fornisce i suoi servizi nel progetto Amazon Web Services. A questo punto, più volte nel corso della trattazione di vari temi saremo stati costretti ad affrontare le problematiche relative alla gestione di enormi moli di dati, che spesso sono il punto centrale di molte applicazioni Cloud. Ci è parso quindi importante approfondire questo argomento in un capitolo appositamente dedicato, il quarto, supportando anche in questo caso la trattazione teorica con un esempio concreto: BigTable, il sistema di Google per la gestione della memorizzazione di grandi quantità di dati. Dopo questo intermezzo, la trattazione procede risalendo lungo i livelli dell’architettura Cloud, ricalcando anche quella che è stata l’evoluzione temporale del Cloud Computing: nel quinto capitolo, dal livello Infrastructure as a Service si passa quindi a quello Platform as a Service, tramite lo studio dei servizi offerti da Google Cloud Platform. Il sesto capitolo costituisce invece il punto centrale della tesi, quello che ne soddisfa l’obbiettivo principale: esso contiene infatti uno studio approfondito sullo sviluppo di applicazioni orientate all’ambiente Cloud. Infine, il settimo capitolo si pone come un ponte verso possibili sviluppi futuri, analizzando quali sono i limiti principali delle tecnologie, dei modelli e dei linguaggi che oggi supportano il Cloud Computing. In esso viene proposto come possibile soluzione il modello ad attori; inoltre viene anche presentato il framework Orleans, che Microsoft sta sviluppando negli ultimi anni con lo scopo appunto di supportare lo sviluppo di applicazioni in ambiente Cloud.
Resumo:
L’obbiettivo di questa tesi consiste in un analisi dello sviluppo di applicazioni mobile, rivolgendo particolare attenzione riguardo a quelle soluzioni che consentono di astrarre dall’ambiente su cui effettivamente queste verranno eseguite, per poi prendere in esame la piattaforma e il linguaggio Mobl. Sarà quindi necessario effettuare una panoramica sullo stato attuale del mercato, introducendo i diversi sistemi presenti e le metodologie proposte per la costruzione del software. Da questo studio sarà possibile ricavare i pregi e i difetti di una programmazione nativa. Volendo, in seguito, ricercare un processo di produzione software che favorisca un’indipendenza dai sistemi precedentemente descritti, verranno illustrati alcuni tra i più importanti Mobile Frameworks e tra questi si prenderà in esame Mobl, che si contraddistingue grazie a caratteristiche peculiari.
Resumo:
Miglioramento delle prestazioni del modello mono-compartimentale del maximum slope dovuto all'introduzione di sistemi per l'eliminazione degli outliers.
Resumo:
"I computer del nuovo millennio saranno sempre più invisibili, o meglio embedded, incorporati agli oggetti, ai mobili, anche al nostro corpo. L'intelligenza elettronica sviluppata su silicio diventerà sempre più diffusa e ubiqua. Sarà come un'orchestra di oggetti interattivi, non invasivi e dalla presenza discreta, ovunque". [Mark Weiser, 1991] La visione dell'ubiquitous computing, prevista da Weiser, è ormai molto vicina alla realtà e anticipa una rivoluzione tecnologica nella quale l'elaborazione di dati ha assunto un ruolo sempre più dominante nella nostra vita quotidiana. La rivoluzione porta non solo a vedere l'elaborazione di dati come un'operazione che si può compiere attraverso un computer desktop, legato quindi ad una postazione fissa, ma soprattutto a considerare l'uso della tecnologia come qualcosa di necessario in ogni occasione, in ogni luogo e la diffusione della miniaturizzazione dei dispositivi elettronici e delle tecnologie di comunicazione wireless ha contribuito notevolmente alla realizzazione di questo scenario. La possibilità di avere a disposizione nei luoghi più impensabili sistemi elettronici di piccole dimensioni e autoalimentati ha contribuito allo sviluppo di nuove applicazioni, tra le quali troviamo le WSN (Wireless Sensor Network), ovvero reti formate da dispositivi in grado di monitorare qualsiasi grandezza naturale misurabile e inviare i dati verso sistemi in grado di elaborare e immagazzinare le informazioni raccolte. La novità introdotta dalle reti WSN è rappresentata dalla possibilità di effettuare monitoraggi con continuità delle più diverse grandezze fisiche, il che ha consentito a questa nuova tecnologia l'accesso ad un mercato che prevede una vastità di scenari indefinita. Osservazioni estese sia nello spazio che nel tempo possono essere inoltre utili per poter ricavare informazioni sull'andamento di fenomeni naturali che, se monitorati saltuariamente, non fornirebbero alcuna informazione interessante. Tra i casi d'interesse più rilevanti si possono evidenziare: - segnalazione di emergenze (terremoti, inondazioni) - monitoraggio di parametri difficilmente accessibili all'uomo (frane, ghiacciai) - smart cities (analisi e controllo di illuminazione pubblica, traffico, inquinamento, contatori gas e luce) - monitoraggio di parametri utili al miglioramento di attività produttive (agricoltura intelligente, monitoraggio consumi) - sorveglianza (controllo accessi ad aree riservate, rilevamento della presenza dell'uomo) Il vantaggio rappresentato da un basso consumo energetico, e di conseguenza un tempo di vita della rete elevato, ha come controparte il non elevato range di copertura wireless, valutato nell'ordine delle decine di metri secondo lo standard IEEE 802.15.4. Il monitoraggio di un'area di grandi dimensioni richiede quindi la disposizione di nodi intermedi aventi le funzioni di un router, il cui compito sarà quello di inoltrare i dati ricevuti verso il coordinatore della rete. Il tempo di vita dei nodi intermedi è di notevole importanza perché, in caso di spegnimento, parte delle informazioni raccolte non raggiungerebbero il coordinatore e quindi non verrebbero immagazzinate e analizzate dall'uomo o dai sistemi di controllo. Lo scopo di questa trattazione è la creazione di un protocollo di comunicazione che preveda meccanismi di routing orientati alla ricerca del massimo tempo di vita della rete. Nel capitolo 1 vengono introdotte le WSN descrivendo caratteristiche generali, applicazioni, struttura della rete e architettura hardware richiesta. Nel capitolo 2 viene illustrato l'ambiente di sviluppo del progetto, analizzando le piattaforme hardware, firmware e software sulle quali ci appoggeremo per realizzare il progetto. Verranno descritti anche alcuni strumenti utili per effettuare la programmazione e il debug della rete. Nel capitolo 3 si descrivono i requisiti di progetto e si realizza una mappatura dell'architettura finale. Nel capitolo 4 si sviluppa il protocollo di routing, analizzando i consumi e motivando le scelte progettuali. Nel capitolo 5 vengono presentate le interfacce grafiche utilizzate utili per l'analisi dei dati. Nel capitolo 6 vengono esposti i risultati sperimentali dell'implementazione fissando come obiettivo il massimo lifetime della rete.
Resumo:
Gli impianti di depurazione rappresentano, nei contesti urbani, elementi di imprescindibile importanza nell’ambito di una corretta gestione e tutela della risorsa idrica e dell’ambiente. Il crescente grado di antropizzazione delle aree urbanizzate e parallelamente le sempre minori disponibilità in termini di spazi utilizzabili a fini depurativi comportano sempre di più la necessità di ottimizzare i processi di dimensionamento degli impianti. Inoltre, l’obiettivo di aumentare l’efficienza del ciclo depurativo andando a minimizzare i costi correlati alla gestione degli stessi indirizza verso una omogeneizzazione nei criteri di dimensionamento adottati. In questo senso, la normativa tecnica di settore risulta carente, andandosi a concentrare prevalentemente sul rispetto di fissati standard ambientali senza però fornire indicazioni precise sui criteri di progettazione da adottare per perseguire tali standard. La letteratura scientifica pur indicando range di possibili valori di riferimento da adottare, nel dimensionamento degli impianti, lascia un ampio margine di discrezionalità al progettista. La presente tesi si pone pertanto, a partire da tali valori di letteratura, di andare a definire da un lato le caratteristiche quali-quantitative del refluo in ingresso e dall’altro i valori di riferimento da adottare in sede di progettazione per perseguire gli obiettivi precedentemente indicati. La prima parte, di valenza generale, oltre alla caratterizzazione dell’influente descrive nel dettaglio le diverse fasi del processo e il loro dimensionamento che in tutte le sezioni, ad eccezione del biologico, viene effettuato attraverso equazioni semplificate mettendo a confronto e analizzando i parametri progettuali proposti da letteratura. Per quanto riguarda il comparto biologico la maggior complessità del fenomeno da descrivere rende difficile la valutazione delle grandezze che caratterizzano il funzionamento mediante l’utilizzo di equazioni semplificate. Per questo si è deciso di modellare questo comparto, unito a quello della sedimentazione, attraverso un software (WEST) che permette non solo di simulare il processo ma anche, attraverso le analisi di scenario, di determinare quelli che sono i valori progettuali puntuali che consentono di ottenere da un lato una minimizzazione dei costi dell’impianto, sia costruttivi che gestionali, e dall’altro la massimizzazione delle rese depurative. Nello specifico si è fatto riferimento ad impianto fanghi attivi a schema semplificato con potenzialità fissata pari a 10000 AE. Il confronto con i dati di esercizio di alcuni impianti di analoga tipologia ha evidenziato che una buona capacità dello strumento di modellazione utilizzato di descrivere i processi. E’ possibile quindi concludere che tali strumenti, affiancati ad una lettura critica dei risultati ottenuti possono essere ottimi strumenti di supporto sia in fase di progettazione che in prospettiva di gestione dell’impianto al fine di ottimizzare i processi e quindi i costi.
Resumo:
Lo scopo della tesi è quello di affrontare la progettazione con un approccio,quanto più attuale e per certi versi avanguardista, chiamato Parametric design (progettazione parametrica), accoppiato efficacemente col concetto di Arte generativa (in questo caso Architettura). Già nel 1957 Luigi Moretti affrontò il tema dell’architettura parametrico-generativa fondando l’IRMOU (Istituto per la Ricerca Matematica e Operativa applicata all'Urbanistica) e oggi è una mentalità molto diffusa nei più grandi studi del mondo. Il tema non è solo tecnologico o informatico strumentale, ma è proprio un modo di pensare e immaginare il possibile, costruito o naturale che sia. E’ un modo di vivere la propria creatività. L’aggettivo “generativa” è legato al fatto che l’arte in esame è generata seguendo regole preimpostate e ben definite dal progettista, coerentemente agli obiettivi e alle finalità del progetto. L’evoluzione delle stesse, seguendo relazioni molto semplici, può dar vita a risultati sorprendenti e inaspettati, dotati di una notevole complessità che però, se letta nell’insieme, è perfettamente in armonia con l’idea progettuale di partenza. Il fascino di questa materia è il legame entusiasmante che crea tra architettura, ingegneria, poesia, filosofia, matematica, biologia, fisica, pittura ecc ecc. Questo perché i concetti di evoluzione, di relazione e di generazione appartengono a tutto ciò che ci circonda, e quindi alla concezione umana di vita. E’ possibile in questo modo permeare il costrutto progettuale con principi e regole oggettivamente riconoscibili e apprezzabili dallo spettatore perché instrisi di una forte veridicità processuale. Il titolo "Oxymoron" è la traduzione inglese della figura retorica ossimoro,la quale è strettamente connessa all’ispirazione progettuale: proviene dall’indagine approfondita di processi evolutivi (distruttivi in questo caso) caratterizzanti realtà naturali che, esplorate con sempre più accuratezza, determinano morfologie e forme aventi profonde radici strutturali. La distruzione che crea lo spazio. La genesi stessa della forma segue predominanti algoritmi matematici governati e corretti da variabili di diversa natura che definiscono l'enviroment di influenze interagenti ed agenti sul campione di studio. In questo caso la ricerca è focalizzata su processi erosivi fisici e chimici, di agenti esterni (quali vento e sali rispettivamente) ,di cui materiali inorganici, quali minerali e aggregati degli stessi (rocce), sono soggetti. In particolare, l’interesse è approfondito su fenomeni apparentemente emergenti dei tafoni e dei cosiddetti Micro canyon. A tal scopo si sfrutterà un metodo di soft kill option (SKO) di ottimizzazione topologica (optimization topology) attraverso gli strumenti informatici più idonei quali software di modellazione parametrica e di calcolo computazionale. La sperimentazione sta proprio nell'utilizzare uno strumento concepito per uno scopo, con un'ottica strettamente ingegneristica, per un'altra meta, ossia ricavare e ottenere se possibile un metodo di lavoro o anche solo un processo generativo tale da riprodurre o simulare casi e situazioni riscontrabili in natura negli eventi soggetti a erosione. Il tutto coerente con le regole che stanno alla base della genesi degli stessi. Il parallelismo tra singolarità naturale e architettura risiede nella generazione degli spazi e nella combinazione di questi. L’ambizioso obiettivo è quello di innescare un ciclo generativo, che messo in comunicazione diretta con un contesto variegato ed eterogeneo, dia vita a una soluzione progettuale dall'alto contenuto morfologico e spaziale.
Resumo:
Il progetto QRPlaces - Semantic Events, oggetto di questo lavoro, focalizza l’attenzione sull’analisi, la progettazione e l’implementazione di un sistema che sia in grado di modellare i dati, relativi a diversi eventi facenti parte del patrimonio turistico - culturale della Regione Emilia Romagna 1, rendendo evidenti i vantaggi associati ad una rappresentazione formale incentrata sulla Semantica. I dati turistico - culturali sono intesi in questo ambito sia come una rappresentazione di “qualcosa che accade in un certo punto ad un certo momento” (come ad esempio un concerto, una sagra, una raccolta fondi, una rappresentazione teatrale e quant’altro) sia come tradizioni e costumi che costituiscono il patrimonio turistico-culturale e a cui si fa spesso riferimento con il nome di “Cultural Heritage”. Essi hanno la caratteristica intrinseca di richiedere una conoscenza completa di diverse informa- zioni correlata, come informazioni di geo localizzazione relative al luogo fisico che ospita l’evento, dati biografici riferiti all’autore o al soggetto che è presente nell’evento piuttosto che riferirsi ad informazioni che descrivono nel dettaglio tutti gli oggetti, come teatri, cinema, compagnie teatrali che caratterizzano l’evento stesso. Una corretta rappresentazione della conoscenza ad essi legata richiede, pertanto, una modellazione in cui i dati possano essere interconnessi, rivelando un valore informativo che altrimenti resterebbe nascosto. Il lavoro svolto ha avuto lo scopo di realizzare un dataset rispondente alle caratteristiche tipiche del Semantic Web grazie al quale è stato possibile potenziare il circuito di comunicazione e informazione turistica QRPlaces 2. Nello specifico, attraverso la conversione ontologica di dati di vario genere relativi ad eventi dislocati nel territorio, e sfruttando i principi e le tecnologie del Linked Data, si è cercato di ottenere un modello informativo quanto più possibile correlato e arricchito da dati esterni. L’obiettivo finale è stato quello di ottenere una sorgente informativa di dati interconnessi non solo tra loro ma anche con quelli presenti in sorgenti esterne, dando vita ad un percorso di collegamenti in grado di evidenziare una ricchezza informativa utilizzabile per la creazione di valore aggiunto che altrimenti non sarebbe possibile ottenere. Questo aspetto è stato realizzato attraverso un’in- terfaccia di MashUp che utilizza come sorgente il dataset creato e tutti i collegamenti con la rete del Linked Data, in grado di reperire informazioni aggiuntive multi dominio.
Resumo:
Negli ultimi decenni le nuove scoperte mediche e il miglioramento dello stile di vita nei paesi occidentali hanno determinato un aumento del consumo di sostanze terapeutiche, nonché della gamma di prodotti farmaceutici e parafarmaceutici comunemente utilizzati. Gli studi di cinetica dei farmaci dimostrano con certezza che essi, seppur metabolizzati, mantengono inalterato il loro potere d’azione, rimanendo biodisponibili anche una volta escreti dall’organismo. A causa della loro eccessiva polarità tali molecole sono inoltre difficilmente trattenute dai convenzionali impianti di depurazione dei reflui urbani, dai quali confluiscono inevitabilmente verso le acque fluviali e/o costiere le quali risultano. In ragione di ciò, la valutazione degli effetti che la loro presenza può provocare sulla qualità dei sistemi di approvigionamento idrico e sulla biologia delle specie tipiche degli ecosistemi acquatici, ha classificato tali composti come una nuova classe di inquinanti emergenti, il cui impatto ambientale non risulta ancora del tutto arginato attraverso adeguate contromisure legislative. I farmaci sono sostanze bioattive progettate per avere effetti specifici a bassissime concentrazioni negli organismi target attraverso specifici meccanismi d’azione. Nel caso in cui i bersagli cellulari su cui agiscono siano evolutivamente conservati negli organismi non target, essi possono esercitare le proprie funzioni attraverso i medesimi meccanismi di regolazione fisiologica attivati nelle specie target, dando origine a effetti specifici, o anche aspecifici, nel caso in cui tali bersagli siano deputati alla regolazioni di funzioni differenti. Pertanto lo scopo del presente lavoro di tesi è stato quello di analizzare le possibili alterazioni di carattere fisiologico in individui di mitilo mediterraneo (Mytilus galloprovincialis) esposti a concentrazioni ambientali di fluoxetina, farmaco antidepressivo appartenente alla classe degli inibitori selettivi del riassorbimento presinaptico della serotonina (SSRI). Più nel dettaglio, a seguito di un’esposizione per 7 giorni a dosaggi compresi tra 0.03 e 300 ng/L di FX, sono stati analizzati i livelli intracellulari di AMPc e l’attività dell’enzima PKA nei diversi trattamenti sperimentali effettuati. Inoltre sono stati valutati i livelli di espressione genica del recettore serotoninergico 5HTmyt1 e della la P-glicoproteina (Pgp, gene ABCB1), trasportatore di membrana responsabile del sistema di detossificazione noto come Multi-xenobiotic resistance (MXR). Nella ghiandola digestiva, la FX causa una diminuzione statisticamente significativa dei livelli di AMPc, dell’attività della PKA e dell’espressione del gene ABCB1 rispetto al controllo. Al contrario nel mantello il farmaco non produce alterazioni dei livelli intracellulari di AMPc e dell’attività della PKA mentre si apprezza una sottoespressione del gene ABCB1 nei trattamenti a dosaggi intermedi. In entrambi i tessuti si nota un aumento dell’espressione genica di 5HTmyt1 alle minori concentrazioni di FX, mentre ai dosaggi più alti non si registrano alterazioni significative rispetto al controllo. Nel loro insieme i risultati indicano che nei mitili, concentrazioni ambientali di FX producono significative alterazioni di diversi parametri fisiologici attraverso una modulazione specifica dei medesimi bersagli molecolari coinvolti nella terapia umana. La riduzione dei livelli di AMPc/PKA apprezzata nella ghiandola digestiva risulta in linea con la funzione inibitoria svolta dal recettore 5HTmyt1 su tale via di trasduzione, mentre l’assenza di variazioni significative registrata nel mantello supporta l’ipotesi di un’interazione tra il sistema serotoninergico e catecolaminergico nella regolazione dei processi legati al ciclo riproduttivo che si verificano in tale tessuto. In conclusione, i dati dimostrano che l’espressione del gene codificante la proteina Pgp è regolata dalla FX attraverso uno specifico meccanismo d'azione AMPc-dipendente modulato dalla serotonina; tuttavia, è ipotizzabile anche un effetto non specifico indotto dalla FX stessa, per esempio attraverso l’induzione di stress ossidativo. Inoltre essi evidenziano la presenza di un meccanismo di regolazione retroattivo sulla espressione dei recettori 5HTmyt1 in funzione delle concentrazioni extracellulari di serotonina modulate dall’azione della FX.
Resumo:
Studio di alcuni dispositivi presenti nelle vetture di formula 1, ma anche in quelle di serie più comuni, per l’ancoraggio e per l’isolamento delle vibrazioni fra componentistiche elettriche e telaio del veicolo. Questi dispositivi, noti come antivibranti (AV), svolgono un ruolo essenziale nel cercare di preservare i dispositivi elettrici: centraline, scatole cablate e connessioni elettriche. Il diffondersi di strumentazione adeguata a costi non più proibitivi ha permesso di studiare più in dettaglio e più scientificamente il comportamento degli AV per sfruttarli al meglio. Obiettivo di questo studio è dare una caratterizzazione scientifica e rigorosa alla maggior parte degli antivibranti presenti in STR7 monoposto Toro Rosso (mondiale di F1 2012), buona parte dei quali verrà utilizzata anche nelle successive vetture. Si volevano, inoltre, sviluppare alcuni modelli che potessero simulare correttamente montaggi di centraline generiche con tutte le diverse tipologie di antivibranti, in modo tale da poter vedere, prima ancora di realizzarli, come si comportavano i sistemi in quelle condizioni e dunque poter apportare modifiche al progetto tali da ottenere la configurazione di montaggio migliore. La continua ricerca di miglioramenti prestazionali che una competizione motoristica ad altissimi livelli richiede, il costante bisogno di alleggerimenti e maggiore affidabilità spingono la ricerca e l'azienda voleva passare da una progettazione basata sulla ripetizione delle configurazioni dimostratesi affidabili nel passato ad una progettazione più tecnica, scientifica e prestazionale. Per una buona caratterizzazione delle proprietà degli antivibranti sono stati progettati specifici test da eseguire al banco vibrante con i quali, lavorando nel dominio delle frequenze, si sono sfruttate le funzioni di risposte in frequenze di ogni antivibrante per ricavare i parametri caratteristici degli stessi nelle varie configurazioni. Con strategie grafiche, numeriche e teoriche si sono ricavati, con buone precisioni, i valori dei coefficienti di smorzamento e di rigidezza che caratterizzano i componenti studiati. Per l’esecuzione di questi test sono stati utilizati tutti gli strumenti messi a disposizione da Scuderia Toro Rosso nel laboratorio per prove vibrazionali recentemente approntato. Per la parte di simulazione numerica invece sono stati sfruttati i risultati ottenuti nella caratterizzazione degli antivibranti per creare programmi in ambiente Matlab che possano simulare il comportamento di generiche centraline montate in generici modi. Risultati di questo studio saranno gli andamenti dei coefficienti di rigidezza e smorzamento dei vari antivibranti nelle diverse configurazioni; inoltre si renderanno disponibili ai progettisti istruzioni e semplici programmi per la valutazione delle scelte fatte al fine di minimizzare le vibrazioni dei dispositivi.
Resumo:
L'aumento inesorabile delle morti per cause legate a patologie cardiache, dovuto soprattutto al progressivo invecchiamento della popolazione occidentale, ha portato negli ultimi anni, alla necessità di sviluppare tecniche e sistemi di “Remote Monitoring”. L'obiettivo della tesi è la progettazione e lo sviluppo di un sistema di monitoraggio remoto dell'attività elettrica cardiaca basato sull’utilizzo delle piattaforme Android e Arduino. Il valore aggiunto della soluzione proposta e sviluppata è, quindi, soprattutto da ricercarsi nella tipologia di tecnologie utilizzate per la realizzazione del sistema (Android/Arduino): oltre, alla loro continua espansione, in termini di diffusione e avanzamento tecnologico, facilmente riscontrabile, hanno tutte l’importante caratteristica di essere totalmente Open Source, rendendo, quindi, ogni elemento del sistema eventualmente espandibile da chiunque lo desideri.
Resumo:
La Colonia Reggiana, situata a Riccione presso la foce del fiume Marano, è stata costruita nel 1934, dal progetto dell’arch. C. Costantini. Nata come colonia marina per i bambini di Reggio Emilia, ha mantenuto la sua funzione fino agli anni ‘80, quando, in seguito al passaggio di proprietà dalla regione Emilia Romagna al comune di Riccione, è caduta in disuso. Dal 1989 una parte dell’edificio ha ospitato associazioni di sport acquatici fino all’estate del 2012, quando è stato vietato l’accesso alla colonia a scopo cautelativo, a causa dell’attività sismica che ha colpito la regione Emilia Romagna. La Colonia si inserisce in una porzione periferica del comune di Riccione. La zona del Marano, caratterizzata da una concentrazione elevata di colonie marine, si trova in un’area di confine tra i comuni di Riccione e di Rimini, caratterizzata da un’interruzione del waterfront, da una minore densità di edifici e da una natura urbanistica irrisolta, nonostante la posizione strategica di ‘porta della città’ e il pregio di essere una delle ultime zone libere lungo la costa. In particolare, l’ambito di interesse è l’area delimitata a est dal mare, a ovest dalla linea ferroviaria, a sud dal fiume Marano e a nord dal confine comunale, che coincide con il Rio dell’Asse. La pianificazione comunale, in accordo con le indicazioni di livello sovraordinato, prevede la riqualificazione degli ampi spazi lasciati incolti e il potenziamento della zona attraverso uno sviluppo di carattere alberghiero, ma anche residenziale e di servizi di vicinato. L’area dovrebbe perdere il suo carattere isolato dal resto della città e il progetto presentato da questa tesi, riportando le indicazioni comunali per lo sfruttamento delle aree verdi secondo piani già approvati, propone per la Colonia Reggiana una funzione diversa da quella alberghiera prevista. Mantenendo il carattere ricettivo richiesto dalla pianificazione urbanistica, il progetto si prefigge di riqualificare l’edificio convertendolo in una residenza socio-assistenziale per anziani. La funzione risulta adatta alla tipologia della colonia, nata come residenza estiva per bambini a scopo curativo, oltre che ricreativo, rispondendo quindi alla natura dell’edificio. La posizione, inoltre, appare positiva e piacevole per la permanenza di persone anziane che, nel periodo più avanzato della propria vita, possono godere del paesaggio e dell’aria marina, invece di ritrovarsi in edifici isolati. Il progetto di recupero della colonia consiste nel restauro o sostituzione delle parti degradate, conservando l’immagine e la natura del progetto, e nel miglioramento delle prestazioni dell’involucro in modo tale che, inserendo un sistema impiantistico adeguato, si possa raggiungere una buona prestazione energetica. La tesi si propone di valutare la possibilità di recuperare la colonia sia dal punto funzionale che da quello energetico, nel rispetto delle normative vigenti.
Resumo:
Il presente lavoro è stato avviato per caratterizzare dal punto di vista geochimico i siti di alimentazione e di riproduzione del Fenicottero ed ottenere così un dataset relativo alle concentrazioni di metalli nei sedimenti di alcune zone umide, utilizzate da questa specie per alimentarsi e riprodursi e scarsamente studiate in passato. Il lavoro di tesi qui presentato si è articolato in due differenti studi: • Un’indagine dettagliata sulla presenza e distribuzione di metalli ed elementi potenzialmente tossici nei sedimenti provenenti da alcune delle principali aree di alimentazione del Fenicottero nell’Alto Adriatico; • Un’indagine preliminare relativa ai metalli contenuti nei sedimenti provenienti da alcuni siti riproduttivi del Fenicottero nel Mediterraneo occidentale. Per quanto riguarda i siti di alimentazione sono state campionate tre zone umide dell’area deltizia del fiume Po: le Valli di Rosolina, Valle Bertuzzi e le Valli di Comacchio. Riguardo i siti riproduttivi sono state campionate cinque aree umide nel Mediterraneo occidentale: le Paludi dell’Odiel nel sud-ovest della Spagna, la Camargue in Francia, lo Stagno di Cagliari in Sardegna, le Valli di Comacchio in Emilia-Romagna e Valle Dogà in Laguna di Venezia. I 57 campioni raccolti sono stati analizzati mediante analisi XRF ed analisi termiche, presso il Dipartimento di Scienze Biologiche, Geologiche e Ambientali, dell’Università di Bologna, e mediante analisi ICP-MS, presso l’AcmeLabs di Vancouver (Canada). Il complesso deltizio del fiume Po ha registrato concentrazioni anomale di Cd, Pb, Sb e Sn mostrando un generale arricchimento nei sedimenti delle aree umide investigate rispetto al valore di riferimento. Analizzando le correlazioni di questo elemento con le frazioni dei sedimenti, si è evidenziata una buona correlazione con la componente organica del sedimento. Ciò potrebbe indicare la presenza di fenomeni di adsorbimento di questo elemento ad opera della matrice organica. L’area di studio non è apparentemente interessata da importanti attività industriali, che potrebbero in parte spiegare le elevate concentrazioni di Cd, Pb, Sb e Sn. Due potenziali sorgenti antropogeniche di contaminazione sono rappresentate da un’estensiva attività agricola nelle zone limitrofe alle valli considerate e da un elevata pressione venatoria esercitata proprio all’interno di queste zone umide. In particolare, quest’ultima attività umana, potrebbe rappresentare una spiegazione più che plausibile per l’elevata presenza di Pb, messa in evidenza dallo studio, dato che fino ad pochissimi anni venivano utilizzate munizioni al Pb con conseguente rilascio in ambiente di ingenti quantitativi di questo metallo. Il Cu e lo Zn si distribuiscono invece in modo relativamente omogeneo nelle tre zone umide investigate, con un debole arricchimento di questi due elementi nei sedimenti delle Valli di Rosolina. Per quanto riguarda l’As, la sua distribuzione nell’area di studio, confrontata con i valori di background, non sembra sollevare particolare preoccupazione, cosi come la presenza di Hg in tutti e tre i siti investigati. Le Valli di Comacchio e Valle Bertuzzi sono inoltre caratterizzate da concentrazioni elevate di Cr e Ni, dati che confermano il naturale arricchimento di questi due elementi nell’area di studio evidenziato da un ampia letteratura e riconducibile ad apporti litologici provenienti dai depositi ofiolitici delle Alpi occidentali trasportati dal fiume Po verso l’Adriatico. Tuttavia, in alcuni campioni la concentrazione di Cr è molto superiore a quella caratteristica delle ofioliti di origine alpina, soprattutto per Valle Bertuzzi. Per spiegare queste anomalie sono necessarie indagini più approfondite sulla presenza e distribuzione di Cr nell’area di Comacchio e Bertuzzi. Riguardo ai 5 siti riproduttivi del Fenicottero, la colonia di Odiel (Spagna) si distingue per essere il sito maggiormente contaminato tra quelli investigati. Si sono infatti riscontrate elevate concentrazioni di As, Cu, Hg, Pb, Sb, Sn e Zn, se confrontate con quelle degli altri siti campionati. Questo risultato non sorprende. Il sito è infatti riconosciuto in letteratura come uno dei sistemi estuarini più inquinati dell’Europa occidentale, in quanto interessato dall’attività mineraria della IPB (Iberian Pyrite Belt), uno dei più importanti siti minerari mondiali, e dall’attività del polo industriale di Huelva. La colonia francese della Camargue si distingue invece per essere il sito meno impattato dall’attività antropica, non mostrando concentrazioni anomale per nessuno degli elementi in traccia analizzati. I sito riproduttivo situato nei pressi di Cagliari, in Sardegna, ha riportato elevate concentrazioni di Cd, Hg e Pb. La contaminazione di questo sito a seguito di ingenti scarichi di rifiuti industriali contenenti Hg e Pb a partire dagli anni ’60 è ben documentata in letteratura. Sebbene negli anni ’90 siano stati realizzati progetti di bonifica del sito, le concentrazioni ottenute nel presente studio sono ancora elevate suggerendo la possibilità che il processo di rimozione di Hg e Pb messo in atto in passato possa aver avuto scarsa efficacia. La colonia riproduttiva di Comacchio ha registrato concentrazioni elevate di Cr, Ni e Pb. Come già detto riguardo ai siti di alimentazione l’abbondanza di Cr e Ni nell’area è da ricondurre a fattori naturali, mentre le elevate concentrazioni di Pb non trovano riscontri in precedenti studi. La presenza di alcuni campioni con concentrazioni anomale di Cr e il generale arricchimento di Pb nel sito suggeriscono la necessità di studi più approfonditi e specifici sulla presenza di questi elementi nell’area di Comacchio. Infine, la colonia situata in Laguna di Venezia si caratterizza per avere concentrazioni relativamente elevate di Cd e Hg riconducibili all’attività del polo industriale di Porto Marghera, come già evidenziato da numerosi studi. Tuttavia, i dati del presente studio non confermano le concentrazioni anomale di Zn messe in evidenza da molti studi effettuati nell’intera laguna veneta. Ciò può trovare una spiegazione nel fatto che il sito indagato in questo studio corrisponde ad un piccola porzione dell’intera laguna, molto raramente investigato negli studi passati. Mediante il presente studio è stato quindi possibile implementare le scarse conoscenze geochimiche relative ai sedimenti di alcune zone umide frequentate dai fenicotteri nell’Alto Adriatico e, al contempo, mettere in luce alcune importanti criticità, in particolar modo riguardo Cd, Cr, Pb, Sb e Sn, la cui presenza e distribuzione nell’area dovrebbero essere ulteriormente investigate da studi futuri.
Resumo:
Questa tesi di laurea nasce dall’esperienza maturata presso la VM Motori S.p.A., ufficio CRM (Centro Ricerca Motori) di ingegneria, divisione del reparto R&D (Research and Development) situato a Cento di Ferrara. Durante tale esperienza sono state affrontate le problematiche inerenti al settore automotive riguardo la ricerca e lo sviluppo dei motori endotermici diesel. Dopo un approccio introduttivo, che definisce l’ambito lavorativo in cui opera VM Motori S.p.A. e l’oggetto della tesi, si passa alla definizione ed alla calibrazione di un circuito low pressure EGR di un propulsore diesel da 200HP@3800rpm di potenza e 500Nm@1600rpm di coppia per uso automobilistico, mediante l’ausilio dei software AδαMO, INCA, Controldesk Next Generation, DoE, DIAdem ed INDICOM, software per lo studio della calibrazione al banco sviluppo. Si analizzano gli aspetti che contraddistinguono la VM Motori S.p.A. dalle altre aziende specializzate nel settore automotive, facendo riferimento ai campi produttivi in cui si applica l’ingegneria meccanica ed analizzandone gli aspetti tecnici, metodici e gestionali. Da notare il ruolo fondamentale delle automotive nell’economia mondiale in riferimento alla produzione dei principali propulsori diesel, primarie fonti produttive della VM.