734 resultados para Vicente Di Grado


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La risalita capillare di umidità nelle murature storiche è la principale responsabile del degrado dei materiali. La metodologia ad oggi più utilizzata in tale campo è quella basata sull’iniezione di prodotti chimici in grado di formare barriere artificiali che blocchino il flusso ascendente dell’acqua, ma è ancora in fase di perfezionamento. Per potere svolgere tale perfezionamento, è utile disporre di una metodologia attendibile per la valutazione dell’esito dei trattamenti, ossia un metodo standardizzato che possa garantire una corretta misurazione del contenuto di umidità nelle murature pre e post iniezioni. Nella presente tesi, che ha lo scopo di valutare l’efficacia di alcuni prodotti per barriere chimiche nelle murature, si è utilizzato un metodo di laboratorio standardizzato proposto dai ricercatori del LASTM (DICAM), che permette di riprodurre in laboratorio il processo di risalita dell’umidità e, allo stesso tempo, permette di potere svolgere le misurazioni del contenuto d’acqua interno ai materiali con il metodo diretto. I trattamenti, svolti in collaborazione con la Azienda inglese “Safeguard”, produttrice di resine impermeabilizzanti, sono stati effettuati su vari modelli, costituiti di laterizi e malta, preventivamente sottoposti a differenti condizioni ambientali. Successivamente si è svolto un monitoraggio periodico per potere determinare sia l’efficacia dell’intervento che l’attendibilità del modello. Dopo avere studiato un sistema di controllo delle condizioni di laboratorio, si è ritenuto opportuno svolgere anche alcune prove di caratterizzazione dei materiali utilizzati nella costruzione dei vari modelli, per conoscerne appieno le caratteristiche e potere valutare con maggiore attendibilità i risultati dei trattamenti. Infine, per approfondire le dinamiche di diffusione dei formulati chimici all’interno dei materiali, si sono svolte prove su travetti di malta.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo studio svolto si propone di stabilire quali sono le condizioni di gestione ottimale del sistema di depurazione dei fumi dell’impianto di termovalorizzazione di Rimini, situato nel comune di Coriano e gestito da Herambiente, una società nata nel 2009 nell'ambito del Gruppo Hera, una delle più importanti multiutility italiane che opera nei servizi dell’ambiente, dell’acqua e dell’energia. Il sistema di depurazione dell’impianto è composto da un doppio stadio di abbattimento a secco in cui si dosa calce (Ca(OH)2), al primo stadio, e bicarbonato di sodio (NaHCO3), al secondo. Rispetto alla calce, il bicarbonato garantisce una migliore efficienza di abbattimento dei gas acidi (HCl, SO2, HF), ma ha un prezzo d’acquisto maggiore. Da tale considerazione ha origine il problema di ottimizzazione economica: è necessario individuare una soluzione che consenta di ridurre il consumo e la spesa dei reagenti utilizzati senza alterare le emissioni di inquinanti a camino. I costi operativi legati alla gestione del sistema di depurazione, inoltre, devono tenere in considerazione anche la produzione dei residui solidi generati nei due stadi di abbattimento. Il calcolo di ottimizzazione è stato eseguito utilizzando un modello matematico in grado di prevedere il comportamento dei sistemi reagenti nei due stadi di abbattimento tramite la conoscenza di un parametro empirico. Dopo aver calibrato il modello con i dati di funzionamento dell’impianto, è possibile procedere alla sua implementazione al fine di valutare, in diversi periodi dell’anno 2015, come variano i costi operativi totali in funzione della conversione di HCl (gas acido più critico) al primo stadio di abbattimento e individuare quindi la migliore condizione economico-operativa per ciascun periodo considerato.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo lavoro è incentrato sull'analisi e la simulazione di un ciclo Rankine a fluido organico (ORC) per la produzione di energia da calore a bassa entalpia. Il lavoro è stato svolto in collaborazione con l'università di Gent, in Belgio, in particolare grazie al Prof. De Peape e all' Ing. Steven Lecompte; il lavoro in Italia è stato coordinato dal Prof. De Pascale. L'obiettivo principale della tesi è stata la creazione un modello computazionale in grado di descrivere le prestazioni dell'impianto a carico parziale. Ogni elemento dell'impianto è stato analizzato e modellizzato secondo un approccio di simulazione originale in Matlab. I componenti ottenuti sono stati poi combinati a formare la simulazione dell'intero sistema; questa è in grado di prevedere la potenza prodotta ed il rendimento del ciclo al variare delle condizioni esterne. I risultati ottenuti dalle simulazioni sono stati poi confrontati con i dati sperimentali raccolti sull'impianto di prova dell'Università. Questo confronto dimostra un buon accordo dei risultati previsti con quelli misurati. L'errore relativo massimo ottenuto per la potenza elettrica è sotto il 7%, così come quello sul rendimento; Gli errori relativi a pressione ed entalpie sono in genere sotto il 5%. Il modello può perciò dirsi validato e rappresenta un valido strumento di analisi per comprendere la risposta ai carichi parziali anche al di fuori del range di calibrazione. Il modello è stato infine utilizzato per costruire delle mappe del carico parziale e analizzare l'influenza delle variabili del ciclo. Ulteriori applicazioni delle mappe prodotte sono proposte a fine del lavoro.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Sono stati analizzati i circuiti neurali addetti all'elaborazione matematica, a partire da quelli di start-up neurocognitivo per l'apprendimento del numero e del calcolo, capacità innate e già presenti alla nascita. I protagonisti sono il sistema della stima approssimativa del numero e quello di individuazione degli oggetti multipli e, spesso, le difficoltà che si incontrano durante un compito matematico (o la lentezza per portarlo a termine) sono date dalla difficile interazione tra questi e le loro sottocomponenti, continuamente riprogrammate dall'esecutivo centrale per poter supervisionare i processi di problem solving. Per la costruzione e lo sviluppo del calcolo più elevato, occorrono alcune capacità di base come il concetto di corrispondenza biunivoca, quello di ordinamento di un insieme, di maggioranza, di raddoppio e di dimezzamento, per mezzo delle quali ogni procedura si può ridurre ad una serie di operazioni più semplici. Queste funzioni vengono controllate e coordinate dal Sistema Attentivo Esecutivo che presiede tutte le attività di problem solving. I ragazzi che presentano deficit altamente specifici in una o più abilità matematiche di base vengono definiti discalculici e tra i loro tratti caratteristici vi sono l'incapacità di comprendere le numerosità, i principi delle operazioni e di elaborare strategie risolutive adatte ad ogni esercizio. Non tutti i ragazzi che presentano difficoltà in matematica sono discalculici: a tal proposito ho svolto una sperimentazione didattica in 10 classi di un I.T.I.S. , per cercare di capire se i concetti reputati consolidati alla scuola secondaria digrado, lo sono realmente in quella di 2° e per mostrare le diverse tipologie di errori compiuti dai ragazzi clinici e non. I risultati sono stati largamente al di sotto delle aspettative, anche negli esercizi in cui è stato permesso l'uso della calcolatrice, lasciandomi presagire che gli errori commessi siano perlopiù di concetto piuttosto che di calcolo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'obiettivo di questo lavoro di tesi è realizzare un modello, prima statico poi dinamico, dei componenti: imbocco e gruppo compressore, del turboalbero Allison 250 C18 sottoposto alla tecnologia del fogging. I dati sperimentali utilizzati provengono da prove sperimentali svolte da un altro tesista nel laboratorio di Propulsione e macchine della Scuola di Ingegneria e Architettura di Forlì. Grazie al modello statico, realizzato con il software MATLAB®, sono state create le principali mappe prestazionali dei singoli componenti. Queste ultime sono state poi implementate all'interno del modello dinamico realizzato con il software Simulink. Attraverso il modello dinamico, siamo stati in grado di osservare, grazie ad una struttura modulare a blocchi, l'andamento delle grandezze anche in regime transitorio, e di cambiare i parametri di inizializzazione in maniera molto rapida. Infine i dati ottenuti sono stati confrontati con i dati sperimentali e sono state effettuate valutazioni sull'utilità o meno del fogging. Entrambe le conclusioni hanno dato buoni risultati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa tesi tratta lo sviluppo di strumenti web in grado di effettuare stime di sostenibilità aziendale basate su dati secondari. Alcuni studenti di Ingegneria Gestionale hanno svolto un’analisi della sostenibilità aziendale, cercando manualmente nei siti web delle aziende alcuni indicatori chiave da loro definiti, creando un Osservatorio per alcune aziende dell’Emilia-Romagna. L'obiettivo è quello di sviluppare un software capace di eseguire automaticamente questa attività: partendo da un elenco di aziende e dagli indicatori che si vogliono cercare, il software è in grado di scaricare i siti web delle aziende e di leggerli per effettuare la ricerca degli indicatori tramite un algoritmo sviluppato ad hoc.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'analisi di questa tesi si basa sui dati ottenuti contattando direttamente le aziende produttrici e/o di progettazione e riguarda due settori energetici: la cogenerazione e il solare fotovoltaico. Nel primo si sono studiate 60 unità complete di cogenerazione il cui studio si è basato sulla costruzione di grafici che mettono in relazione le potenze uscenti con il prezzo. Si è mostrato così la forte presenza di un fenomeno di economia di scala e la diversa ripartizione della potenza prodotta. Per unità di piccola-media potenza predomina la produzione di energia termica, la quale diminuisce la sua quota percentuale all’aumentare della taglia. Nel settore del solare fotovoltaico l’analisi è stata più diversificata e articolata. Si sono analizzati 70 pannelli di cui 35 monocristallini, 14 europei e 21 asiatici, e 35 policristallini, 26 europei e 9 asiatici, per i quali si sono graficati gli andamenti di resa, potenza specifica e costo specifico. I pannelli monocristallini, intrinsecamente più efficienti grazie al maggior grado di purezza, presentano un andamento crescente dei costi piuttosto ripido anche se non proporzionale con l’aumento delle prestazioni. Tra i pannelli policristallini invece si evidenzia l’assenza di un andamento nettamente crescente delle prestazioni all’aumentare dei costi. Confrontando i moduli divisi in base alla macro-regione di produzione si nota che l’Asia produce i pannelli al Si monocristallino più efficienti e più costosi mentre pannelli al Si policristallino più economici, ma con prestazioni in linea con quelli europei.Con i dati raccolti si è potuta svolgere anche una ristretta analisi sui pannelli al film sottile. Quelli che utilizzano il Si amorfo presentano prestazioni così basse da non permettere loro una vera affermazione sul mercato. Quest’ultima si presume che sarà invece possibile per pannelli basati su diversi materiali semiconduttori che presentano buoni livelli di prestazioni, ma prezzi ancora troppo elevati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo scopo della presente tesi è lo studio e la progettazione di un sistema Hands-Free applicato in ambito Healthcare, volto ad aiutare il personale sanitario nello svolgimento delle mansioni lavorative. Il progetto, denominato Trauma Tracker, ha avuto origine grazie alla collaborazione con medici ed infermieri dell'ospedale Maurizio Bufalini di Cesena. In particolare, il sistema in prodotto si prende carico della compilazione del report finale contenente tutte le operazioni svolte sui pazienti nell'ambito del Pronto Soccorso, riducendo così notevolmente le possibilità di errori dovuti a fattori umani. Durante le fasi di sviluppo e progettazione sono state aggiunte ulteriori funzionalità al sistema, fino a farlo diventare vero e proprio oggetto incantato, in grado di esibire proprietà finora inimmaginabili in questo campo di applicazione. Trauma Tracker, almeno in queste prime fasi, non si propone come uno strumento immediatamente utilizzabile sul campo e pronto ad affiancare i medici, poiché necessiterebbe subito di qualità come robustezza ed affidabilità a livelli estremamente elevati. Per questo motivo il progetto è stato trattato come un "Proof of Concept", ossia un prototipo che ha lo scopo di dimostrare la fattibilità di tale sistema nella realtà, e di verificarne l'utilità una volta applicato in uno scenario concreto. L'argomento trattato ha quindi una grande importanza, poiché getta le basi di una tecnologia che un giorno potrà aiutare medici ed infermieri a svolgere al meglio l'impegnativo compito di salvare vite. In questa tesi, è stato approfondito in particolare il sottosistema utilizzato per il riconoscimento dei parametri vitali dal monitor multi-parametrico posto nei diversi reparti ospedalieri. Esso ha richiesto lunghe fasi di implementazione e collaudo per ottenere dei risultati soddisfacenti, che alla fine sono stati raggiunti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Agent-oriented programming (AOP) è un paradigma di programmazione che concepisce un software come insieme di agenti che possiedono caratteristiche di autonomia, proattività e che sono in grado di comunicare con altri agenti. Sebbene sia stato impiegato soprattutto nell'ambito dell'intelligenza artificiale questo tipo di programmazione si rivela utile per lo sviluppo di sistemi distribuiti riuscendo a gestire agilmente problemi di concorrenza. Lo scopo di questa tesi è analizzare le caratteristiche del paradigma e dei software basati su agenti, utilizzando come caso di studio Sarl, un linguaggio general-purpose molto recente. La parte principale del lavoro consiste nella descrizione dei modelli teorici che hanno portato alla nascita della programmazione ad agenti, in particolare del modello BDI, e dei principali framework per lo sviluppo di sistemi multi-agente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il progetto realizzato consiste in uno strumento software in grado di effettuare una conversione di file, dal formato MIDI al formato MusicXML. Il tool è il proseguimento di un’attività basata sull'analisi di reti complesse e sullo sviluppo di strumenti per la modellazione di spartiti musicali. Melodie, assoli ed in generale tracce musicali sono rappresentabili come reti complesse, in cui i nodi identificano le note del brano e gli archi mostrano le sequenze con cui queste vengono suonate. Utilizzando la teoria delle reti è possibile estrarre alcune metriche principali che caratterizzano il brano in questione. Per la generazione della rete si è fatto uso di spartiti musicali descritti tramite lo standard MusicXML. File in questo formato sono difficilmente reperibili, per cui lo strumento realizzato si propone di effettuare una conversione da formato MIDI a formato MusicXML, con l’obiettivo di ottenere un database più esteso. Attraverso il tool sono stati convertiti brani di diverso genere, le cui reti relative sono state poi analizzate applicandovi le metriche principali ed effettuando le dovute valutazioni.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La diffusione del Semantic Web e di dati semantici in formato RDF, ha creato la necessità di un meccanismo di trasformazione di tali informazioni, semplici da interpretare per una macchina, in un linguaggio naturale, di facile comprensione per l'uomo. Nella dissertazione si discuterà delle soluzioni trovate in letteratura e, nel dettaglio, di RSLT, una libreria JavaScript che cerca di risolvere questo problema, consentendo la creazione di applicazioni web in grado di eseguire queste trasformazioni tramite template dichiarativi. Verranno illustrati, inoltre, tutti i cambiamenti e tutte le modi�che introdotte nella versione 1.1 della libreria, la cui nuova funzionalit�à principale �è il supporto a SPARQL 1.0.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente elaborato si propone di analizzare i moderni sistemi d’isolamento sismico. In particolare si studiano il funzionamento e le procedure di calcolo degli isolatori a pendolo scorrevole, facendo riferimento alle prescrizioni dell’attuale normativa tecnica e si analizza l’affidabilità sismica di una struttura isolata con tali dispositivi. Nell’ottica di voler introdurre i concetti base della progettazione antisismica, nel primo capitolo, vengono descritte le origini del fenomeno sismico, per arrivare alla definizione di accelerogramma di un terremoto. Per comprendere il passaggio da accelerogramma a spettro dell’azione sismica, si introduce la dinamica dei sistemi ad un grado di libertà per poi arrivare a definire gli spettri di risposta previsti dall’attuale normativa. Nel secondo capitolo vengono illustrati gli scopi e le funzionalità dell’isolamento sismico per poi passare in rassegna le principali tipologie di dispositivi antisismici attualmente in commercio. Nel terzo capitolo si analizza nel dettaglio il funzionamento degli isolatori a pendolo scorrevole, studiandone la modellazione matematica alla base e le procedure di calcolo previste dall’Eurocodice 8 e dalle NTC 08. Nello stesso capitolo viene progettato un dispositivo di isolamento a pendolo scorrevole, secondo l'analisi lineare equivalente. Nel quarto capitolo viene illustrata l’analisi sismica effettuata dagli ingegneri Castaldo, Palazzo e Della Vecchia, dell’università di Salerno, i cui risultati sono riportati nella rivista scientifica Engeneering structures, n. 95, 2015, pp. 80-93. Lo studio è effettuato sul modello strutturale tridimensionale di un edificio in calcestruzzo armato, isolato alla base con dispositivi a pendolo scorrevole.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La salvaguardia e conservazione del Patrimonio Artistico ed Architettonico rappresentano un aspetto imprescindibile di ogni cultura, e trovano le loro fondamenta nella coscienza e conoscenza dei Beni. Il rilievo è l’operazione basilare per acquisire una conoscenza rigorosa di un oggetto nella sua geometria e in altre sue caratteristiche. Le finalità delle operazioni di rilevamento sono molteplici, dall’archiviazione a scopo di documentazione fino all’indagine conservativa volta alla diagnostica e alla progettazione di interventi. I modelli digitali, introdotti dallo sviluppo tecnologico degli ultimi decenni, permettono una perfetta conoscenza del bene, non necessitano di contatto diretto durante la fase di rilevamento e possono essere elaborati secondo le esigenze del caso. Le tecniche adottate nel Reverse Engineering si differenziano per il tipo di sensore utilizzato: quelle fotogrammetriche utilizzano sensori di tipo “passivo” e trovano oggi largo impiego nel settore dei Beni Culturali grazie agli strumenti di Structure from Motion, mentre strumenti basati su sensori di tipo “attivo” utilizzano Laser o proiezione di luce strutturata e sono in grado di rilevare con grande precisione geometrie anche molto complesse. La costruzione del modello della fontana del Nettuno e della torre Garisenda di Bologna costituiscono un valido esempio di applicazione delle tecniche di rilievo digitale, e dimostrano la validità delle stesse su oggetti di diversa dimensione in due diversi ambiti applicativi: il restauro e il monitoraggio. Gli sviluppi futuri del Reverse Engineering in questo ambito sono molteplici, e la Geomatica rappresenta senza dubbio una disciplina fondamentale per poterli realizzare.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dato il recente avvento delle tecnologie NGS, in grado di sequenziare interi genomi umani in tempi e costi ridotti, la capacità di estrarre informazioni dai dati ha un ruolo fondamentale per lo sviluppo della ricerca. Attualmente i problemi computazionali connessi a tali analisi rientrano nel topic dei Big Data, con databases contenenti svariati tipi di dati sperimentali di dimensione sempre più ampia. Questo lavoro di tesi si occupa dell'implementazione e del benchmarking dell'algoritmo QDANet PRO, sviluppato dal gruppo di Biofisica dell'Università di Bologna: il metodo consente l'elaborazione di dati ad alta dimensionalità per l'estrazione di una Signature a bassa dimensionalità di features con un'elevata performance di classificazione, mediante una pipeline d'analisi che comprende algoritmi di dimensionality reduction. Il metodo è generalizzabile anche all'analisi di dati non biologici, ma caratterizzati comunque da un elevato volume e complessità, fattori tipici dei Big Data. L'algoritmo QDANet PRO, valutando la performance di tutte le possibili coppie di features, ne stima il potere discriminante utilizzando un Naive Bayes Quadratic Classifier per poi determinarne il ranking. Una volta selezionata una soglia di performance, viene costruito un network delle features, da cui vengono determinate le componenti connesse. Ogni sottografo viene analizzato separatamente e ridotto mediante metodi basati sulla teoria dei networks fino all'estrapolazione della Signature finale. Il metodo, già precedentemente testato su alcuni datasets disponibili al gruppo di ricerca con riscontri positivi, è stato messo a confronto con i risultati ottenuti su databases omici disponibili in letteratura, i quali costituiscono un riferimento nel settore, e con algoritmi già esistenti che svolgono simili compiti. Per la riduzione dei tempi computazionali l'algoritmo è stato implementato in linguaggio C++ su HPC, con la parallelizzazione mediante librerie OpenMP delle parti più critiche.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lo scopo del presente lavoro è la realizzazione e l'ottimizzazione di un software che, tramite l'utilizzo di un controllo automatico Proporzionale-Integrativo-Derivativo: PID, gestisca la temperatura di un fornetto in camera a vuoto. È necessario che il sistema sia in grado di eseguire rampe regolari di temperatura di diversa pendenza scelta dall'utente, in modo che possa essere utilizzato in futuro per esperimenti di Desorbimento Termico da parte di vari materiali. La tesi è così suddivisa, nel primo capitolo sono illustrati i concetti teorici di base utilizzati nello sviluppo dei controlli automatici. Nel secondo capitolo è descritta la parte hardware: sono mostrate le diverse sezioni che compongono il fornetto e la camera a vuoto, è inoltre illustrato il cablaggio che permette l'interfaccia del forno alla scheda Arduino ed al software LabVIEW. La terza sezione è dedicata agli studi svolti per la realizzazione del sistema di controllo PID e per la sua ottimizzazione. Il quarto capitolo è invece dedicato alla descrizione del software creato per la gestione del fornetto. Nel quinto capitolo sono infine mostrati i metodi utilizzati per il calcolo delle costanti operative del PID ed i risultati sperimentali ottenuti.