734 resultados para Vicente Di Grado
Resumo:
La formazione del ghiaccio nelle nubi avviene prevalentemente per nucleazione eterogenea, grazie alla presenza di nuclei di ghiacciamento (Ice Nucleating Particles, INP), ovvero particelle di aerosol (prevalentemente polveri minerali) in grado di favorire la solidificazione di una gocciolina o il passaggio diretto dalla fase vapore alla fase ghiaccio. Recentemente, l'interesse si è esteso anche all'aerosol di tipo biologico (funghi, spore, etc.), in grado di agire come INP a temperature più elevate rispetto all'aerosol minerale. Il lavoro sperimentale di questa tesi, svolto presso il laboratorio del gruppo Nubi e Precipitazioni dell’ISAC-CNR di Bologna, ha avuto come obiettivo lo studio della capacità della cellulosa di agire come INP. Esso si inserisce in un’attività di ricerca internazionale dedicata allo studio degli INP (progetto Ice NUclei research unIT, INUIT, Germania). Il lavoro sperimentale ha riguardato la messa a punto di due diversi sistemi di generazione dell'aerosol di cellulosa, la caratterizzazione dimensionale delle particelle, la loro osservazione al microscopio elettronico e la preparazione dei filtri per le misure di INP. I risultati ottenuti hanno evidenziato che le proprietà nucleanti della cellulosa sono inferiori rispetto alle polveri minerali ma paragonabili ad altri materiali, come la cenere vulcania e l'aerosol marino. Quindi, in aree ricche di vegetazione o dove le polveri minerali non sono abbondanti, la cellulosa potrebbe costituire un importante materiale per la formazione del ghiaccio nelle nubi miste. Misure preliminari hanno evidenziato come le particelle di cellulosa con dimensioni inferiori a 0,5μm risultano meno attive nella nucleazione del ghiaccio rispetto a quelle di dimensioni maggiori. I risultati ottenuti sono stati presentati al Congresso PM2016 (Roma, 17-19 maggio 2016) e saranno presentati in un poster alla prossima European Aerosol Conference (Tours, Francia, 4-6 settembre 2016).
Resumo:
Lo scopo della tesi è creare un’architettura in FPGA in grado di ricavare informazioni 3D da una coppia di sensori stereo. La pipeline è stata realizzata utilizzando il System-on-Chip Zynq, che permette una stretta interazione tra la parte hardware realizzata in FPGA e la CPU. Dopo uno studio preliminare degli strumenti hardware e software, è stata realizzata l’architettura base per la scrittura e la lettura di immagini nella memoria DDR dello Zynq. In seguito l’attenzione si è spostata sull’implementazione di algoritmi stereo (rettificazione e stereo matching) su FPGA e nella realizzazione di una pipeline in grado di ricavare accurate mappe di disparità in tempo reale acquisendo le immagini da una camera stereo.
Resumo:
In questa tesi, viene illustrato un metodo risolutivo al problema dell’allocazione e schedulazione, su risorse eterogenee con capacità unaria rinnovabile e cumulativa non rinnovabile, di applicazioni multitask periodiche, con periodi in relazione armonica, strutturate in attività indipendenti o sottoposte a vincoli di precedenza e con durate dipendenti dalla specifica risorsa di allocazione. L’obiettivo è quello di fornire un’implementazione del modello in grado di gestire l’allocazione e la schedulazione di istanze (i.e. insieme di applicazioni) variabili, caratterizzate da una serie di parametri. La struttura implementativa, realizzata secondo la Logic-based Benders decomposition, prevede la suddivisione del problema in due moduli. Il primo in grado di generare un’allocazione e realizzato con tecniche di programmazione lineare intera mista, il secondo con lo scopo di controllare l’ammissibilità di tale allocazione attraverso una schedulazione ottima e realizzato mediante tecniche di programmazione a vincoli. Il meccanismo di comunicazione tra i due moduli avviene mediante vincoli lineari, denominati tagli di Benders, che vengono aggiunti dopo ogni iterazione del sistema. L’efficacia del modello sarà valutata confrontando i risultati ottenuti attraverso una serie di test, con i valori forniti da un metodo di allocazione e schedulazione alternativo.
Resumo:
Il lavoro presentato in questo elaborato tratterà lo sviluppo di un sistema di alerting che consenta di monitorare proattivamente una o più sorgenti dati aziendali, segnalando le eventuali condizioni di irregolarità rilevate; questo verrà incluso all'interno di sistemi già esistenti dedicati all'analisi dei dati e alla pianificazione, ovvero i cosiddetti Decision Support Systems. Un sistema di supporto alle decisioni è in grado di fornire chiare informazioni per tutta la gestione dell'impresa, misurandone le performance e fornendo proiezioni sugli andamenti futuri. Questi sistemi vengono catalogati all'interno del più ampio ambito della Business Intelligence, che sottintende l'insieme di metodologie in grado di trasformare i dati di business in informazioni utili al processo decisionale. L'intero lavoro di tesi è stato svolto durante un periodo di tirocinio svolto presso Iconsulting S.p.A., IT System Integrator bolognese specializzato principalmente nello sviluppo di progetti di Business Intelligence, Enterprise Data Warehouse e Corporate Performance Management. Il software che verrà illustrato in questo elaborato è stato realizzato per essere collocato all'interno di un contesto più ampio, per rispondere ai requisiti di un cliente multinazionale leader nel settore della telefonia mobile e fissa.
Resumo:
Sono dette “challenged networks” quelle reti in cui lunghi ritardi, frequenti partizionamenti e interruzioni, elevati tassi di errore e di perdita non consentono l’impiego dei classici protocolli di comunicazione di Internet, in particolare il TCP/IP. Il Delay-/Disruption-Tolerant Networking (DTN) è una soluzione per il trasferimento di dati attraverso queste reti. L’architettura DTN prevede l’introduzione, sopra il livello di trasporto, del cosiddetto “bundle layer”, che si occupa di veicolare messaggi, o bundle, secondo l’approccio store-and-forward: ogni nodo DTN conserva persistentemente un bundle finché non si presenta l’opportunità di inoltrarlo al nodo successivo verso la destinazione. Il protocollo impiegato nel bundle layer è il Bundle Protocol, le cui principali implementazioni sono tre: DTN2, l’implementazione di riferimento; ION, sviluppata da NASA-JPL e più orientata alle comunicazioni spaziali; IBR-DTN, rivolta soprattutto a dispositivi embedded. Ciascuna di esse offre API che consentono la scrittura di applicazioni in grado di inviare e ricevere bundle. DTNperf è uno strumento progettato per la valutazione delle prestazioni in ambito DTN. La più recente iterazione, DTNperf_3, è compatibile sia con DTN2 che con ION nella stessa versione del programma, grazie all’introduzione di un “Abstraction Layer” che fornisce un’unica interfaccia per l’interazione con le diverse implementazioni del Bundle Protocol e che solo internamente si occupa di invocare le API specifiche dell’implementazione attiva. Obiettivo della tesi è estendere l’Abstraction Layer affinché supporti anche IBR-DTN, cosicché DTNperf_3 possa essere impiegato indifferentemente su DTN2, ION e IBR DTN. Il lavoro sarà ripartito su tre fasi: nella prima esploreremo IBR DTN e le sue API; nella seconda procederemo all’effettiva estensione dell’Abstraction Layer; nella terza verificheremo il funzionamento di DTNperf a seguito delle modifiche, sia in ambiente esclusivamente IBR-DTN, sia ibrido.
Resumo:
Progettazione di dettaglio di un banco di prova per testare sistemi ADCS per CubeSat: Alma Test-Bed. Ci si è concentrati sul progetto di un primo nucleo di AlmaTB in grado di testare il controllo di tipo magnetico. Fanno parte di AlmaTB una gabbia di Helmholtz, un air-bearing system, un CubeSat di test, un metrology system. La gabbia di Helmholtz è un apparato costituito da tre coppie di bobine, una per ogni asse spaziale, che serve ad annullare il campo magnetico locale e simulare quello che si troverà in orbita attorno alla Terra. Un software ricava i dati del campo magnetico terrestre da modello IGRF a determinate coordinate e quota e fornisce agli alimentatori del set di bobine l'indicazione della corrente da distribuire. L'air-bearing system è un cuscinetto d'aria generato da un compressore che serve a ricreare le caratteristiche condizioni dell'ambiente spaziale di microgravità e attrito quasi-zero. Il CubeSat di test sarà montato su questo sistema. Il CubeSat di test, nella prima versione di AlmaTB, contiene i sensori e gli attuatori di tipo magnetico per determinare e controllare l'assetto di un nanosatellite. Il magnetometro presente all'interno è utilizzato anche come controllo del funzionamento della gabbia di Helmholtz. Il metrology system traccia i movimenti e l'inclinazione del CubeSat. Questo fornisce il riferimento di assetto vero, in modo da capire se il sistema ADCS lavora correttamente. Una volta che il banco di prova sarà completato e operativo sarà possibile testare algoritmi di determinazione e controllo di assetto che utilizzano diversi dispositivi tra sensori e attuatori disponibili nel mock-up. Su una workstation sono installati i software di controllo ed elaborazione dati. Si è scelto di procedere con un approccio di tipo "chiavi in mano", cioè scegliendo, quando disponibile, sistemi già completi e disponibili sul mercato. La prima versione di AlmaTB nasce dall'importante, vasto lavoro di matching tra i diversi apparati.
Resumo:
Come nascono le emozioni? Come modificano il nostro organismo? Perché nell'epoca moderna non siamo più in grado do condividere il nostro stato emotivo? Ecco alcune domande alle quali Laura Esquivel risponde mediante El libro de las emociones. Leggendolo sarà come fare un viaggio virtuale attraverso il magico, e al contempo, complesso mondo emotivo. L’autrice ci prende per mano e ci guida in un percorso che accenderà la nostra curiosità consentendoci di ampliare il nostro bagaglio culturale. Dalla scienza alla storia, dalla letteratura al cinema, Laura Esquivel ci farà da cicerone alla scoperta, anzi alla riscoperta della parte più intima e nascosta dell’essere umano. Grazie a questo cammino, capiremo che ritornando a prenderci cura del nostro lato irrazionale per antonomasia, potremmo forse, finalmente, abbattere egoismo, individualismo, competizione, arcigni nemici della condivisione e dello stare insieme. Questo elaborato ha come oggetto El libro de las emociones, saggio della scrittrice messicana Laura Esquivel. Nella prima parte, dopo una breve introduzione e una concisa presentazione dell’autrice, questa tesi si propone di analizzare il suddetto saggio e il proprio paratesto; successivamente vi è la mia personale proposta di traduzione del primo capitolo dell’opera e il commento alla proposta di traduzione. Infine, chiudono l’elaborato la scheda di presentazione editoriale de El libro de las emociones e le conclusioni.
Il modello di argomentazione di Toulmin nell’attivitá matematica degli studenti di scuola secondaria
Resumo:
Lo studio decritto in questo progetto di tesi ha avuto origine dalla volontà di analizzare l’atteggiamento di studenti di scuola superiore di I e II grado rispetto alla richiesta di fornire argomentazioni, di giustificare affermazioni o risultati ottenuti in ambito matematico. L’analisi quantitativa dei dati ottenuti sottoponendo gli studenti ad un questionario costituito da quesiti scelti in ambiti differenti tra le prove Invalsi ha evidenziato che solo una parte (36% per le superiori di I grado, 59% per le superiori di II grado) degli studenti che hanno risposto correttamente ai quesiti, è stata in grado di argomentare la risposta. L’analisi è stata a questo punto approfondita sulla base del modello di Toulmin e delle componenti del processo di argomentazione da lui descritte. Si è valutato per ogni argomentazione in quale o quali delle componenti toulminiane si sia concentrato l’errore. Ogni argomentazione considerata errata può infatti contenere errori differenti che possono riguardare una soltanto, diverse o tutte e quattro le componenti di Backing, Warrant, Data e Conclusion. L’informazione che ne è emersa è che nella maggioranza dei casi il fatto che uno studente di scuola superiore non riesca ad argomentare adeguatamente un’affermazione dipende dal richiamo errato di conoscenze sull'oggetto dell'argomentazione stessa ("Warrant" e "Backing"), conoscenze che dovrebbero supportare i passi di ragionamento. Si è infine condotta un’indagine sul terreno logico e linguistico dei passi di ragionamento degli studenti e della loro concatenazione, in modo particolare attraverso l’analisi dell’uso dei connettivi linguistici che esprimono e permettono le inferenze, e della padronanza logica delle concatenazioni linguistiche. Si è osservato per quanto riguarda le scuole superiori di I grado, che le difficoltà di argomentazione dovute anche a scarsa padronanza del linguaggio sono circa l’8% del totale; per le scuole superiori di II grado questa percentuale scende al 6%.
Resumo:
Questo lavoro di tesi si inserisce all’interno del progetto di ricerca LAUPER in cui sono coinvolte le sezioni INFN di Ferrara e Bologna. Il progetto LAUPER, acronimo per LAUe-PEak Radiotherapy, ha come scopo lo studio di fattibilità di un prototipo di lente di Laue in grado di focalizzare fasci di raggi X con energie dell’ordine di 100 keV per possibili applicazioni in ambito radioterapico. Sfruttando fasci di raggi X, caratterizzati da energie inferiori a quelle che contraddistinguono le usuali tecniche radioterapiche e focalizzati mediante una lente di Laue, si cerca di ottimizzare il rapporto fra la dose sul target tumorale e la dose sui tessuti sani. Questa tesi, nello specifico, descrive i dati ottenuti dai primi test effettuati con due prototipi di lente di Laue, caratterizzati da un differente numero di cristalli e da una loro diversa disposizione sulla lente. Dall’analisi delle misure effettuate si evince come effettivamente i prototipi siano in grado di focalizzare fasci di raggi X con energie dell’ordine di 100 keV. Tuttavia uno dei due prototipi ha evidenziato delle problematiche relative alla diffrazione causata dalla struttura di supporto dei cristalli, che non è stato possibile schermare adeguatamente. I prossimi passi del progetto LAUPER consistono quindi nella risoluzione di questo problema con la realizzazione di nuovi prototipi, caratterizzati da un diverso tipo di supporto. Con quest’ultimi verranno anche effettuati test dosimetrici in modo da costruire le curve di dose in funzione della profondità in materiali tessuto-equivalenti.
Resumo:
Obiettivo della tesi è la realizzazione di un dispositivo in grado di riprodurre il sistema del pendolo inverso e di trovare soluzioni vicine alla posizione di equilibrio stabile. Verranno ricavate le equazioni del moto che descrivono il sistema attraverso la meccanica Lagrangiana. Una volta integrate numericamente le equazioni, si procederà con la ricerca di una funzione di controllo per mantenere in equilibrio il sistema: l'efficacia della soluzione verrà valutata graficamente, senza approfondire l'approccio proveniente dalla teoria del controllo che ne è alla base. Infine il sistema verrà realizzato praticamente ed utilizzeremo le stesse funzioni studiate in precedenza.
Resumo:
Le fermentazioni spontanee nei salami sono un fenomeno molto complesso in cui si assiste ad una successione di diverse popolazioni microbiche (micrococchi, stafilococchi e batteri lattici), avente ognuna un ruolo importante nell’ottenimento delle qualità desiderate del prodotto finale. Questo susseguirsi vorticoso di popolazioni microbiche nelle fermentazioni spontanee viene ormai regolamentato dall’uso di colture starter che, aggiunte in quantità idonee immediatamente prima dell’insaccamento, contribuiscono in maniera essenziale ad un rapido, corretto (e soprattutto sicuro) processo di fermentazione prima e di disidratazione poi. Poiché però l’impiego di starter segue spesso protocolli indifferenziati, è importante la selezione di colture starter “taylor made”, in grado di differenziare i prodotti in maniera riconoscibile con l’apporto di specifici tratti organolettici e sensoriali. Dunque, con questo elaborato di tesi si è voluto procedere alla raccolta di potenziali colture starter provenienti da diversi salami della tradizione mediterranea (salame di tipo bresciano, romagnolo e lucano), fermentati spontaneamente. Questi prodotti sono stati dapprima caratterizzati per quanto riguarda le loro caratteristiche microbiologiche, chimico-fisiche, profilo aromatico e il loro contenuto in ammine biogene. Successivamente, in particolare per il salame di tipo bresciano, sono stati isolati ceppi di interesse dalla popolazione lattica, poi identificati e testati per alcune caratteristiche di interesse tecnologico (capacità di produrre ammine biogene e profilo aromatico). I ceppi riscontrati, appartenenti alle specie Lactobacillus sakei e Lactobacillus curvatus, hanno mostrato una notevole biodiversità, soprattutto per quanto riguarda la produzione di molecole aromatiche, e quindi una notevole capacità, anche nell’ambito della stessa specie, di modulare la produzione di composti molto importanti dal punto di vista organolettico.
Resumo:
Le alte pressioni di omogeneizzazione sono considerate una tecnologia non termica basata sull’applicazione di pressioni comprese tra 60 e 400 MPa ad alimenti fluidi o fluidificabili, con un tempo di trattamento di pochi millisecondi. Questa tecnologia permette di ottenere una serie di effetti sull’alimento che variano in rapporto all’entità del trattamento applicato e alla matrice fluida considerata. Pertanto, le alte pressioni di omogeneizzazione rappresentano una delle tecnologie maggiormente studiate in ragione delle loro buone opportunità applicative a livello industriale. Tale tecnologia viene comunemente applicata per modificare le proprietà funzionali di alcune macromolecole caratteristiche degli alimenti ed ha permesso l’ottenimento di prodotti di origine lattiero-casearia ed anche succhi di frutta caratterizzati da migliore texture, gusto, flavour e aumentata shelf-life. L’omogeneizzazione ad alta pressione, considerata come trattamento di sanitizzazione a freddo, è in grado di disattivare sia microrganismi patogeni che degradativi presenti in un determinato sistema, contribuendo a ridurre o contenere quindi lo sviluppo microbico nei prodotti alimentari. L’effetto di tale tecnologia, quando applicata a livelli compresi tra 60-200 MPa bar è stato valutato nei confronti di diversi patogeni quali Escherichia coli, Listeria monocytogenes, Yersinia enterocolitica, Staphylococcus aureus, Salmonella typhimurium microrganismi degradativi, come Bacillus subtilis e lieviti, deliberatamente inoculati in prodotti diversi.
Resumo:
L'energia idroelettrica è una fonte di energia alternativa e rinnovabile che sfrutta il moto dell'acqua, generato grazie all'energia potenziale presente tra due bacini posti a quote diverse per convertire l'energia meccanica in elettrica attraverso un alternatore collegato a turbina. Gli impianti si classificano in: impianti ad acqua fluente, a deflusso regolato, ad accumulo tramite pompaggio. Le turbine idrauliche sono quei dispositivi meccanici in grado di convertire l'energia cinetica in energia meccanica. Fra tutte studieremo la Pelton, la Francis e la Kaplan e i loro criteri di scelta. I grandi impianti hanno un notevole impatto ambientale, ecco perché la nuova tecnologia si basa sul mini idroelettrico; quest'ultimo dal punto di vista economico è competitivo rispetto alle altre fonti rinnovabili ed ai combustibili fossili.
Resumo:
La presente ricerca tratta lo studio delle basi di conoscenza, volto a facilitare la raccolta, l'organizzazione e la distribuzione della conoscenza. La scelta dell’oggetto è dovuta all'importanza sempre maggiore acquisita da questo ambito di ricerca e all'innovazione che esso è in grado di apportare nel campo del Web semantico. Viene analizzata la base di conoscenza YAGO: se ne descrivono lo stato dell’arte, le applicazioni e i progetti per sviluppi futuri. Il lavoro è stato condotto esaminando le pubblicazioni relative al tema e rappresenta una risorsa in lingua italiana sull'argomento.
Resumo:
In questa tesi si discutono inizialmente i concetti chiave di agente e sistema multi-agente e si descrivono in ogni dettaglio il linguaggio di programmazione AgentSpeak(L) e la piattaforma Jason, fornendo le basi per poter programmare con il paradigma AOP. Lo scopo centrale di questa tesi è quello di estendere il modello di pianificazione dell’interprete di AgentSpeak(L), considerato come caso specifico, con un approccio che può essere integrato in qualsiasi linguaggio di programmazione ad agenti. Si espone un’evoluzione di AgentSpeak(L) in AgentSpeak(PL), ossia la creazione ed esecuzione di piani automatici in caso di fallimento attraverso l'uso di un algoritmo di planning state-space. L'approccio integrativo modifica il Ciclo di Reasoning di Jason proponendo in fase di pianificazione automatica un riuso di piani già esistenti, atto a favorire la riduzione di tempi e costi nel long-term in un sistema multi-agente. Nel primo capitolo si discute della nozione di agente e delle sue caratteristiche principali mentre nel secondo capitolo come avviene la vera e propria programmazione con AgentSpeak(L). Avendo approfondito questi argomenti base, il terzo capitolo è incentrato sull’interprete Jason e il quarto su una migliore estensione dell'interprete, in grado di superare i limiti migliorando le performance nel tempo. Si delineano infine alcune considerazioni e ringraziamenti nel quinto e ultimo capitolo. Viene proposta con scrittura di carattere divulgativo e non ambiguo.