39 resultados para ON-SI

em AMS Tesi di Laurea - Alm@DL - Università di Bologna


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Due to the high price of natural oil and harmful effects of its usage, as the increase in emission of greenhouse gases, the industry focused in searching of sustainable types of the raw materials for production of chemicals. Ethanol, produced by fermentation of sugars, is one of the more interesting renewable materials for chemical manufacturing. There are numerous applications for the conversion of ethanol into commodity chemicals. In particular, the production of 1,3-butadiene whose primary source is ethanol using multifunctional catalysts is attractive. With the 25% of world rubber manufacturers utilizing 1,3-butadiene, there is an exigent need for its sustainable production. In this research, the conversion of ethanol in one-step process to 1,3-butadiene was studied. According to the literature, the mechanisms which were proposed to explain the way ethanol transforms into butadiene require to have both acid and basic sites. But still, there are a lot of debate on this topic. Thus, the aim of this research work is a better understanding of the reaction pathways with all the possible intermediates and products which lead to the formation of butadiene from ethanol. The particular interests represent the catalysts, based on different ratio Mg/Si in comparison to bare magnesia and silica oxides, in order to identify a good combination of acid/basic sites for the adsorption and conversion of ethanol. Usage of spectroscopictechniques are important to extract information that could be helpful for understanding the processes on the molecular level. The diffuse reflectance infrared spectroscopy coupled to mass spectrometry (DRIFT-MS) was used to study the surface composition of the catalysts during the adsorption of ethanol and its transformation during the temperature program. Whereas, mass spectrometry was used to monitor the desorbed products. The set of studied materials include MgO, Mg/Si=0.1, Mg/Si=2, Mg/Si=3, Mg/Si=9 and SiO2 which were also characterized by means of surface area measurements.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Depuis mon arrivée en Italie j’ai été frappée par les grandes différences qui existent entre les expressions figées et idiomatiques dans les deux langues que sont le français et l’Italien. Etant d’expression francophone, et inscrite à la faculté de langue et de traduction, il m’a été donné de constater que j’avais de grandes difficultés à traduire les expressions figées d’une langue à une autre. Et plus encore il était très difficile de leur trouver des définitions et expressions équivalentes. Fort de ce constat, je me suis intéressée à la possibilité d’analyse des expressions figées du français à l’Italien à travers l’ouvrage de Gaston Gross paru aux éditions OPHRYS, 1996, sous le titre : Les expressions figées en français. Noms composés et autres locutions. Cet ouvrage constitue une avancée importante dans les études et les recherches sur la médiation linguistique et rejoint donc notre domaine de compétence. A travers cette analyse il s’agira de se poser la question fondamentale : Qu’est-ce qu’une expression figée ? Quelles sont ses représentations et ses évolutions dans cet ouvrage et comment s’effectuent son passage et ses transformations d’une langue à une autre ? Pour être plus précis, dans notre cas, comment pouvons-nous établir le passage des expressions figés du français à l’Italien dans cet ouvrage de Gaston Gross ? En répondant à ces questions, nous partons sur la base de l’hypothèse que les expressions figées constituent une richesse dans une langue et sont difficilement traductibles dans une autre langue sans en perdre la richesse et la teneur, lors de ce processus. Notre travail consistera donc à vérifier cette hypothèse.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi tratta l'analisi della rugosità della superficie di frattura di un materiale policristallino portato a rottura secondo il modo I. Il continuo viene discretizzato con la tassellazione di Voronoi e la duale triangolazione di Delaunay, da cui si ottiene un traliccio equivalente ovvero il modello del problema. Viene poi effettuata un'analisi elastica incrementale che porta, ad ogni passo, al raggiungimento della soglia di rottura per un elemento del traliccio, delineando così il profilo di rottura. La rugosità del profilo di rottura viene stimata attraverso il calcolo dell'esponente di Hurst, ottenuto dallo studio della funzione di correlazione delle altezze.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cambiamenti di habitat in ambienti marini: uno studio sperimentale sulla perdita di foreste a Cystoseira barbata (Stackhouse) C. Agardh e sui popolamenti che le sostituiscono La presente tesi affronta il tema scientifico generale di come prevedere e mitigare la perdita di habitat marini naturali causata dalle attività umane. La tesi si è focalizzata sugli habitat subtidali a “canopy” formati da macroalghe brune a tallo eretto dell’ordine Fucales, che per morfologia, ruolo ed importanza ecologica possono essere paragonate alle “foreste” in ambienti terrestri temperati. Questi sistemi sono tra i più produttivi in ambienti marini, e sono coinvolti in importanti processi ecologici, offrendo cibo, protezione, riparo ed ancoraggio a diverse altre specie animali e vegetali, modificando i gradienti naturali di luce, sedimentazione e idrodinamismo, e partecipando al ciclo dei nutrienti. Sulle coste temperate di tutto il mondo, le foreste di macroalghe a canopy sono in forte regressione su scala locale, regionale e globale. Questo fenomeno, che sta accelerando a un ritmo sempre più allarmante, sta sollevando interesse e preoccupazione. Infatti, data la loro importanza, la perdita di questi habitat può avere importanti conseguenze ecologiche ed economiche, tra cui anche il possibile declino della pesca che è stato osservato in alcune aree in seguito alla conseguente riduzione della produttività complessiva dei sistemi marini costieri. Nel Mar Mediterraneo questi tipi di habitat sono originati prevalentemente da alghe appartenenti al genere Cystoseira, che sono segnalate in forte regressione in molte regioni. Gli habitat a Cystoseira che ancora persistono continuano ad essere minacciati da una sineregia di impatti antropici, ed i benefici complessivi delle misure di protezione fin ora attuate sono relativamente scarsi. Scopo della presente tesi era quello di documentare la perdita di habitat a Cystoseira (prevalentemente Cystoseira barbata (Stackhouse) C. Agardh) lungo le coste del Monte Conero (Mar Adriatico centrale, Italia), e chiarire alcuni dei possibili meccanismi alla base di tale perdita. Studi precedentemente condotti nell’area di studio avevano evidenziato importanti cambiamenti nella composizione floristica e della distribuzione di habitat a Cystoseira in quest’area, e avevano suggerito che la scarsa capacità di recupero di questi sistemi potesse essere regolata da interazioni tra Cystoseira e le nuove specie dominanti sui substrati lasciati liberi dalla perdita di Cystoseira. Attraverso ripetute mappature dell’habitat condotte a partire da Luglio 2008 fino a Giugno 2010, ho documentato la perdita progressiva delle poche, e sempre più frammentate, patch di habitat originate da questa specie in due siti chiamati La Vela e Due Sorelle. Attraverso successivi esperimenti, ho poi evidenziato le interazioni ecologiche tra le specie dominanti coinvolte in questi cambiamenti di habitat, al fine di identificare possibili meccanismi di feedback che possano facilitare la persistenza di ciascun habitat o, viceversa, l’insediamento di habitat alternativi. La mappatura dell’habitat ha mostrato un chiaro declino della copertura, della densità e della dimensione degli habitat a Cystoseira (rappresentati soprattutto dalla specie C. barbata e occasionalmente C. compressa che però non è stata inclusa nei successivi esperimenti, d’ora in avanti per semplicità verrà utilizzato unicamente il termine Cystoseira per indicare questo habitat) durante il periodo di studio. Nel sito Due Sorelle le canopy a Cystoseira sono virtualmente scomparse, mentre a La Vela sono rimaste poche, sporadiche ed isolate chiazze di Cystoseira. Questi habitat a canopy sono stati sostituiti da nuovi habitat più semplici, tra cui soprattutto letti di mitili, feltri algali e stand monospecifici di Gracilaira spp.. La mappatura dell’habitat ha inoltre sottolineato una diminuzione del potenziale di recupero del sistema con un chiaro declino del reclutamento di Cystoseira durante tutto il periodo di studio. Successivamente ho testato se: 1) una volta perse, il recupero di Cystoseira (reclutamento) possa essere influenzato dalle interazioni con le nuove specie dominanti, quali mitili e feltri algali; 2) il reclutamento di mitili direttamente sulle fronde di Cystoseira (sia talli allo stadio adulto che giovanili) possa influenzare la sopravvivenza e la crescita della macroalga; 3) la sopravvivenza e la crescita delle nuove specie dominanti, in particolare mitili, possa essere rallentata dalla presenza di canopy di Cystoseira. I risultati dimostrano che le nuove specie dominanti insediatesi (feltri algali e mitili), possono inibire il reclutamento di Cystoseira, accelerandone il conseguente declino. L’effetto diretto dei mitili sulle fronde non è risultato particolarmente significativo né per la sopravvivenza di Cystoseira che finora non è risultata preclusa in nessun stadio di sviluppo, né per la crescita, che nel caso di individui adulti è risultata leggermente, ma non significativamente, più elevata per le fronde pulite dai mitili, mentre è stato osservato il contrario per i giovanili. La presenza di canopy a Cystoseira, anche se di piccole dimensioni, ha limitato la sopravvivenza di mitili. Questi risultati complessivamente suggeriscono che una foresta di macroalghe in buone condizioni può avere un meccanismo di autoregolazione in grado di facilitare la propria persistenza. Quando però il sistema inizia a degradarsi e a frammentarsi progressivamente, i cambiamenti delle condizioni biotiche determinati dall’aumento di nuove specie dominanti contribuiscono alla mancanza di capacità di recupero del sistema. Pertanto le strategie per una gestione sostenibile di questi sistemi dovrebbero focalizzarsi sui primi segnali di cambiamenti in questo habitat e sui possibili fattori che ne mantengono la resilienza.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La crescente attenzione verso un utilizzo attento, sostenibile ed economicamente efficiente della risorsa idrica rende di primaria importanza il tema delle perdite idriche e della gestione efficiente dei sistemi idrici. La richiesta di controlli dell’uso dell’acqua è stata avanzata a livello mondiale. Il problema delle perdite idriche nei Paesi industrializzati è stato così affrontato con specifiche normative e procedure di best practice gestionale per avanzare una valutazione delle perdite idriche e una limitazione degli sprechi e degli usi impropri. In quest’ambito, la pressione gioca un ruolo fondamentale nella regolazione delle perdite reali. La regolazione delle pressioni nelle diverse ore del giorno consente, infatti, di poter agire su queste ultime perdite, che aumentano all’aumentare della pressione secondo una cosiddetta legge di potenza. La motivazione della presente tesi è originata dalla necessità di quantificare il livello di perdita idrica in un sistema acquedottistico in relazione alla pressione all’interno del sistema stesso. Per avere una stima realistica che vada al di là della legge della foronomia, si vuole valutare l’influenza della deformabilità della condotta in pressione fessurata sull’entità delle perdite idriche, con particolare attenzione alle fessurazioni di tipo longitudinale. Tale studio è condotto tramite l’introduzione di un semplice modello di trave alla Winkler grazie al quale, attraverso un’analisi elastica, si descrive il comportamento di una generica condotta fessurata longitudinalmente e si valuta la quantità d’acqua perduta. I risultati ottenuti in condizioni specifiche della condotta (tipo di materiale, caratteristiche geometriche dei tubi e delle fessure, etc.) e mediante l’inserimento di opportuni parametri nel modello, calibrati sui risultati forniti da una raffinata modellazione tridimensionale agli elementi finiti delle medesime condotte, verranno poi confrontati con i risultati di alcune campagne sperimentali. Gli obiettivi del presente lavoro sono, quindi, la descrizione e la valutazione del modello di trave introdotto, per stabilire se esso, nonostante la sua semplicità, sia effettivamente in grado di riprodurre, in maniera realistica, la situazione che si potrebbe verificare nel caso di tubo fessurato longitudinalmente e di fornire risultati attendibili per lo studio delle perdite idriche. Nella prima parte verrà approfondito il problema della perdite idriche. Nella seconda parte si illustrerà il semplice modello di trave su suolo elastico adottato per l’analisi delle condotte in pressione fessurate, dopo alcuni cenni teorici ai quali si è fatto riferimento per la realizzazione del modello stesso. Successivamente, nella terza parte, si procederà alla calibrazione del modello, tramite il confronto con i risultati forniti da un’analisi tridimensionale agli elementi finiti. Infine nella quarta parte verrà ricavata la relazione flusso-pressione con particolare attenzione all’esponente di perdita, il cui valore risulterà superiore a quello predetto dalla teoria della foronomia, e verrà verificata l’effettiva validità del modello tramite un confronto con i risultati sperimentali di cui è stata fatta menzione in precedenza.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il seguente lavoro di tesi tratta l'argomento delle aste in modo tecnico, ovvero cerca di descriverne i modelli e le caratteristiche principali, spesso ignorate dagli stessi fruitori. Nel capitolo 1 si introduce brevemente il concetto di asta, descrivendone i principali elementi costitutivi. Si ripercorrono poi le origini di questa procedura ed alcuni suoi utilizzi. Nel capitolo 2 si presentano inizialmente le principali tipologie di aste conosciute e si accenna al processo di valutazione dell'oggetto d'asta. Si introduce poi il concetto di Private Value, analizzandolo per ogni tipo di asta e confrontando queste sotto l'aspetto della rendita. Si enuncia in seguito un principio fondamentale, quale quello dell'equivalenza delle rendite, rilassandone alcuni assunti basilari. Infine si passa al concetto di valori interdipendenti all'interno delle aste, valutandone equilibri, rendite ed efficienza, accennando nel contempo al problema denominato Winner's curse. Nel capitolo 3 si parla dei meccanismi di asta online, ponendo l'attenzione su un loro aspetto importante, ovvero la veridicità, ed analizzandoli attraverso l'analisi del caso peggiore e del caso medio in alcuni esempi costruiti ad-hoc. Nel capitolo 4 si descrivono in particolare le sponsored search auctions, narrandone inizialmente la storia, e successivamente passando all'analisi di equilibri, rendite ed efficienza; si presenta, infine, un modello di tali aste mettendone in rapporto la computabilità con quella dei meccanismi offline conosciuti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il lavoro presentato in questa tesi si colloca nel contesto della programmazione con vincoli, un paradigma per modellare e risolvere problemi di ricerca combinatoria che richiedono di trovare soluzioni in presenza di vincoli. Una vasta parte di questi problemi trova naturale formulazione attraverso il linguaggio delle variabili insiemistiche. Dal momento che il dominio di tali variabili può essere esponenziale nel numero di elementi, una rappresentazione esplicita è spesso non praticabile. Recenti studi si sono quindi focalizzati nel trovare modi efficienti per rappresentare tali variabili. Pertanto si è soliti rappresentare questi domini mediante l'uso di approssimazioni definite tramite intervalli (d'ora in poi rappresentazioni), specificati da un limite inferiore e un limite superiore secondo un'appropriata relazione d'ordine. La recente evoluzione della ricerca sulla programmazione con vincoli sugli insiemi ha chiaramente indicato che la combinazione di diverse rappresentazioni permette di raggiungere prestazioni di ordini di grandezza superiori rispetto alle tradizionali tecniche di codifica. Numerose proposte sono state fatte volgendosi in questa direzione. Questi lavori si differenziano su come è mantenuta la coerenza tra le diverse rappresentazioni e su come i vincoli vengono propagati al fine di ridurre lo spazio di ricerca. Sfortunatamente non esiste alcun strumento formale per paragonare queste combinazioni. Il principale obiettivo di questo lavoro è quello di fornire tale strumento, nel quale definiamo precisamente la nozione di combinazione di rappresentazioni facendo emergere gli aspetti comuni che hanno caratterizzato i lavori precedenti. In particolare identifichiamo due tipi possibili di combinazioni, una forte ed una debole, definendo le nozioni di coerenza agli estremi sui vincoli e sincronizzazione tra rappresentazioni. Il nostro studio propone alcune interessanti intuizioni sulle combinazioni esistenti, evidenziandone i limiti e svelando alcune sorprese. Inoltre forniamo un'analisi di complessità della sincronizzazione tra minlex, una rappresentazione in grado di propagare in maniera ottimale vincoli lessicografici, e le principali rappresentazioni esistenti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questa dissertazione esamina le sfide e i limiti che gli algoritmi di analisi di grafi incontrano in architetture distribuite costituite da personal computer. In particolare, analizza il comportamento dell'algoritmo del PageRank così come implementato in una popolare libreria C++ di analisi di grafi distribuiti, la Parallel Boost Graph Library (Parallel BGL). I risultati qui presentati mostrano che il modello di programmazione parallela Bulk Synchronous Parallel è inadatto all'implementazione efficiente del PageRank su cluster costituiti da personal computer. L'implementazione analizzata ha infatti evidenziato una scalabilità negativa, il tempo di esecuzione dell'algoritmo aumenta linearmente in funzione del numero di processori. Questi risultati sono stati ottenuti lanciando l'algoritmo del PageRank della Parallel BGL su un cluster di 43 PC dual-core con 2GB di RAM l'uno, usando diversi grafi scelti in modo da facilitare l'identificazione delle variabili che influenzano la scalabilità. Grafi rappresentanti modelli diversi hanno dato risultati differenti, mostrando che c'è una relazione tra il coefficiente di clustering e l'inclinazione della retta che rappresenta il tempo in funzione del numero di processori. Ad esempio, i grafi Erdős–Rényi, aventi un basso coefficiente di clustering, hanno rappresentato il caso peggiore nei test del PageRank, mentre i grafi Small-World, aventi un alto coefficiente di clustering, hanno rappresentato il caso migliore. Anche le dimensioni del grafo hanno mostrato un'influenza sul tempo di esecuzione particolarmente interessante. Infatti, si è mostrato che la relazione tra il numero di nodi e il numero di archi determina il tempo totale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La ricerca è collocata nell’ambito del progetto europeo “GREEN AIR” (7FP – Transport) che è finalizzato alla produzione di idrogeno a bordo di aerei mediante deidrogenazione catalitica di cherosene avio. La deidrogenazione di molecole organiche volta alla produzione di idrogeno è una reazione poco studiata; in letteratura sono presenti solo esempi di deidrogenazione di molecole singole, tipicamente a basso peso molecolare, per la produzione di olefine. Già per questi substrati la conduzione della reazione risulta molto complessa, quindi l’impiego di frazioni di combustibili reali rende ancora più problematica le gestione del processo. L’individuazione dei parametri operativi e della corretta formulazione del catalizzatore possono essere definiti accuratamente solo dopo un approfondito studio dei meccanismi di reazione e di disattivazione. Pertanto questo lavoro ha come obiettivo lo studio di questi meccanismi partendo da molecole modello per giungere poi a definire la reattività di miscele complesse. Le problematiche principali che si presentano nella conduzione di questa reazione sono la disattivazione da coke e da zolfo. Quindi è evidente che la comprensione dei meccanismi di reazione, di formazione dei depositi carboniosi e dell’avvelenamento da zolfo è uno stadio fondamentale per delineare quali siano i requisiti necessari alla realizzazione del processo. Il fine ultimo della ricerca è quello di utilizzare le informazioni acquisite dallo studio dei meccanismi coinvolti per arrivare a formulare un catalizzatore capace di soddisfare i requisiti del progetto, sia in termini di produttività di idrogeno sia in termini di tempo di vita, unitamente alla definizione di accorgimenti utili al miglioramento della conduzione della reazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’interazione che abbiamo con l’ambiente che ci circonda dipende sia da diverse tipologie di stimoli esterni che percepiamo (tattili, visivi, acustici, ecc.) sia dalla loro elaborazione per opera del nostro sistema nervoso. A volte però, l’integrazione e l’elaborazione di tali input possono causare effetti d’illusione. Ciò si presenta, ad esempio, nella percezione tattile. Infatti, la percezione di distanze tattili varia al variare della regione corporea considerata. Il concetto che distanze sulla cute siano frequentemente erroneamente percepite, è stato scoperto circa un secolo fa da Weber. In particolare, una determinata distanza fisica, è percepita maggiore su parti del corpo che presentano una più alta densità di meccanocettori rispetto a distanze applicate su parti del corpo con inferiore densità. Oltre a questa illusione, un importante fenomeno osservato in vivo è rappresentato dal fatto che la percezione della distanza tattile dipende dall’orientazione degli stimoli applicati sulla cute. In sostanza, la distanza percepita su una regione cutanea varia al variare dell’orientazione degli stimoli applicati. Recentemente, Longo e Haggard (Longo & Haggard, J.Exp.Psychol. Hum Percept Perform 37: 720-726, 2011), allo scopo di investigare come sia rappresentato il nostro corpo all’interno del nostro cervello, hanno messo a confronto distanze tattili a diverse orientazioni sulla mano deducendo che la distanza fra due stimoli puntuali è percepita maggiore se applicata trasversalmente sulla mano anziché longitudinalmente. Tale illusione è nota con il nome di Illusione Tattile Orientazione-Dipendente e diversi risultati riportati in letteratura dimostrano che tale illusione dipende dalla distanza che intercorre fra i due stimoli puntuali sulla cute. Infatti, Green riporta in un suo articolo (Green, Percpept Pshycophys 31, 315-323, 1982) il fatto che maggiore sia la distanza applicata e maggiore risulterà l’effetto illusivo che si presenta. L’illusione di Weber e l’illusione tattile orientazione-dipendente sono spiegate in letteratura considerando differenze riguardanti la densità di recettori, gli effetti di magnificazione corticale a livello della corteccia primaria somatosensoriale (regioni della corteccia somatosensoriale, di dimensioni differenti, sono adibite a diverse regioni corporee) e differenze nella dimensione e forma dei campi recettivi. Tuttavia tali effetti di illusione risultano molto meno rilevanti rispetto a quelli che ci si aspetta semplicemente considerando i meccanismi fisiologici, elencati in precedenza, che li causano. Ciò suggerisce che l’informazione tattile elaborata a livello della corteccia primaria somatosensoriale, riceva successivi step di elaborazione in aree corticali di più alto livello. Esse agiscono allo scopo di ridurre il divario fra distanza percepita trasversalmente e distanza percepita longitudinalmente, rendendole più simili tra loro. Tale processo assume il nome di “Rescaling Process”. I meccanismi neurali che operano nel cervello allo scopo di garantire Rescaling Process restano ancora largamente sconosciuti. Perciò, lo scopo del mio progetto di tesi è stato quello di realizzare un modello di rete neurale che simulasse gli aspetti riguardanti la percezione tattile, l’illusione orientazione-dipendente e il processo di rescaling avanzando possibili ipotesi circa i meccanismi neurali che concorrono alla loro realizzazione. Il modello computazionale si compone di due diversi layers neurali che processano l’informazione tattile. Uno di questi rappresenta un’area corticale di più basso livello (chiamata Area1) nella quale una prima e distorta rappresentazione tattile è realizzata. Per questo, tale layer potrebbe rappresentare un’area della corteccia primaria somatosensoriale, dove la rappresentazione della distanza tattile è significativamente distorta a causa dell’anisotropia dei campi recettivi e della magnificazione corticale. Il secondo layer (chiamato Area2) rappresenta un’area di più alto livello che riceve le informazioni tattili dal primo e ne riduce la loro distorsione mediante Rescaling Process. Questo layer potrebbe rappresentare aree corticali superiori (ad esempio la corteccia parietale o quella temporale) adibite anch’esse alla percezione di distanze tattili ed implicate nel Rescaling Process. Nel modello, i neuroni in Area1 ricevono informazioni dagli stimoli esterni (applicati sulla cute) inviando quindi informazioni ai neuroni in Area2 mediante sinapsi Feed-forward eccitatorie. Di fatto, neuroni appartenenti ad uno stesso layer comunicano fra loro attraverso sinapsi laterali aventi una forma a cappello Messicano. E’ importante affermare che la rete neurale implementata è principalmente un modello concettuale che non si preme di fornire un’accurata riproduzione delle strutture fisiologiche ed anatomiche. Per questo occorre considerare un livello astratto di implementazione senza specificare un’esatta corrispondenza tra layers nel modello e regioni anatomiche presenti nel cervello. Tuttavia, i meccanismi inclusi nel modello sono biologicamente plausibili. Dunque la rete neurale può essere utile per una migliore comprensione dei molteplici meccanismi agenti nel nostro cervello, allo scopo di elaborare diversi input tattili. Infatti, il modello è in grado di riprodurre diversi risultati riportati negli articoli di Green e Longo & Haggard.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uno dei principali ambiti di ricerca dell’intelligenza artificiale concerne la realizzazione di agenti (in particolare, robot) in grado di aiutare o sostituire l’uomo nell’esecuzione di determinate attività. A tal fine, è possibile procedere seguendo due diversi metodi di progettazione: la progettazione manuale e la progettazione automatica. Quest’ultima può essere preferita alla prima nei contesti in cui occorra tenere in considerazione requisiti quali flessibilità e adattamento, spesso essenziali per lo svolgimento di compiti non banali in contesti reali. La progettazione automatica prende in considerazione un modello col quale rappresentare il comportamento dell’agente e una tecnica di ricerca (oppure di apprendimento) che iterativamente modifica il modello al fine di renderlo il più adatto possibile al compito in esame. In questo lavoro, il modello utilizzato per la rappresentazione del comportamento del robot è una rete booleana (Boolean network o Kauffman network). La scelta di tale modello deriva dal fatto che possiede una semplice struttura che rende agevolmente studiabili le dinamiche tuttavia complesse che si manifestano al suo interno. Inoltre, la letteratura recente mostra che i modelli a rete, quali ad esempio le reti neuronali artificiali, si sono dimostrati efficaci nella programmazione di robot. La metodologia per l’evoluzione di tale modello riguarda l’uso di tecniche di ricerca meta-euristiche in grado di trovare buone soluzioni in tempi contenuti, nonostante i grandi spazi di ricerca. Lavori precedenti hanno gia dimostrato l’applicabilità e investigato la metodologia su un singolo robot. Lo scopo di questo lavoro è quello di fornire prova di principio relativa a un insieme di robot, aprendo nuove strade per la progettazione in swarm robotics. In questo scenario, semplici agenti autonomi, interagendo fra loro, portano all’emergere di un comportamento coordinato adempiendo a task impossibili per la singola unità. Questo lavoro fornisce utili ed interessanti opportunità anche per lo studio delle interazioni fra reti booleane. Infatti, ogni robot è controllato da una rete booleana che determina l’output in funzione della propria configurazione interna ma anche dagli input ricevuti dai robot vicini. In questo lavoro definiamo un task in cui lo swarm deve discriminare due diversi pattern sul pavimento dell’arena utilizzando solo informazioni scambiate localmente. Dopo una prima serie di esperimenti preliminari che hanno permesso di identificare i parametri e il migliore algoritmo di ricerca, abbiamo semplificato l’istanza del problema per meglio investigare i criteri che possono influire sulle prestazioni. E’ stata così identificata una particolare combinazione di informazione che, scambiata localmente fra robot, porta al miglioramento delle prestazioni. L’ipotesi è stata confermata applicando successivamente questo risultato ad un’istanza più difficile del problema. Il lavoro si conclude suggerendo nuovi strumenti per lo studio dei fenomeni emergenti in contesti in cui le reti booleane interagiscono fra loro.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo lavoro di tesi è stato sviluppato nell’ambito del progetto europeo “GREEN AIR” (7FP – Transport), svolto in collaborazione con diversi enti europei, pubblici e privati. Si tratta di un programma finalizzato alla produzione di idrogeno “on – board” per deidrogenazione catalitica di cherosene avio, da alimentare ad un sistema di fuel cells per la produzione dell’energia elettrica necessaria al funzionamento della strumentazione e dei sistemi di comando degli aeroplani. In questo lavoro di tesi ci si è concentrati sullo studio dei meccanismi di reazione e disattivazione coinvolti nella reazione di deidrogenazione di carburanti. Sono stati studiati approfonditamente le caratteristiche peculiari della reazione di deidrogenazione di miscele complesse di idrocarburi, ponendo particolare attenzione ai meccanismi di disattivazione. Lo studio è stato affrontato, prima analizzando la disattivazione per formazione di depositi carboniosi, utilizzando catalizzatori classici per reazioni di deidrogenazione ed alimentando miscele di idrocarburi prive da zolfo, quindi la disattivazione data da quest'ultimo elemento proponendo una serie di catalizzatori a base di fosfuri. I primi studi si sono concentrati su sistemi Pt-Sn supportati su allumina, utilizzati industrialmente per la produzione di olefine leggere a partire da miscele semplici di alcani, il cui comportamento è noto, nella seconda parte sono stati presi in considerazione sistemi a base di CoP e Ni2P, originariamente progettati per la reazione di idrodesolforazione. In conclusione, è stato possibile individuare gli aspetti chiave relativi ai meccanismi di disattivazione dei sistemi catalitici tradizionalmente impiegati nella deidrogenazione. In particolare ha permesso di individuare interessanti possibilità per ridurre, attraverso la rigenerazione e la riduzione del fenomeno di disattivazione, l’impatto del costo del catalizzatore sul processo. Inoltre sono stati individuati sistemi alternativi per la produzione di idrogeno molto interessanti, mettendo in luce gli aspetti che necessitano di essere ancora approfonditi per ottimizzarne l’applicazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’università di Bologna, da sempre attenta alle nuove tecnologie e all’innovazione, si è dotata nel 2010 di un Identity Provider (IDP), ovvero un servizio per la verifica dell’identità degli utenti dell’organizzazione tramite username e password in grado di sollevare le applicazioni web (anche esterne all’organizzazione) dall’onere di verificare direttamente le credenziali dell’utente delegando totalmente la responsabilità sul controllo dell’identità digitale all’IDP. La soluzione adottata (Microsoft ADFS) si è dimostrata generalmente semplice da configurare e da gestire, ma ha presentato problemi di integrazione con le principali federazioni di identità regionali e italiane (FedERa e IDEM) a causa di una incompatibilità con il protocollo SAML 1.1, ancora utilizzato da alcuni dei servizi federati. Per risolvere tale incompatibilità il "CeSIA – Area Sistemi Informativi e Applicazioni" dell’Università di Bologna ha deciso di dotarsi di un Identity Provider Shibboleth, alternativa open source ad ADFS che presenta funzionalità equivalenti ed è in grado di gestire tutte le versioni del protocollo SAML (attualmente rilasciato fino alla versione 2.0). Il mio compito è stato quello di analizzare, installare, configurare e integrare con le federazioni IDEM e FedERa un’infrastruttura basata sull’IDP Shibboleth prima in test poi in produzione, con la collaborazione dei colleghi che in precedenza si erano occupati della gestione della soluzione Microsoft ADFS. Il lavoro che ho svolto è stato suddiviso in quattro fasi: - Analisi della situazione esistente - Progettazione della soluzione - Installazione e configurazione di un Identity Provider in ambiente di test - Deploy dell’Identity Provider in ambiente di produzione

Relevância:

30.00% 30.00%

Publicador:

Resumo:

TuCSoN (Tuple Centres Spread over the Network) è un modello di coordinazione per processi distribuiti o agenti autonomi. Il modello di TuCSoN viene implementato come un middleware distribuito Java-based, distribuito Open Source sotto la licenza LGPL tramite Googlecode. Il fatto che lo stesso sia Open Source e Java-based ha reso possibile il suo porting su Android, rendendo il noto sistema operativo di Google un possibile agente partecipante ad un sistema TuCSoN. La tesi descrive il percorso che ha portato dallo studio dell'infrastruttura TuCSoN e del sistema Android alla realizzazione dell'applicazione Android, rendendo possibile a qualsiasi dispositivo Android di partecipare ad un sistema TuCSoN. Nel particolare l'obiettivo finale dell'applicazione Android, e di questa tesi, è rendere lo smartphone un nodo TuCSoN funzionante. La tesi non si pone l'obiettivo di analizzare ed esplorare le funzionalità e le possibilitàa delle due tecnologie principali trattate (Android e TuCSoN) nel loro singolo, quanto quello di esplorare le criticità che un porting di questo tipo comporta, quali ad esempio le differenze intrinseche fra la JVM e la DalvikVM e come aggirarle, o le funzionalità di Android e come utilizzarle allo scopo di realizzare un applicazione che funga da server ad una infra- struttura distribuita, oppure le differenze a livello di gestione della GUI fra Android e plain-java, e di analizzare le soluzioni trovate per risolvere (o dove non era possibile risolvere evitare) tali problemi al fine del raggiungimento dell'obiettivo che ci si era prefissati.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Microprocessori basati su singolo processore (CPU), hanno visto una rapida crescita di performances ed un abbattimento dei costi per circa venti anni. Questi microprocessori hanno portato una potenza di calcolo nell’ordine del GFLOPS (Giga Floating Point Operation per Second) sui PC Desktop e centinaia di GFLOPS su clusters di server. Questa ascesa ha portato nuove funzionalità nei programmi, migliori interfacce utente e tanti altri vantaggi. Tuttavia questa crescita ha subito un brusco rallentamento nel 2003 a causa di consumi energetici sempre più elevati e problemi di dissipazione termica, che hanno impedito incrementi di frequenza di clock. I limiti fisici del silicio erano sempre più vicini. Per ovviare al problema i produttori di CPU (Central Processing Unit) hanno iniziato a progettare microprocessori multicore, scelta che ha avuto un impatto notevole sulla comunità degli sviluppatori, abituati a considerare il software come una serie di comandi sequenziali. Quindi i programmi che avevano sempre giovato di miglioramenti di prestazioni ad ogni nuova generazione di CPU, non hanno avuto incrementi di performance, in quanto essendo eseguiti su un solo core, non beneficiavano dell’intera potenza della CPU. Per sfruttare appieno la potenza delle nuove CPU la programmazione concorrente, precedentemente utilizzata solo su sistemi costosi o supercomputers, è diventata una pratica sempre più utilizzata dagli sviluppatori. Allo stesso tempo, l’industria videoludica ha conquistato una fetta di mercato notevole: solo nel 2013 verranno spesi quasi 100 miliardi di dollari fra hardware e software dedicati al gaming. Le software houses impegnate nello sviluppo di videogames, per rendere i loro titoli più accattivanti, puntano su motori grafici sempre più potenti e spesso scarsamente ottimizzati, rendendoli estremamente esosi in termini di performance. Per questo motivo i produttori di GPU (Graphic Processing Unit), specialmente nell’ultimo decennio, hanno dato vita ad una vera e propria rincorsa alle performances che li ha portati ad ottenere dei prodotti con capacità di calcolo vertiginose. Ma al contrario delle CPU che agli inizi del 2000 intrapresero la strada del multicore per continuare a favorire programmi sequenziali, le GPU sono diventate manycore, ovvero con centinaia e centinaia di piccoli cores che eseguono calcoli in parallelo. Questa immensa capacità di calcolo può essere utilizzata in altri campi applicativi? La risposta è si e l’obiettivo di questa tesi è proprio quello di constatare allo stato attuale, in che modo e con quale efficienza pùo un software generico, avvalersi dell’utilizzo della GPU invece della CPU.