528 resultados para gruppi di omotopia di ordine superiore cobordismo con framing gruppi di omotopia delle sfere


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le nuove teorie di rete come Software Defined Networking Network Function Virtualization, insieme alle teorie Cognitive/Autonomics consentono di abilitare scenari futuri “disruptive” di rete. Lo scopo di questa tesi è quello di esplorare questi scenari futuri e di capire il ruolo della migrazione di funzioni di rete, sotto forma di Virtual Machine. Si vuole affrontare la migrazione di Virtual Machine dal punto di vista delle performance, ma anche come strumento di gestione delle risorse in uno scenario di rete d'accesso autonomica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi descrive il progetto e il funzionamento di un algoritmo basato su un sistema di visione, studiato allo scopo di eliminare i marker, che vengono utilizzati dai sensori di contrasto nel processo di taglio delle singole etichette a partire dalle bobine che scorrono sul rullo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi abbiamo studiato la quantizzazione di una teoria di gauge di forme differenziali su spazi complessi dotati di una metrica di Kaehler. La particolarità di queste teorie risiede nel fatto che esse presentano invarianze di gauge riducibili, in altre parole non indipendenti tra loro. L'invarianza sotto trasformazioni di gauge rappresenta uno dei pilastri della moderna comprensione del mondo fisico. La caratteristica principale di tali teorie è che non tutte le variabili sono effettivamente presenti nella dinamica e alcune risultano essere ausiliarie. Il motivo per cui si preferisce adottare questo punto di vista è spesso il fatto che tali teorie risultano essere manifestamente covarianti sotto importanti gruppi di simmetria come il gruppo di Lorentz. Uno dei metodi più usati nella quantizzazione delle teorie di campo con simmetrie di gauge, richiede l'introduzione di campi non fisici detti ghosts e di una simmetria globale e fermionica che sostituisce l'iniziale invarianza locale di gauge, la simmetria BRST. Nella presente tesi abbiamo scelto di utilizzare uno dei più moderni formalismi per il trattamento delle teorie di gauge: il formalismo BRST Lagrangiano di Batalin-Vilkovisky. Questo metodo prevede l'introduzione di ghosts per ogni grado di riducibilità delle trasformazioni di gauge e di opportuni “antifields" associati a ogni campo precedentemente introdotto. Questo formalismo ci ha permesso di arrivare direttamente a una completa formulazione in termini di path integral della teoria quantistica delle (p,0)-forme. In particolare esso permette di dedurre correttamente la struttura dei ghost della teoria e la simmetria BRST associata. Per ottenere questa struttura è richiesta necessariamente una procedura di gauge fixing per eliminare completamente l'invarianza sotto trasformazioni di gauge. Tale procedura prevede l'eliminazione degli antifields in favore dei campi originali e dei ghosts e permette di implementare, direttamente nel path integral condizioni di gauge fixing covarianti necessari per definire correttamente i propagatori della teoria. Nell'ultima parte abbiamo presentato un’espansione dell’azione efficace (euclidea) che permette di studiare le divergenze della teoria. In particolare abbiamo calcolato i primi coefficienti di tale espansione (coefficienti di Seeley-DeWitt) tramite la tecnica dell'heat kernel. Questo calcolo ha tenuto conto dell'eventuale accoppiamento a una metrica di background cosi come di un possibile ulteriore accoppiamento alla traccia della connessione associata alla metrica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Al giorno d’oggi, la produzione di energia e di molecole di base per l’industria chimica è completamente dipendente da risorse non rinnovabili come petrolio, carbone e gas naturale ; con tali risorse in via di esaurimento e la sempre crescente domanda di energia e materiali da parte di tutte le economie, risulta obbligatorio sviluppare tecniche per la loro produzione da risorse rinnovabili. Le biomasse, oltre ad essere una fonte rinnovabile, generano minori emissioni di gas serra rispetto ai combustibili fossili, perché la CO2 rilasciata nei processi di utilizzo viene bilanciata da quella consumata nel processo di crescita delle biomasse stesse. Tuttavia, ad oggi, lo sfruttamento di queste fonti risulta ancora sfavorito economicamente a causa di processi industriali non ancora ottimizzati, i cui costi si ripercuotono sul prodotto finale. Le molecole derivanti dagli scarti lignocellulosici possono essere usate come molecole di partenza per industrie chimiche di qualsiasi tipo, da quelle farmaceutiche a quelle plastiche. Queste molecole sono già parzialmente funzionalizzate; ciò significa che la sintesi di prodotti chimici specifici richiede un minor numero di stadi rispetto ai building blocks petroliferi, con conseguente diminuzione di prodotti di scarto e sottoprodotti . Una delle molecole “piattaforma” identificate tra le più importanti per la produzione di diversi prodotti chimici, risulta essere il 5-idrossimetilfurfurale (HMF) , derivante dalla disidratazione di polisaccaridi esosi, da cui si può ottenere tramite ossidazione selettiva, l’acido 2,5-furandicarbossilico (FDCA), potenziale sostituto dell’acido tereftalico nella produzione del PET e molti altri prodotti. Lo scopo di questo lavoro di tesi è stato lo studio della reattività di catalizzatori a base di Pd e Au/Pd utilizzati nella reazione di ossidazione dell’HMF a FDCA. Il lavoro svolto ha avuto come obiettivi principali: • L’ottimizzazione della sintesi di nanoparticelle di Pd e Au/Pd a diverso rapporto molare, e la caratterizzazione delle sospensioni ottenute mediante analisi DLS, XRD e TEM. • La preparazione di catalizzatori supportati su TiO2 e la caratterizzazione dei catalizzatori ottenuti tramite analisi BET, TEM e analisi termiche TGA/DSC. • Lo studio dell’attività catalitica dei catalizzatori preparati nell’ossidazione selettiva in fase liquida del 5-idrossimetilfurfurale (HMF) ad acido 2,5-furandicarbossilico (FDCA) e del meccanismo di reazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il progetto di un velivolo risulta essere un processo multidisciplinare molto complesso. Per poter determinare una configurazione di variabili che permetta di soddisfare i requisiti che si desiderano ottenere dal velivolo, sono necessarie una serie di stime che richiedono altrettanti cicli di analisi delle caratteristiche, prima di poter ottenere una configurazione completa o accettabile. Il processo di progetto richiede, così, un gran numero di iterazioni per poter trovare la migliore configurazione. In questo lavoro di tesi verranno descritti gli strumenti di ottimizzazione noti come algoritmi genetici e verrà presentato come questi possano essere inquadrati all'interno della fase preliminare del progetto di un velivolo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'innovazione delle tecnologie di sequenziamento negli ultimi anni ha reso possibile la catalogazione delle varianti genetiche nei campioni umani, portando nuove scoperte e comprensioni nella ricerca medica, farmaceutica, dell'evoluzione e negli studi sulla popolazione. La quantità di sequenze prodotta è molto cospicua, e per giungere all'identificazione delle varianti sono necessari diversi stadi di elaborazione delle informazioni genetiche in cui, ad ogni passo, vengono generate ulteriori informazioni. Insieme a questa immensa accumulazione di dati, è nata la necessità da parte della comunità scientifica di organizzare i dati in repository, dapprima solo per condividere i risultati delle ricerche, poi per permettere studi statistici direttamente sui dati genetici. Gli studi su larga scala coinvolgono quantità di dati nell'ordine dei petabyte, il cui mantenimento continua a rappresentare una sfida per le infrastrutture. Per la varietà e la quantità di dati prodotti, i database giocano un ruolo di primaria importanza in questa sfida. Modelli e organizzazione dei dati in questo campo possono fare la differenza non soltanto per la scalabilità, ma anche e soprattutto per la predisposizione al data mining. Infatti, la memorizzazione di questi dati in file con formati quasi-standard, la dimensione di questi file, e i requisiti computazionali richiesti, rendono difficile la scrittura di software di analisi efficienti e scoraggiano studi su larga scala e su dati eterogenei. Prima di progettare il database si è perciò studiata l’evoluzione, negli ultimi vent’anni, dei formati quasi-standard per i flat file biologici, contenenti metadati eterogenei e sequenze nucleotidiche vere e proprie, con record privi di relazioni strutturali. Recentemente questa evoluzione è culminata nell’utilizzo dello standard XML, ma i flat file delimitati continuano a essere gli standard più supportati da tools e piattaforme online. È seguita poi un’analisi dell’organizzazione interna dei dati per i database biologici pubblici. Queste basi di dati contengono geni, varianti genetiche, strutture proteiche, ontologie fenotipiche, relazioni tra malattie e geni, relazioni tra farmaci e geni. Tra i database pubblici studiati rientrano OMIM, Entrez, KEGG, UniProt, GO. L'obiettivo principale nello studio e nella modellazione del database genetico è stato quello di strutturare i dati in modo da integrare insieme i dati eterogenei prodotti e rendere computazionalmente possibili i processi di data mining. La scelta di tecnologia Hadoop/MapReduce risulta in questo caso particolarmente incisiva, per la scalabilità garantita e per l’efficienza nelle analisi statistiche più complesse e parallele, come quelle riguardanti le varianti alleliche multi-locus.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Presentazione di alcune delle principali metodologie di controllo per motori ad accensione per compressione, che utilizzano il segnale di pressione cilindro come punto di partenza. Infatti, è dalla rilevazione di questo che è possibile gestire il rilascio di energia all'interno della camera di combustione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Tomografia Computerizzata perfusionale (TCp) è una tecnica che permette di effettuare studi funzionali di natura emodinamica dei tessuti ispezionati, misurandone la perfusione attraverso l’analisi temporale della diffusione del mezzo di contrasto. Ricerche recenti indicano come alcuni parametri (ad esempio, il blood flow) della perfusione ematica dell’organo interessato rappresentino un valido strumento per la valutazione dell’efficacia delle terapie anti-angiogenetiche. Valutazione che, potendo avvenire già in fase precoce, senza attendere i più tardivi cambiamenti dimensionali, consente un eventuale adeguamento, altrettanto precoce, della terapia in caso di risultati parziali o di insuccesso. Tuttavia diversi problemi, tra cui la difficoltà ad ottenere misure riproducibili, dovuta alla estrema variabilità delle cause di errore, costituiscono un ostacolo alla standardizzazione e, conseguentemente, alla trasposizione in clinica della TCp. Il lavoro di tesi ha avuto come obiettivo quello di identificare le principali sorgenti di errore in tutto il processo di preparazione dell’esame, generazione e archiviazione dei dati TCp al fine di fornire a IRST-IRCCS un protocollo perfusionale che consente di tenere sotto controllo, innanzitutto, tutti i parametri relativi alla somministrazione del mezzo di contrasto e alla fase di acquisizione delle immagini. Successivamente, è stato creato un catalogo di esami perfusionali, facilmente consultabile sia dal personale medico sia da quello ingegneristico. Infine, è stato fornito il supporto, sia ai medici sia agli ingegneri, per la messa a punto di un metodo di validazione visiva dei risultati ottenuti. Contestualmente, uno dei principali risultati del lavoro di Tesi è stato quello di creare, all’interno di IRST-IRCCS, una figura che funga da “collettore” fra i radiologi e gli ingegneri dell’Università di Bologna. Proprio in questo modo è stato possibile standardizzare le procedure di esecuzione degli esami perfusionali e implementare, attraverso l’interfacciamento tra il personale medico ed i ricercatori dell’Università, i protocolli per la gestione ed il trattamento dei dati acquisiti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo studio sarà trattato lo sviluppo degli algoritmi genetici, uno strumento di calcolo nato ispirandosi alle leggi Darwiniane sull’evoluzione naturale. Questi algoritmi, le cui basi furono introdotte a partire dagli anni '40, mirano alla risoluzione di una vasta categoria di problemi computazionali utilizzando un approccio differente, basato sulle regole di mutazione e ricombinazione proprie della genetica. Essi permettono infatti di valutare delle soluzioni di partenza e, grazie alle variazioni introdotte dalla modifica casuale o dalla ricombinazione di queste, crearne di nuove nel tentativo di convergere verso soluzioni ottimali. Questo studio si propone come una descrizione di questo strumento, dei suoi sviluppi e delle sue potenzialità in ambito bioingegneristico, focalizzandosi sul suo utilizzo recente nell’ identificazione parametrica di modelli cardiaci.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il periodo economico attuale è caratterizzato da una crisi che affligge numerose imprese non solo a livello nazionale, ma anche a livello mondiale. Tra le innumerevoli ragioni che hanno portato allo sviluppo di questa situazione troviamo quelle legate al contesto generale e competitivo, e quelle strategiche ed organizzative legate all’errata gestione aziendale. Le aziende devono sapersi rinnovare rimanendo concorrenziali e di alta qualità. È proprio in situazioni come queste che occorre saper considerare tutte le variabili in gioco prima di affrontare nuovi investimenti e, addirittura, i rifornimenti di materiale. La Nuova Bassani s.r.l. è sempre stata un’azienda dinamica e, nei suoi trent’anni di storia, ha saputo interpretare al meglio le esigenze del mercato mantenendosi sana ed affidabile. Adesso è orientata verso il revamping di uno dei suoi magazzini automatici per ovviare i tempi morti tra un’operazione e l’altra, e per velocizzare la preparazione degli ordini, per i clienti che ritirano personalmente il materiale richiesto. Oggi più che mai c’è la necessità non solo di soddisfare le richieste sempre più esigenti, ma anche quella di non tenere a magazzino del materiale che potrebbe risultare invenduto per anni perché “passato di moda”. La Nuova Bassani s.r.l. commercia acciaio ed è facilmente comprensibile quanto sia facile che qualche misura o materiale non venga più richiesto dal mercato perché sostituito da nuove tipologie, magari a lavorabilità migliorata. La tesi di seguito sviluppata ha quindi come scopo quello di: • Analizzare lo storico del venduto per approfondire la conoscenza dei materiali trattati e riscontrare quali sono le punte di diamante su cui puntare maggiormente; • Effettuare un’analisi tecnica per accertare quali materiali tenere in magazzino e in quale quantità, basandosi sui layout delle strutture esistenti; • Studiare il funzionamento del magazzino automatico obsoleto ed eventuali difetti tecnici per determinare soluzioni che lo possano migliorare; • Valutare l’investimento del revamping del magazzino per ragguagliare l’azienda sui tempi di recupero di tale investimento. La tesi sarà divisa in due parti fondamentali che riguardano una l’ottimizzazione delle strutture esistenti, l’altra l’aggiornamento di una delle strutture più importanti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'alluminio e le sue leghe sono fra i materiali più importanti nell’ambito dell'ingegneria meccanica e trovano spazio in tutti i principali settori dell’industria aerospaziale e motoristica. La loro versatilità è legata principalmente all’elevata resistenza specifica indotta dal trattamento termico, all’ottima resistenza alla corrosione e all’elevata conducibilità elettrica e termica. Purtroppo l’effetto di rinforzo indotto del trattamento termico viene ad essere compromesso nel caso di applicazioni delle leghe a temperature superiori ai 200°C. Negli ultimi anni, al fine di aumentare l’efficienza e la potenza dei motori endotermici, le temperature a cui questi sono sottoposti si sono innalzate. Per tale ragione si stanno sviluppando e studiando leghe che, attraverso l’aggiunta di opportuni elementi, possano mantenere alte proprietà meccaniche anche a temperature superiori ai 200°C. L’obiettivo della presente ricerca è valutare l’influenza della microstruttura sulle proprietà meccaniche in temperatura di due leghe di alluminio per applicazioni in fonderia, C355 e A354, aventi come elementi principali di lega Si, Cu e Mg.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’acceleratore di particelle LHC, al CERN di Ginevra, permette studi molto rilevanti nell'ambito della fisica subnucleare. L’importanza che ricopre in questo campo il rivelatore è grandissima ed è per questo che si utilizzano tecnologie d’avanguardia nella sua costruzione. É altresì fondamentale disporre di un sistema di acquisizione dati quanto più moderno ma sopratutto efficiente. Tale sistema infatti è necessario per gestire tutti i segnali elettrici che derivano dalla conversione dell’evento fisico, passaggio necessario per rendere misurabili e quantificabili le grandezze di interesse. In particolare in questa tesi viene seguito il lavoro di test delle schede ROD dell’esperimento ATLAS IBL, che mira a verificare la loro corretta funzionalità, prima che vengano spedite nei laboratori del CERN. Queste nuove schede gestiscono i segnali in arrivo dal Pixel Detector di ATLAS, per poi inviarli ai computer per la successiva elaborazione. Un sistema simile era già implementato e funzionante, ma il degrado dei chip ha causato una perdita di prestazioni, che ha reso necessario l’inserimento di un layer aggiuntivo. Il nuovo strato di rivelatori a pixel, denominato Insertable Barrel Layer (IBL), porta così un aggiornamento tecnologico e prestazionale all'interno del Pixel Detector di ATLAS, andando a ristabilire l’efficacia del sistema.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato propone una metodologia di valutazione della carbon footprint di un aeroporto e ne presenta un’applicazione per l’aeroporto “Guglielmo Marconi” di Bologna. Attraverso l'individuazione di macrocategorie di fonti di emissione, viene inoltre discussa l'efficacia di alcuni interventi di riduzione delle emissioni di anidride carbonica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elaborato si propone di analizzare il ruolo di CONSIP, centrale di committenza nazionale per gli acquisti di beni e servizi per la pubblica amministrazione, nell’ambito del Programma di razionalizzazione degli acquisti, con particolare attenzione ai vantaggi ed alle criticità emerse nell’attuazione del sistema di centralizzazione. Il corpo del testo, articolato per capitoli, è preceduto da un Glossario contenente le definizioni e la specificazione di alcuni dei concetti trattati. In appendice sono state inserite le sintesi di tre ricerche, ritenute di interesse per approfondire l’argomento trattato. Il Capitolo 1 descrive l’evoluzione del ruolo e delle attività assegnate a CONSIP in relazione alle modifiche intervenute nel contesto normativo di riferimento. Nel Capitolo 2 vengono trattate in dettaglio le attività di CONSIP, con particolare riguardo al ruolo strategico che la stessa è chiamata a svolgere nel sistema nazionale di e-Procurement e nell’ambito del Programma di razionalizzazione degli acquisti, anche in funzione delle misure previste dalle recenti norme in tema di spending review. Nel Capitolo 3 sono descritti gli strumenti che CONSIP mette a disposizione delle pubbliche amministrazioni, attraverso la piattaforma informatica www.acquistinretepa.it, appositamente predisposta per l’attuazione del Programma di cui al Capitolo precedente, con particolare attenzione al sistema delle convenzioni. Il Capitolo 4 è dedicato all’analisi dei vantaggi e delle criticità riguardanti l’attuazione del Programma di razionalizzazione degli acquisti, con riferimento al sistema di centralizzazione ed all’utilizzo degli strumenti CONSIP, nell’ambito del processo di approvvigionamento delle pubbliche amministrazioni (public procurement). Infine, il Capitolo 5 propone l’esperienza del Progetto di razionalizzazione degli acquisti informatici del Comune di Bologna come caso da cui trarre spunti di riflessione sull’impatto, anche interno, alla singola amministrazione, della centralizzazione degli acquisti e dell’utilizzo delle convenzioni e del mercato elettronico (MEPA) messi a disposizione da CONSIP.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il traffico dei veicoli sulla rete stradale è un fenomeno molto vario e complesso ma cresce sempre di più l'esigenza di monitoraggio e controllo. La difficoltà di studio secondo norme codificate porta a risultati diversi e disomogenei, si è quindi resa necessaria l'esigenza di definire una metodologia standardizzata agli analisti e operatori del settore. Lo scopo principale di questo tipo di analisi è quello di innalzare il livello di sicurezza stradale, creando degli archivi sulla base dei dati registrati dal sistema, per fare ciò vi è stata la necessità di: 1. Istallare dispositivi di rilevamento del flusso veicolare per trovare i punti di maggiore congestione del traffico. 2. Istallare dispositivi per misurare la quantità di agenti atmosferici e acustici inquinanti. Lo studio in questione nasce inoltre da ulteriori esigenze, sia da parte degli addetti alla sicurezza stradale, che dagli stessi utenti/automobilisti per rispondere a determinate esigenze quali: • Regolazione del traffico stradale • Conoscenza globale delle strade • Rilevamento di infrazioni • Assistenza agli utenti • Sicurezza delle infrastrutture stradali (gallerie, passaggi a livello, ecc.) • Manutenzione della strada • Studio e ricerca Oltre ai sistemi che hanno come scopo principale la sicurezza, è nata l'esigenza di progettare sistemi utili agli automobilisti per avere informazioni immediate, aggiornate e per conoscere in tempo reale le condizioni di scorrevolezza delle strade e quindi di risparmiare risorse in termini di tempo e carburante ed aumentare la coordinazione tra i veicoli. Il requisito fondamentale dei sistemi basati su questo tipo di funzionalità è quello di registrare in tempo reale le segnalazioni pervenute e di renderle immediatamente disponibili a tutti gli utenti/utilizzatori del sistema allo scopo di avere informazioni rilevanti riguardanti lo stato del traffico che consentano a questi ultimi di effettuare la scelta ottimale e quindi migliorare la mobilità generale in termini di riduzione della congestione, risparmio di consumi energetici e di conseguenza di emissioni di inquinanti ambientali. I sistemi di questo tipo possono essere definiti adattivi, cioè in grado di modificarsi in base a condizioni esterne al fine di coordinare efficacemente il flusso veicolare. Lo scopo di questi software è sopratutto funzionale, stimando infatti i tempi di percorrenza in determinate strade gli utenti avranno piena consapevolezza delle condizioni di quei segmenti quasi istantaneamente e potranno quindi agire di conseguenza in modo da migliorare i tempi di percorrenza.