1000 resultados para spazi di Hilbert basi ortonormali basi spettrali


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Internet of Energy for Electric Mobility è un progetto di ricerca europeo il cui scopo consiste nello sviluppo di infrastrutture di comunicazione, siano esse sia hardware che software, volte alla facilitazione, supporto e miglioramento di tutte quelle operazioni legate al processo di ricarica di auto elettriche. A tale progetto vi ha aderito anche l’Università di Bologna ed è stato oggetto di studio di Federico Montori e Simone Rondelli. Il primo ha dato il là allo sviluppo del progetto realizzandovi, in una fase embrionale, una piattaforma legata alla gestione di un servizio cittadino (bolognese) per la gestione di ricariche elettriche, un’applicazione mobile in grado di interagire con tale servizio ed un simulatore per la piattaforma. In un lavoro durato oltre un anno, Simone Rondelli ha ripreso il progetto di Federico Montori riscrivendone le componenti in maniera tale da migliorarne le funzionalità ed aggiungerne anche di nuove; in particolare ha realizzato in maniera efficiente un’applicazione mobile la quale si occupa di gestire la prenotazione di colonnine elettriche di ricarica e di monitorare lo stato attuale di un’auto peso, livello batteria, ecc... ). Nel marzo del 2014 è cominciato il mio contributo nel contesto di Internet of Energy di cui ne ho ereditato tutta l’architettura derivante dai due sviluppi precedenti. Il mio compito è stato quello di realizzare (cioè emulare) una colonnina di ricarica auto elettrica, tramite la piattaforma elettronica Arduino, la quale al suo primo avvio informa il database semantico del sistema (SIB) della sua presenza in maniera tale che il simulatore sia in grado di poter far ricaricare un’auto anche a questa nuova colonnina. Di conseguenza ho fatto in modo di instaurare (tramite socket) una comunicazione tra il simulatore e la colonnina così che il simulatore informi la colonnina che è stata raggiunta da un’auto e, viceversa, la colonnina informi il simulatore sullo stato di ricarica dell’auto in modo che quest’ultima possa ripartire al termine della ricarica. Ho anche realizzato un’applicazione mobile in grado di comunicare con la colonnina, il cui scopo è quello di ottenere un codice di ricarica che poi l’utente deve digitare per autenticarsi presso di essa. Realizzando tale tipo di contributo si è data dunque la possibilità di integrare una componente ”reale” con componenti simulate quali le auto del simulatore di Internet of Energy e si sono poste le basi per estensioni future, le quali permettano di integrare anche più componenti che si registrano nel sistema e danno dunque la possibilità di essere utilizzate dalle auto elettriche.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Lo scopo dello studio è comprendere i fenomeni alla base della fiducia degli utenti verso l'enciclopedia online Wikipedia. Per farlo è necessario prima di tutto comprendere e modellizzare l'organizzazione della struttura dei processi socio-produttivi sottostanti alla produzione del contenuto di Wikipedia, procedendo quindi nel verificare empiricamente e descrivere le capacità di autocorrezione della stessa. Oltre a quelli utilizzati in questo studio, saranno anche descritti gli approcci e i risultati trattati in letteratura, riportando i principali studi che nel corso degli anni hanno affrontato questi argomenti, sebbene mantenendoli indipendenti. Per comprendere la struttura della community degli editor di Wikipedia, si è ipotizzata l'esistenza di un modello di tipo Core-Periphery. Per studiare il modello sono state eseguite delle analisi su dati derivanti da un campione di pagine della versione italiana di Wikipedia. I risultati ottenuti dall'analisi di queste informazioni rappresentano le basi utilizzate per la selezione delle pagine oggetto dell'iniezione degli errori, costituendo un metodo per stimare le diverse probabilità di autocorrezione per ciascuna pagina. Per quanto riguarda le capacità di resilienza di Wikipedia, i risultati sono ricavati utilizzando un approccio empirico. Questo consiste nell'inserimento di errori all'interno del campione di pagine sotto specifici vincoli metodologici per poi valutare in quanto tempo e con quali modalità questi errori vengono corretti. E' stata effettuata un'analisi specifica per la scelta delle tipologie di errore e delle variabili da considerare nell'inserimento di questi. Questa analisi ha portato alla definizione di 2 esperimenti tra loro distinti, i cui risultati portano ad interessanti conclusioni sia visti separatamente che combinati tra loro. Sulla base dei risultati di questi esperimenti è stato possibile discutere sulle capacità di autocorrezione del sistema, elemento chiave nello studio delle dinamiche della fiducia verso Wikipedia.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Bitcoin è una moneta digitale decentralizzata e parzialmente anonima. Viene scambiata tramite un software open source che utilizza la crittografia per garantire l'integrità e l'autenticità delle transazioni. Permette di inviare denaro digitale in maniera rapida, sicura ed economica attraverso Internet. La tesi si propone di analizzarne il fenomeno, partendo dalla sua storia fino alle possibili evoluzioni future. Vengono introdotte le basi di crittografia per comprenderne i concetti ed i meccanismi di funzionamento. In seguito viene analizzata l'implementazione del software e vengono discussi i principali vantaggi e criticità. La tesi esplora le possibili conseguenze di una sua adozione dal punto di vista economico e politico, e le innovazioni che potrebbe portare al sistema finanziario. Vengono infine mostrati alcuni esempi di software ispirati a Bitcoin che ne estendono ed ampliano le funzionalità nell'ambito dei sistemi distribuiti.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Questo lavoro di tesi ha avuto come obiettivo quello di individuare e studiare diverse strategie di sintesi per la preparazione di catalizzatori a base di Pd-Cu supportati su materiali mesoporosi a basi di SiO2. Queste strategie sono state mirate a migliorare: -Distribuzione della fase metallica attiva e la sua accessibilità; -Formazione della fase mista Pd-Cu; -Dimensione delle specie metalliche sulla superficie; -Differenti caratteristiche morfologiche del supporto. I diversi catalizzatori preparati sono stati poi testati sulla reazione di idrodeclorurazione del 1,2-dicloro-1,1,2-trifluoro-2-(triflurometossi)etano (AM), svolta in fase gas con idrogeno a pressione atmosferica, con lo scopo di ottenere il composto insaturo corrispondente 1,1,2-trifluoro-2-(trifluorometossi)etene (MVE). Attualmente, il processo industriale per la produzione di MVE, è condotto con l’utilizzo di quantità stechiometriche di Zn in dimetilformammide; questo processo a causa delle quantità stechiometriche di ZnCl2 prodotto e dell'elevato consumo di solvente tossico risulta assai dispendioso dal punto di vista economico ed ambientale. La tipologia di materiali microporosi, già investigata, può limitare l'efficienza verso substrati ingombranti, è quindi interessante investigare catalizzatori con dimensione dei pori mesoporosi a base di silice; in particolare sono stati analizzati MCM-41 e silice amorfa GRACE® DAVICAT - 1401. In particolare, durante il lavoro di tesi sono stati sviluppati i seguenti argomenti: 1.Studio degli effetti della metodologia di sintesi e del contenuto metallico sui parametri chimico-fisici e catalitici dei sistemi a base di Pd-Cu supportati su MCM-41 e GRACE® DAVICAT - 1401; 2.Ottimizzazione del processo di sintesi dei supporti di MCM-41, ponendo attenzione alle quantità dei reagenti utilizzati, alla metodologia di eliminazione del templante e al tempo di trattamento idrotermale; 3.Ottimizzazione del processo di sintesi dei sistemi catalitici a base di Pd-Cu, al fine di ottenere una fase attiva costituita da particelle con dimensioni ridotte composte da una fase mista Pd-Cu.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

“Per me la Fisica costituisce un sistema perfettamente armonioso ed essenzialmente completo. All’orizzonte scorgo solamente due piccole nubi oscure: il risultato negativo dell’esperienza di Michelson e Morley e l’insufficienza della legge di Rayleigh e Jeans se applicata alle frequenze dell’ultravioletto” Con questa frase William Thomson Kelvin delineava, sul finire dell’800, i tratti di una Fisica fondata su solide basi che consentisse di spiegare i fenomeni di natura meccanica per mezzo delle Leggi della Dinamica di Newton e descrivesse le proprietà del campo elettromagnetico grazie alle Equazioni di Maxwell. Tuttavia, come riferisce lo stesso Lord Kelvin, rimaneva qualcosa di inspiegato: i due risultati mancanti sino ad allora diedero origine ad una vera e propria rivoluzione nel campo della Fisica. Grazie all’esperienza di Michelson e Morley, in disaccordo con quanto previsto dalla Meccanica Classica, Albert Einstein nel 1905 fu in grado di estendere i risultati della Relatività Galileiana ad eventi che coinvolgono velocità prossime a quella della luce; dall’altro lato, Max Planck nel 1900 pose le basi della Meccanica Quantistica, ipotizzando la quantizzazione dell’Energia, studiando la radiazione di Corpo Nero. Definendo il Corpo Nero come un oggetto ideale la cui superficie è in grado di assorbire qualsiasi radiazione elettromagnetica incidente su di esso, in questo compendio saranno esposti il processo che ha indotto lo scienziato tedesco Gustav Robert Kirchhoff all’idealizzazione di tale concetto, la soluzione della quantizzazione di Planck per ovviare al fenomeno della Catastrofe Ultravioletta derivante dall’approccio di Rayleigh e Jeans e la determinazione dello Spettro di Corpo Nero con le relative proprietà, Leggi empiriche che ne regolano l’andamento. Verranno inoltre presentati alcuni esempi astrofisici reali le cui emissioni rispecchiano l’andamento del Corpo Nero e se ne discuteranno le relative caratteristiche che li discostano dall’oggetto teorico.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il lungo processo che avrebbe portato Ottaviano alla conquista del potere e alla fondazione del principato è scandito da alcuni momenti chiave e da diversi personaggi che ne accompagnarono l'ascesa. Prima ancora che sul campo di battaglia, il figlio adottivo di Cesare riuscì a primeggiare per la grande capacità di gestire alleanze e rapporti personali, per la grande maestria con la quale riuscì a passare da capo rivoluzionario a rappresentante e membro dell'aristocrazia tradizionale. Non fu un cammino facile e lineare e forse il compito più difficile non fu sbaragliare gli avversari ad Azio, ma conservare un potere che gli fu costantemente contestato. Ancora dopo il 31 a.C., infatti, in più di un'occasione, Augusto fu chiamato a difendere la sua creatura (il principato) e a procedere a modificarne costantemente base di potere e struttura: solamente attraverso questa fondamentale, minuziosa, ma nascosta opera, egli riuscì a porre le basi per una struttura di potere destinata a durare immutata almeno per un secolo. In base a queste premesse, la ricerca è organizzata secondo un duplice criterio cronologico, inserendo -all'interno della cornice rappresentata dagli eventi- una partizione che tenga presente ulteriori cesure e momenti determinanti. Il proposito è quello di sottolineare come all'interno di un regno unitario, caratterizzato dalla permanenza di un unico sovrano, sia possibile intravedere l'alternarsi di situazioni storiche diverse, di rapporti di forze, alleanze e unioni in virtù delle quali si determinino orientamenti differenti nell'ambito tanto della politica interna quanto di quella esterna.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’app in questione si pone l’obbiettivo di rispondere alla domanda: “Dove ti trovi?”. Grazie all'alta frequenza di utilizzo dei dispositivi mobili che si ha oggigiorno, è stato possibile pensare, progettare e creare un software in grado di tracciare periodicamente gli utenti in modo da far visualizzare ai loro amici in rete la propria posizione. Il servizio sfrutta le conoscenze acquisite in Mobile Web Design e basi di dati.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’obiettivo di questa tesi è approfondire le competenze sulle funzionalità sviluppate nei sistemi SCADA/EMS presenti sul mercato, così da conoscerne le potenzialità offerte: tutte le conoscenze acquisite servono a progettare uno strumento di analisi dati flessibile e interattivo, con il quale è possibile svolgere analisi non proponibili con le altre soluzioni analizzate. La progettazione dello strumento di analisi dei dati è orientata a definire un modello multidimensionale per la rappresentazione delle informazioni: il percorso di progettazione richiede di individuare le informazioni d’interesse per l’utente, così da poterle reintrodurre in fase di progettazione della nuova base dati. L’infrastruttura finale di questa nuova funzionalità si concretizza in un data warehouse: tutte le informazioni di analisi sono memorizzare su una base dati diversa da quella di On.Energy, evitando di correlare le prestazione dei due diversi sottosistemi. L’utilizzo di un data warehouse pone le basi per realizzare analisi su lunghi periodi temporali: tutte le tipologie di interrogazione dati comprendono un enorme quantità d’informazioni, esattamente in linea con le caratteristiche delle interrogazioni OLAP

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il presente elaborato descrive l’attività di progetto svolta durante il periodo di tirocinio presso la business unit “automotive technologies” della Robert Bosch GmbH: la Robert Bosch GmbH Branch in Italy che ha sede a Torino, e che si configura come fornitore di componenti per l’industria automotive. La funzione logistica è l’ufficio in cui si è svolta l’esperienza di tirocinio, che si è sviluppato nell’ambito del progetto di Container Management System. In particolare, è stato analizzato il sistema di gestione dei Returnable Packaging relativi ai componenti che vengono forniti agli stabilimenti dei clienti localizzati in Italia. L’elaborato è composto da due parti: una parte teorica e una parte pratica. La parte teorica espone gli strumenti teorici sui quali si fondano i contenuti sviluppati nella parte pratica. La parte pratica è volta a descrivere l’attività di progetto da un punto di vista strettamente operativo. Il primo capitolo illustra i motivi che hanno determinato l’avvio del progetto. Sono poi messi in evidenza quali sono gli obiettivi intermedi e finali che si intendono raggiungere, declinandoli in termini di organizzazione del lavoro. Sono qui esposte le basi teoriche del metodo utilizzato e della disciplina a cui si fa riferimento. Viene inoltre dato spazio alla trattazione di alcuni topic nell’ambito dei Returnable Packaging, approfondendo l’argomento per il settore automotive. Il secondo capitolo descrive la struttura organizzativa, i settori di business e le attività svolte dal gruppo Robert Bosch GmbH nel mondo e in Italia. Viene dato particolare rilievo alla sede di Torino ed alla divisione logistica di quest’ultima, in modo tale da descrivere il contesto entro il quale si sviluppa il progetto. Il capitolo presenta infine gli attori che operano nella catena logistica analizzata, descrivendone le attività svolte e caratterizzando la rete logistica studiata al fine di definire i confini entro i quali si sviluppa il progetto. Il terzo capitolo presenta l’analisi effettuata sul caso in esame, descrivendone le modalità operative per ciascuna fase. Il quarto capitolo presenta delle osservazioni sull’analisi effettuata, la validazione tecnico econimica delle soluzioni proposte e le considerazioni conclusive.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Il presente lavoro si inserisce nell’ambito del progetto Language Toolkit, portato avanti dalla Camera di Commercio di Forlì-Cesena e dalla Scuola di Lingue, Letterature, Traduzione e Interpretazione di Forlì. Il progetto coinvolge gli studenti della Scuola e le piccole-medie aziende del territorio provinciale e ha due obiettivi principali: creare occasioni di contatto tra il mondo accademico e quello professionale e favorire l’internazionalizzazione delle aziende del territorio. L’azienda con cui si è collaborato è la Pieri s.r.l. di Pievesestina di Cesena, attiva nel settore di confezionamento e movimentazione di carichi pallettizzati. Ci si è occupati principalmente di sistematizzare la terminologia aziendale in ottica trilingue (italiano - inglese - francese), partendo dall’analisi della documentazione aziendale. Sono stati individuati due gruppi di destinatari: i dipendenti dell’azienda e i traduttori esterni a cui essa ricorre saltuariamente. Viste le esigenze molto diverse dei due gruppi, sono stati elaborati due termbase con caratteristiche distinte, volte a renderli massimamente funzionali rispetto agli scopi. Dopo un breve inquadramento della situazione di partenza focalizzato sul progetto, l’azienda e i materiali di lavoro (capitolo 1), sono state fornite le basi teoriche (capitolo 2) che hanno guidato l’attività pratica di documentazione e di estrazione terminologica (capitolo 3). Sono stati presentati i due database terminologici costruiti, motivando le scelte compiute per differenziare le schede terminologiche in funzione dei destinatari (capitolo 4). Infine, si è tentato di valutare le risorse costruite attraverso la loro applicazione pratica in due attività: l’analisi della versione francese del manuale di istruzioni di una delle macchine Pieri e la traduzione verso il francese di alcune offerte commerciali, svolta utilizzando il programma di traduzione assistita SDL Trados Studio (capitolo 5).

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Lo scopo di questo elaborato è di analizzare e progettare un sistema in grado di supportare la definizione dei dati nel formato utilizzato per definire in modo formale la semantica dei dati, ma soprattutto nella complessa e innovativa attività di link discovery. Una attività molto potente che, tramite gli strumenti e le regole del Web Semantico (chiamato anche Web of Data), permette data una base di conoscenza sorgente ed altre basi di conoscenza esterne e distribuite nel Web, di interconnettere i dati della base di conoscenza sorgente a quelli esterni sulla base di complessi algoritmi di interlinking. Questi algoritmi fanno si che i concetti espressi sulla base di dati sorgente ed esterne vengano interconnessi esprimendo la semantica del collegamento ed in base a dei complessi criteri di confronto definiti nel suddetto algoritmo. Tramite questa attività si è in grado quindi di aumentare notevolmente la conoscenza della base di conoscenza sorgente, se poi tutte le basi di conoscenza presenti nel Web of Data seguissero questo procedimento, la conoscenza definita aumenterebbe fino a livelli che sono limitati solo dalla immensa vastità del Web, dando una potenza di elaborazione dei dati senza eguali. Per mezzo di questo sistema si ha l’ambizioso obiettivo di fornire uno strumento che permetta di aumentare sensibilmente la presenza dei Linked Open Data principalmente sul territorio nazionale ma anche su quello internazionale, a supporto di enti pubblici e privati che tramite questo sistema hanno la possibilità di aprire nuovi scenari di business e di utilizzo dei dati, dando una potenza al dato che attualmente è solo immaginabile.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

In questo lavoro saranno inizialmente discusse le tecniche medianti le quali sono cresciuti i monocristalli organici confrontando le tecniche di crescita proprie dell’elettronica organica con quelle utilizzate comunemente in quella inorganica. Successivamente si introdurrà il problema del trasporto elettronico con particolare riguardo verso alcune molecole come il rubrene o il pentacene. Tramite il modello microscopico verranno studiate le interazioni elettrone-fonone, locale e non locale, in particolare nei cristalli di rubrene e DMQtT–F4TCNQ attraverso la teoria del piccolo polarone di Holstein. Dopo aver sottolineato i limiti di questa teoria ne verrà proposta una alternativa basata sui lavori di Troisi e supportata da evidenze sperimentali. Tra le tecniche utilizzate per l’analisi dei campioni verranno discusse le basi della teoria del funzionale di densità. L’attenzione sarà rivolta ai cristalli ordinati mentre una breve descrizione sarà riservata per quelli disordinati o amorfi. Nel capitolo 3 verrà trattato il ruolo degli eccitoni all’interno dei semiconduttori organici, mentre nell’ultimo capitolo si discuterà di diverse applicazioni dei semiconduttori organici come la costruzione di FET e di detector per raggi X. Infine verranno mostrati il setup sperimentale e il procedimento per l’estrazione di parametri di bulk in un semiconduttore organico tramite analisi SCLC.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’esperimento CMS a LHC ha raccolto ingenti moli di dati durante Run-1, e sta sfruttando il periodo di shutdown (LS1) per evolvere il proprio sistema di calcolo. Tra i possibili miglioramenti al sistema, emergono ampi margini di ottimizzazione nell’uso dello storage ai centri di calcolo di livello Tier-2, che rappresentano - in Worldwide LHC Computing Grid (WLCG)- il fulcro delle risorse dedicate all’analisi distribuita su Grid. In questa tesi viene affrontato uno studio della popolarità dei dati di CMS nell’analisi distribuita su Grid ai Tier-2. Obiettivo del lavoro è dotare il sistema di calcolo di CMS di un sistema per valutare sistematicamente l’ammontare di spazio disco scritto ma non acceduto ai centri Tier-2, contribuendo alla costruzione di un sistema evoluto di data management dinamico che sappia adattarsi elasticamente alle diversi condizioni operative - rimuovendo repliche dei dati non necessarie o aggiungendo repliche dei dati più “popolari” - e dunque, in ultima analisi, che possa aumentare l’“analysis throughput” complessivo. Il Capitolo 1 fornisce una panoramica dell’esperimento CMS a LHC. Il Capitolo 2 descrive il CMS Computing Model nelle sue generalità, focalizzando la sua attenzione principalmente sul data management e sulle infrastrutture ad esso connesse. Il Capitolo 3 descrive il CMS Popularity Service, fornendo una visione d’insieme sui servizi di data popularity già presenti in CMS prima dell’inizio di questo lavoro. Il Capitolo 4 descrive l’architettura del toolkit sviluppato per questa tesi, ponendo le basi per il Capitolo successivo. Il Capitolo 5 presenta e discute gli studi di data popularity condotti sui dati raccolti attraverso l’infrastruttura precedentemente sviluppata. L’appendice A raccoglie due esempi di codice creato per gestire il toolkit attra- verso cui si raccolgono ed elaborano i dati.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Argomento di questa tesi è l’ottimizzazione di un portafoglio, cioè, dato un portafoglio, massimizzarne il guadagno minimizzando il rischio. Nel primo capitolo illustrerò le nozioni matematiche basi della finanza, come i mercati discreti, la definizione di portafoglio, il modello binomiale,l’arbitraggio e la misura martingala. Nel secondo capitolo presenterò i due metodi risolutivi del problema di ottimizzazione:il Metodo Martingala e il Metodo della Programmazione Dinamica. Nell’ultimo capitolo parto dalla funzione d'utilità esponenziale e calcolo il portafoglio ottimizzato utilizzando i due metodi precedenti.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

UNHRD è un Network di Basi Operative di Pronto Intervento Umanitario delle Nazioni Unite, con sei sedi nel mondo, in grado di inviare aiuti di prima necessità in qualsiasi parte del mondo entro 24-48 ore. Creata nel 2000, quella di Brindisi è la prima base del Network. Nel 2014, all’interno di UNHRD di Brindisi, nasce una nuova unità di ricerca e sviluppo, chiamata UNHRD LAB, per revisionare, testare e sviluppare prodotti innovativi contribuendo al miglioramento delle risposte alle emergenze umanitarie. Il LAB, gestito da esperti del campo, lavora in collaborazione con centri di ricerca, fornitori, Organizzazioni Non Governative, Agenzie Governative e con l’Università di Bologna, grazie alla quale ho avuto la possibilità di trascorrere sei mesi all’interno di questa nuova unità. Lavorando in stretta collaborazione con Nicolas Messmer, esperto del campo e responsabile del LAB, ho appurato che la progettazione di un campo umanitario al giorno d’oggi non segue metodi standardizzati, ma si basa sul buon senso di tecnici esperti che stimano numero e tipologie di container da inviare per allestirlo, sulla base dei quali si definiscono i fabbisogni energetici da soddisfare. Al fine di migliorare e velocizzare l’allestimento di un campo umanitario, ho deciso di proporre la creazione di tre standard di campo: piccolo, medio e grande (in funzione del numero degli operatori destinati ad accogliere) definire tipologia e numero di prodotti da inviare nei tre casi, individuare il fabbisogno energetico e ottimizzarlo proponendo soluzioni a basso consumo. Uno dei focus del LAB è infatti la “green techonolgy”, ovvero la ricerca di soluzioni a basso impatto ambientale, da qui i miei studi verso l’efficientamento energetico e l’attenzione verso nuove tecnologie ecofriendly come il fotovoltaico.