934 resultados para analisi di Fourier, mercati elettrici.
Resumo:
Questo lavoro confronta i comportamenti catalitici di alcuni catalizzatori acidi per l'idrolisi diretta di lignocellulosa e cellulosa. I catalizzatori utilizzati sono Zr/P/O e Nb/P/O. Le analisi di reattività di questi sistemi catalitici per l'idrolisi di lignocellulosa e cellulosa, mostrano diversi comportamenti in termini di selettività in monosaccaridi e prodotti di degradazione. Tali differenze sono dovute alle diverse proprietà acide dei sistemi catalitici. Il sistema Zr/P/O presenta un'elevata affinità per i β-1,4-glucani, come dimostrato dall'attività nell'idrolisi della cellulosa a formare glucosio; al contrario, il sistema Nb/P/O presenta un'elevata attività nella formazione di prodotti di degradazione e sottoprodotti. Infine è stato effettuato uno studio preliminare del sistema Zr/P/O sull'idrolisi diretta di biomasse lignocellulosiche derivanti da scarti agricoli.
Resumo:
Testing e Analisi di problemi di usabilità che potrebbero sorgere se due sistemi venissero integrati in un unico nuovo sistema.
Resumo:
L'analisi di un'immagine con strumenti automatici si è sviluppata in quella che oggi viene chiamata "computer vision", la materia di studio proveniente dal mondo informatico che si occupa, letteralmente, di "vedere oltre", di estrarre da una figura una serie di aspetti strutturali, sotto forma di dati numerici. Tra le tante aree di ricerca che ne derivano, una in particolare è dedicata alla comprensione di un dettaglio estremamente interessante, che si presta ad applicazioni di molteplici tipologie: la profondità. L'idea di poter recuperare ciò che, apparentemente, si era perso fermando una scena ed imprimendone l'istante in un piano a due dimensioni poteva sembrare, fino a non troppi anni fa, qualcosa di impossibile. Grazie alla cosiddetta "visione stereo", invece, oggi possiamo godere della "terza dimensione" in diversi ambiti, legati ad attività professionali piuttosto che di svago. Inoltre, si presta ad utilizzi ancora più interessanti quando gli strumenti possono vantare caratteristiche tecniche accessibili, come dimensioni ridotte e facilità d'uso. Proprio quest'ultimo aspetto ha catturato l'attenzione di un gruppo di lavoro, dal quale è nata l'idea di sviluppare una soluzione, chiamata "SuperStereo", capace di permettere la stereo vision usando uno strumento estremamente diffuso nel mercato tecnologico globale: uno smartphone e, più in generale, qualsiasi dispositivo mobile appartenente a questa categoria.
Resumo:
I materiali per applicazioni fotovoltaiche hanno destato un interesse crescente nella comunità scienti�ca negli ultimi decenni. Le celle HIT (Het- erojunction Intrinsic Thin Layer ) sono dispositivi di ultima generazione che hanno raggiunto e�cienza elevata mantenendo bassi i costi di pro- duzione, e impiegano silicio amorfo (a-Si) come strato emettitore per il suo buon assorbimento della luce e silicio cristallino come regione attiva. La struttura amorfa del silicio presenta però una bassa conducibilità, oltre ad e�etti di degradazione che limitano considerevolmente la durevolezza di una cella. Per questo motivo si stanno cercando possibili alternative al silicio amorfo, in particolare strutture multifase e composti di silicio, ossigeno ed azoto. In questo lavoro sono esposti i risultati dell'analisi di sottili lay- er di Silicon Oxynitride ossigenato (SiOx Ny :H), in forma microcristallina, deposti tramite PECVD (P lasma-Enhanced Chemical Vapor Deposition) su vetro presso l'università di Costanza. La forma microcristallina è una distribuzione di agglomerati cristallini dell'ordine di grandezza di un mi- crometro in una matrice di silicio amorfo, e attualmente le sue proprietà ottiche ed elettroniche non sono ancora state studiate in maniera appro- fondita. Nonostante ciò, è invece evidente che la fase microstallina non presenta tanti difetti intrinseci come la forma amorfa e ne è quindi una val- ida alternativa. In questa ottica, si è svolto uno studio sperimentale delle proprietà ottiche di layers in forma microcristallina di SiOx Ny :H, quali la misura del gap energetico. I risultati sperimentali, volti a trovare la dipen- denza delle caratteristiche dai parametri di deposizione dei layers, hanno mostrato una riduzione del gap energetico con la concentrazione di N2 O, uno dei gas precursori utilizzati nella deposizione dei layers in camera di processo. In conclusione si può dire che il μc−SiOx Ny :H ha le buone carat- teristiche tipiche dei semiconduttori cristallini, che unite alla possibilità di regolare il valore del gap energetico in base alle scelte in fase di deposizione, gli conferisce buone prospettive per applicazioni in celle fotovoltaiche, come emettitore in celle ad eterogiunzione.
Resumo:
Con il presente lavoro si è tentato di verificare se le ragioni che hanno portato l’ordinamento italiano ad adottare il principio della derivazione del reddito d'impresa dal risultato contabile, possano essere considerate ancora attuali alla luce dell'introduzione dei principi IAS/IFRS nel nostro sistema contabile. In particolare, si è cercato di esaminare se questo collegamento ai principi contabili internazionali, introdotto nel nostro ordinamento anche per la redazione dei bilanci d'esercizio, abbia comportato il venir meno della neutralità dell'imposizione fiscale tra le società cd. Ias adopter e no Ias adopter. L'analisi di questa problematica è stata condotta anche prendendo come riferimento le modalità di recepimento delle opzioni contenute nel Regolamento n. 1606/2002 da parte dei legislatori di alcuni Stati europei, e valutando se le conseguenze fiscali emergenti tra i vari ordinamenti possano creare possibili distorsioni alla concorrenza ed alle libertà fondamentali dell’Unione europea.
Resumo:
La tesi analizza e approfondisce vari concetti tra cui l'e-commerce e il suo impatto nel mercato degli ultimi decenni, le fasi progettuali di un sito web, i linguaggi principali sullo sviluppo web, la piattaforma Magento e le sue funzionalità. Dopo lo studio e l'analisi di tali concetti si è passato alla fase di realizzazione del sito web applicando le conoscenze e gli strumenti base della programmazione web come i linguaggi PHP, HTML5, CSS3 e JavaScript.
Resumo:
Considerando l'elevato grado di inquinamento del pianeta e la forte dipendenza delle attività antropiche dai combustibili fossili, stanno avendo notevole sviluppo e incentivazione gli impianti per la produzione di energia elettrica da fonti rinnovabili. In particolare, la digestione anaerobica è in grande diffusione in Italia. Lo studio in oggetto si prefigge l'obiettivo di determinare, mediante analisi di Life Cycle Assessment (LCA), i carichi ambientali di un impianto di digestione anaerobica, e della sua filiera, per valutarne l'effettiva ecosostenibilità. L'analisi considera anche gli impatti evitati grazie all'immissione in rete dell'energia elettrica prodotta e all'utilizzo del digestato in sostituzione dell'urea. Lo studio analizza sei categorie d'impatto: Global warming potential (GWP), Abiotic depletion potential (ADP), Acidification potential (AP), Eutrophication potential (EP), Ozone layer depletion potential (ODP) e Photochemical oxidant formation potential (POFP). I valori assoluti degli impatti sono stati oggetto anche di normalizzazione per stabilire la loro magnitudo. Inoltre, è stata effettuata un'analisi di sensitività per investigare le variazioni degli impatti ambientali in base alla sostituzione di differenti tecnologie per la produzione di energia elettrica: mix elettrico italiano, carbone e idroelettrico. Infine, sono stati analizzati due scenari alternativi all'impianto in esame che ipotizzano la sua conversione ad impianto per l'upgrading del biogas a biometano. I risultati mostrano, per lo scenario di riferimento (produzione di biogas), un guadagno, in termini ambientali, per il GWP, l'ADP e il POFP a causa dei notevoli impatti causati dalla produzione di energia elettrica da mix italiano che la filiera esaminata va a sostituire. I risultati evidenziano anche quanto gli impatti ambientali varino in base alla tipologia di alimentazione del digestore anaerobica: colture dedicate o biomasse di scarto. I due scenari alternativi, invece, mostrano un aumento degli impatti, rispetto allo scenario di riferimento, causati soprattutto dagli ulteriori consumi energetici di cui necessitano sia i processi di purificazione del biogas in biometano sia i processi legati alla digestione anaerobica che, nel caso dello scenario di riferimento, sono autoalimentati. L'eventuale conversione dell'attuale funzione dell'impianto deve essere fatta tenendo anche in considerazione i benefici funzionali ed economici apportati dalla produzione del biometano rispetto a quella del biogas.
Resumo:
Il progresso tecnologico nel campo della biologia molecolare, pone la comunità scientifica di fronte all’esigenza di dare un’interpretazione all’enormità di sequenze biologiche che a mano a mano vanno a costituire le banche dati, siano esse proteine o acidi nucleici. In questo contesto la bioinformatica gioca un ruolo di primaria importanza. Un nuovo livello di possibilità conoscitive è stato introdotto con le tecnologie di Next Generation Sequencing (NGS), per mezzo delle quali è possibile ottenere interi genomi o trascrittomi in poco tempo e con bassi costi. Tra le applicazioni del NGS più rilevanti ci sono senza dubbio quelle oncologiche che prevedono la caratterizzazione genomica di tessuti tumorali e lo sviluppo di nuovi approcci diagnostici e terapeutici per il trattamento del cancro. Con l’analisi NGS è possibile individuare il set completo di variazioni che esistono nel genoma tumorale come varianti a singolo nucleotide, riarrangiamenti cromosomici, inserzioni e delezioni. Va però sottolineato che le variazioni trovate nei geni vanno in ultima battuta osservate dal punto di vista degli effetti a livello delle proteine in quanto esse sono le responsabili più dirette dei fenotipi alterati riscontrabili nella cellula tumorale. L’expertise bioinformatica va quindi collocata sia a livello dell’analisi del dato prodotto per mezzo di NGS ma anche nelle fasi successive ove è necessario effettuare l’annotazione dei geni contenuti nel genoma sequenziato e delle relative strutture proteiche che da esso sono espresse, o, come nel caso dello studio mutazionale, la valutazione dell’effetto della variazione genomica. È in questo contesto che si colloca il lavoro presentato: da un lato lo sviluppo di metodologie computazionali per l’annotazione di sequenze proteiche e dall’altro la messa a punto di una pipeline di analisi di dati prodotti con tecnologie NGS in applicazioni oncologiche avente come scopo finale quello della individuazione e caratterizzazione delle mutazioni genetiche tumorali a livello proteico.
Resumo:
Oggetto della mia tesi è la trasformata di Fourier e la sua applicazione alla risoluzione dell'equazione del calore e dell'equazione delle onde. Nel primo capitolo ricordo la definizione di trasformata di Fourier, alcune sue proprietà e infine la definizione di Spazi di Schwartz. Nel secondo capitolo risolverò l'equazione del calore e nel terzo l'equazione delle onde.
Resumo:
La simulazione realistica del movimento di pedoni riveste una notevole importanza nei mondi dell'architettonica e della sicurezza (si pensi ad esempio all'evacuazione di ambienti), nell'industria dell'entertainment e in molti altri ambiti, importanza che è aumentata negli ultimi anni. Obiettivo di questo lavoro è l'analisi di un modello di pedone esistente e l'applicazione ad esso di algoritmi di guida, l'implementazione di un modello più realistico e la realizzazione di simulazioni con particolare attenzione alla scalabilità. Per la simulazione è stato utilizzato il framework Alchemist, sviluppato all'interno del laboratorio di ricerca APICe, realizzando inoltre alcune estensioni che potranno essere inglobate nel pacchetto di distribuzione del sistema stesso. I test effettuati sugli algoritmi presi in esame evidenziano un buon guadagno in termini di tempo in ambienti affollati e il nuovo modello di pedone risulta avere un maggiore realismo rispetto a quello già esistente, oltre a superarne alcuni limiti evidenziati durante i test e ad essere facilmente estensibile.
Resumo:
In questa tesi ho voluto descrivere il Timing Attack al sistema crittografico RSA, il suo funzionamento, la teoria su cui si basa, i suoi punti di forza e i punti deboli. Questo particolare tipo di attacco informatico fu presentato per la prima volta da Paul C. Kocher nel 1996 all’“RSA Data Security and CRYPTO conferences”. Nel suo articolo “Timing Attacks on Implementations of Diffie-Hellman, RSA, DSS, and Other Systems” l’autore svela una nuova possibile falla nel sistema RSA, che non dipende da debolezze del crittosistema puramente matematiche, ma da un aspetto su cui nessuno prima di allora si era mai soffermato: il tempo di esecuzione delle operazioni crittografiche. Il concetto è tanto semplice quanto geniale: ogni operazione in un computer ha una certa durata. Le variazioni dei tempi impiegati per svolgere le operazioni dal computer infatti, necessariamente dipendono dal tipo di algoritmo e quindi dalle chiavi private e dal particolare input che si è fornito. In questo modo, misurando le variazioni di tempo e usando solamente strumenti statistici, Kocher mostra che è possibile ottenere informazioni sull’implementazione del crittosistema e quindi forzare RSA e altri sistemi di sicurezza, senza neppure andare a toccare l’aspetto matematico dell’algoritmo. Di centrale importanza per questa teoria diventa quindi la statistica. Questo perché entrano in gioco molte variabili che possono influire sul tempo di calcolo nella fase di decifrazione: - La progettazione del sistema crittografico - Quanto impiega la CPU ad eseguire il processo - L’algoritmo utilizzato e il tipo di implementazione - La precisione delle misurazioni - Ecc. Per avere più possibilità di successo nell’attaccare il sistema occorre quindi fare prove ripetute utilizzando la stessa chiave e input differenti per effettuare analisi di correlazione statistica delle informazioni di temporizzazione, fino al punto di recuperare completamente la chiave privata. Ecco cosa asserisce Kocher: “Against a vulnerable system, the attack is computationally inexpensive and often requires only known ciphertext.”, cioè, contro sistemi vulnerabili, l’attacco è computazionalmente poco costoso e spesso richiede solo di conoscere testi cifrati e di ottenere i tempi necessari per la loro decifrazione.
Resumo:
Per eseguire dei test automatizzati su una moto posta su banco a rulli, è necessario un software che permetta di gestire determinati attuatori sulla moto, in modo da poter simulare le condizioni di guida desiderate. Nel modello preso in esame, sono stati utilizzati Simulink e NI VeriStand. Simulink è un ambiente grafico di simulazione e analisi di sistemi dinamici completamente integrato con Matlab, caratterizzato dalla tipica interfaccia a blocchi, che possono essere personalizzati o scelti dalla libreria. Ni VeriStand è invece un ambiente software che permette di elaborare modelli scritti in Simulink in real time. Il presente lavoro è stato incentrato proprio su quest’ultimo aspetto. Per prima cosa è stata esaminata a fondo la parte del modello in Simulink, dopo di che è stata valutata la possibilità di riscrivere alcune parti del modello con un’applicazione interna a Simulink (StateFlow), che si potrebbe prestare meglio a simulare la logica di controllo rispetto a com’è gestita attualmente.
Resumo:
La sonnolenza durante la guida è un problema di notevole entità e rappresenta la causa di numerosi incidenti stradali. Rilevare i segnali che precedono la sonnolenza è molto importante in quanto, é possibile mettere in guardia i conducenti dei mezzi adottando misure correttive e prevenendo gli incidenti. Attualmente non esiste una metodica efficace in grado di misurare la sonnolenza in maniera affidabile, e che risulti di facile applicazione. La si potrebbe riconoscere da mutazioni di tipo comportamentale del soggetto come: presenza di sbadigli, chiusura degli occhi o movimenti di caduta della testa. I soggetti in stato di sonnolenza presentano dei deficit nelle loro capacità cognitive e psicomotorie. Lo stesso vale per i conducenti i quali, quando sono mentalmente affaticati non sono in grado di mantenere un elevato livello di attenzione. I tempi di reazione si allungano e la capacità decisionale si riduce. Ciò è associato a cambiamenti delle attività delta, theta e alfa di un tracciato EEG. Tramite lo studio dei segnali EEG è possibile ricavare informazioni utili sullo stato di veglia e sull'insorgenza del sonno. Come strumento di classificazione per elaborare e interpretare tali segnali, in questo studio di tesi sono state utilizzate le support vector machines(SVM). Le SVM rappresentano un insieme di metodi di apprendimento che permettono la classicazione di determinati pattern. Necessitano di un set di dati di training per creare un modello che viene testato su un diverso insieme di dati per valutarne le prestazioni. L'obiettivo è quello di classicare in modo corretto i dati di input. Una caratteristica delle SVM è una buona capacità di generalizzare indipendentemente dalla dimensione dello spazio di input. Questo le rende particolarmente adatte per l'analisi di dati biomedici come le registrazioni EEG multicanale caratterizzate da una certa ridondanza intrinseca dei dati. Nonostante sia abbastanza semplice distinguere lo stato di veglia dallo stato di sonno, i criteri per valutarne la transizione non sono ancora stati standardizzati. Sicuramente l'attività elettro-oculografica (EOG) riesce a dare informazioni utili riguardo l'insorgenza del sonno, in quanto essa è caratterizzata dalla presenza di movimenti oculari lenti rotatori (Slow Eye Movements, SEM) tipici della transizione dalla veglia alla sonno. L'attività SEM inizia prima dello stadio 1 del sonno, continua lungo tutta la durata dello stesso stadio 1, declinando progressivamente nei primi minuti dello stadio 2 del sonno fino a completa cessazione. In questo studio, per analizzare l'insorgere della sonnolenza nei conducenti di mezzi, sono state utilizzate registrazioni provenienti da un solo canale EEG e da due canali EOG. Utilizzare un solo canale EEG impedisce una definizione affidabile dell'ipnogramma da parte dei clinici. Quindi l'obiettivo che ci si propone, in primo luogo, è quello di realizzare un classificatore del sonno abbastanza affidabile, a partire da un solo canale EEG, al fine di verificare come si dispongono i SEM a cavallo dell'addormentamento. Quello che ci si aspetta è che effettivamente l'insorgere della sonnolenza sia caratterizzata da una massiccia presenza di SEM.
Resumo:
Il bisogno di creare dei metodi per l’identificazione delle performance e strumenti di diagnosi è sempre maggiore nelle turbomacchine. Le case costruttrici di motori, in generale, sono guidate dalle richieste del mercato e da normative sempre più severe, e ricercano quindi da un lato, sempre migliori prestazioni come ad esempio la diminuzione dei consumi e, dall’altro, l’abbattimento degli agenti inquinanti. In ambito industriale si ha l’esigenza di rendere più rapidi i tempi di progettazione e sviluppo dei motori per l’abbattimento dei costi di progettazione e per minimizzare il tempo di commercializzazione. Ecco perché entra in gioco, ed assume importanza, l’uso della simulazione numerica che fornisce informazioni utili sia in fase di verifica, che in fase di progetto di tutti i componenti del motore, anche quelli che sarebbero difficilmente accessibili per misure sperimentali. Al contempo i calcolatori moderni diventano facilmente e rapidamente sempre più potenti riducendo così i tempi di calcolo, e ciò ha consentito l’uso di tecniche numeriche che prima sarebbero risultate impensabili da utilizzare. Per mezzo dell’uso di codici di tipo bi o tri-dimensionale è possibile conoscere e valutare i valori delle grandezze termodinamiche del fluido che attraversa il motore punto per punto. Questi metodi presentano un elevata accuratezza ma hanno anche lo svantaggio di richiedere un elevato costo computazionale con conseguente aumento dei tempi di calcolo. In più hanno bisogno di molti dati di input per il modello matematico, e dipendono fortemente dalle condizioni iniziali e dalle condizioni al contorno. Nasce quindi l'esigenza di un ambiente di sviluppo che consenta una modellazione semplificata degli elementi costituenti il motore, ed un rapido interfacciamento con modelli locali più sofisticati. Inoltre, se si vogliono ottimizzare dei parametri relativi all’impianto globale oppure se si desidera avere un quadro generale delle prestazioni del motore è sufficiente usare modelli 0-D e 1-D per i vari componenti del motore. Sono stati svolti molti studi concentrati sullo sviluppo di strumenti capaci di supportare operazioni di pianificazione e/o per validare analisi di diagnosi.
Resumo:
Analisi di campi di moto e temperatura in micro condotti al variare delle condizioni operative e della geometria. Dopo una breve introduzione al settore della microfluidica, si presentano, dal punto di vista teorico, le condizioni operative che caratterizzano il moto in presenza di rarefazione, sottolineando come il modello matematico di base per la fluidodinamica debba essere modificato per tenerne conto. Segue una breve parentesi dedicata all’illustrazione delle tecnologie e dei procedimenti di fabbricazione dei moderni microcanali utilizzati in questa recente branca della termofluidodinamica. Si vedrà, successivamente, il comportamento termoidraulico di questi ultimi al variare di parametri geometrici come il fattore di forma ed il raggio di curvatura degli spigoli della sezione attraverso simulazioni effettuate tramite FlexPDE: il software in questione lascia poi all’utente la gestione del post-processing.