958 resultados para Marketing - Impiego delle comunicazioni di massa


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La saturazione del mercato del glicerolo, co-prodotto del biodiesel, ha portato allo sviluppo di nuovi processi che permettessero la sua trasformazione in composti a maggiore valore aggiunto. Uno dei principali processi di interesse è la sintesi diretta di acido acrilico, che prevede uno step di disidratazione, catalizzato da siti acidi, con l’ottenimento dell’acroleina, e un successivo step di ossidazione dell’aldeide insatura, mediato da siti redox, ad acido acrilico. Il compimento di entrambi gli step catalitici può essere effettuato mediante l’utilizzo di catalizzatori bifunzionali. I sistemi più promettenti sono costituiti da bronzi di tungsteno/vanadio con struttura esagonale. Per sviluppare ulteriormente tali sistemi è necessario determinare l’influenza di alcune loro caratteristiche, come l’acidità e le caratteristiche dello ioni vanadio, sulle prestazioni catalitiche. Lo scopo di questo lavoro ha riguardato lo studio dell’influenza dei centri acidi presenti nei bronzi esagonali di tungsteno/vanadio, e del ruolo dello ione vanadio, analizzando il comportamento catalitico di bronzi di tungsteno e di alluminofosfati.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel presente lavoro di tesi, in seguito ad acquisizioni di dati effettuate nella sala prove del "Laboratorio di Macchine e Propulsione" della Scuola di Ingegneria e Architettura di Forlì sul turboshaft Allison 250 C18, in una prima fase sono state ricavate le mappe prestazionali dei singoli componenti del motore, elaborando i dati sperimentali in ambiente MatLab. Le acquisizioni sono state effettuate mediante l'utilizzo di sensori di pressione, temperatura e velocità installati in precedenza sul motore e opportunamente calibrati. In seguito alla realizzazione delle mappe prestazionali, si è passati all'allestimento completo di un modello dinamico in ambiente Simulink, del motore Allison 250 C18. Tale modello riproduce, in opportuni blocchi, ciascun componente facente parte della motorizzazione. Ogni blocco riceve in ingresso le caratteristiche fisiche di interesse del flusso (temperatura, pressione, calore specifico a pressione costante e gamma) provenienti dal blocco precedente tramite un "filo", le rielabora al suo interno risolvendo le equazioni tipiche di ciascun componente e interpolando le mappe di prestazione ricavate precedentemente in MatLab, e le invia come input al blocco successivo o in retroazione ai blocchi precedenti. In ogni blocco è stato realizzato un sistema di dinamica di pressione che, ad ogni istante, risolve un'equazione differenziale dipendente dalla differenza di portata a monte e a valle di un componente e dal volume di controllo, che restituisce il valore di pressione in uscita proporzionale alla variazione di portata stessa. Nel presente lavoro di tesi si è cercato di stabilizzare questo complesso sistema in una condizione di progetto, fissata a 30000 rpm del gruppo gas generator. Un sistema di controllo del numero di giri tramite variazione di portata di combustibile è stato realizzato al fine di poter, in futuro, far funzionare il modello anche fuori dalla condizione di progetto e riuscire a simulare l'andamento delle prove sperimentali reali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi si è data una dimostrazione dovuta ad Andreotti e Frenkel del Teorema di Lefschetz, utilizzando gli strumenti e i risultati della Teoria di Morse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio di tesi che segue analizza un problema di controllo ottimo che ho sviluppato con la collaborazione dell'Ing. Stefano Varisco e della Dott.ssa Francesca Mincigrucci, presso la Ferrari Spa di Maranello. Si è trattato quindi di analizzare i dati di un controllo H-infinito; per eseguire ciò ho utilizzato i programmi di simulazione numerica Matlab e Simulink. Nel primo capitolo è presente la teoria dei sistemi di equazioni differenziali in forma di stato e ho analizzato le loro proprietà. Nel secondo capitolo, invece, ho introdotto la teoria del controllo automatico e in particolare il controllo ottimo. Nel terzo capitolo ho analizzato nello specifico il controllo che ho utilizzato per affrontare il problema richiesto che è il controllo H-infinito. Infine, nel quarto e ultimo capitolo ho specificato il modello che ho utilizzato e ho riportato l'implementazione numerica dell'algoritmo di controllo, e l'analisi dei dati di tale controllo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Quando si parla di architetture di controllo in ambito Web, il Modello ad Eventi è indubbiamente quello più diffuso e adottato. L’asincronicità e l’elevata interazione con l’utente sono caratteristiche tipiche delle Web Applications, ed un architettura ad eventi, grazie all’adozione del suo tipico ciclo di controllo chiamato Event Loop, fornisce un'astrazione semplice ma sufficientemente espressiva per soddisfare tali requisiti. La crescita di Internet e delle tecnologie ad esso associate, assieme alle recenti conquiste in ambito di CPU multi-core, ha fornito terreno fertile per lo sviluppo di Web Applications sempre più complesse. Questo aumento di complessità ha portato però alla luce alcuni limiti del modello ad eventi, ancora oggi non del tutto risolti. Con questo lavoro si intende proporre un differente approccio a questa tipologia di problemi, che superi i limiti riscontrati nel modello ad eventi proponendo un architettura diversa, nata in ambito di IA ma che sta guadagno popolarità anche nel general-purpose: il Modello ad Agenti. Le architetture ad agenti adottano un ciclo di controllo simile all’Event Loop del modello ad eventi, ma con alcune profonde differenze: il Control Loop. Lo scopo di questa tesi sarà dunque approfondire le due tipologie di architetture evidenziandone le differenze, mostrando cosa significa affrontare un progetto e lo sviluppo di una Web Applications avendo tecnologie diverse con differenti cicli di controllo, mettendo in luce pregi e difetti dei due approcci.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il lavoro di tesi svolto si colloca nell’ambito dei sistemi di determinazione del centro di massa di una specifica classe di satelliti definiti, in gergo, microsatelliti. Il metodo concepito è basato su un simulatore di calcolo del centro di gravità, implementato in ambiente MATLAB. Attraverso l’astrazione matematica del modello fisico, di cui si propone un primo concept anch’esso modellato mediante software CAD durante lo svolgimento della tesi, è possibile determinare il centro di massa del corpo in esame. Esso è stato definito come il punto medio del segmento di minima distanza tra due particolari rette. Gli obiettivi fissati presupponevano che tale dispositivo avesse una buona affidabilità, risultasse di semplice realizzazione e di facile utilizzo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Riguarda la realizzazione di un modello per l'analisi prestazionale di un casello autostradale, in grado di valutare performance e livello di qualità erogato all'utenza in relazione al rapporto esistente tra domanda e offerta di servizio. Trattandosi di un varco autostradale si tratterà di analizzare un problema relativo ad un certo numero di veicoli in attesa di ricevere un servizio caratterizzato da tempi e modalità diverse a seconda della tipologia veicolare e della tipologia di esazione utilizzata. Il problema viene affrontato tramite la teoria delle code che permette la valutazione dei relativi parametri prestazionali. Partendo dallo studio dei casi più semplici di coda M/M/1 vengono fatte valutazioni sui tempi di servizio arrivando a identificare il modello M/G/1 come più appropriato per un tale problema. Viene poi illustrata l'impostazione del modello con input e output relativi. Il modello viene infine applicato a una stazione reale della rete per evidenziare le valutazioni che è possibile ottenere da un modello così realizzato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Value Stream Mapping di un flusso di produzione in un reparto di lavorazioni meccaniche. Riduzione del Working Capital tramite livelellamento della produzione per la riduzione del lotto medio. Analisi e razionalizzazione dei magazzini interoperazionali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Raccolta e analisi dei dati relativi alla valutazione dell'accessibilità Web dei siti istituzionali delle Camere di Commercio Industria Artigianato e Agricoltura italiane.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Sono state valutate sperimentalmente le prestazioni di tre diversi collegamenti di Smart Metering in tre ambienti (urbano, sub-urbano e urbano denso) alla frequenza di 169 MHz. Grazie al calcolo del valore di Building Penetration Loss e dei valori di Path Loss è stato possibile stabilire le distanze massime di collegamento accentratore-meter al variare della probabilità di copertura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo strumento MIPAS, operativo a bordo del satellite polare ENVISAT negli anni dal 2002 al 2012, ha misurato spettri di emissione nel medio infrarosso utilizzando la tecnica di scansione del lembo atmosferico. L'Agenzia Spaziale Europea (ESA), mediante un algoritmo di inversione ottimizzato, ha ricavato dagli spettri di MIPAS la distribuzione verticale di diversi composti chimici minoritari in stratosfera e alta troposfera. Tra questi composti figurano l'ozono (O3) e il CFC-11. Lo strato di ozono stratosferico svolge una funzione fondamentale come schermo della radiazione ultravioletta solare, altrimenti dannosa per gli esseri viventi sulla terra. D'altra parte, da alcuni decenni i cosiddetti cloro-fluoro carburi (CFC), tra cui la molecola di CCl3F (indicata sinteticamente con la sigla CFC-11) sono ritenuti responsabili della diminuzione generale dell'ozono stratosferico. Per questo motivo nel 1987 a Montreal è stato siglato un accordo internazionale per limitare l'immissione dei CFC in atmosfera. A partire dalla fine degli anni '80, in base a questo accordo, ci si aspetta quindi una progressiva riduzione dei CFC e un conseguente graduale recupero della concentrazione di ozono. Le misure di MIPAS, con copertura geografica globale, offrono una possibilità assai interessante per la verifica di queste tendenze attese. In questo lavoro di tesi, i profili verticali di frazione volumetrica (VMR) di ozono e CFC-11 ricavati dal processore di ESA versione 6.0 sono stati interpolati a livelli di pressione costante, raggruppati per bande di latitudine e mediati su intervalli di tempo mensili. Abbiamo quindi sviluppato un modello di tendenza parametrico che include un termine costante, uno lineare, due termini dell'oscillazione quasi biennale (QBO), un termine di flusso solare radio e diversi termini armonici in seno e coseno con periodo diverso. Il modello è stato quindi adattato mediante un algoritmo di minimizzazione di Levenberg-Marquardt alle medie mensili ottenute dalle misure di MIPAS per tutto il periodo che va da luglio 2002 ad aprile 2012. Le stime di tendenza ottenute per ozono e CFC-11 sono statisticamente significative e, a seconda della latitudine e del livello di pressione considerato, assumono una gamma di valori che va da -0.15 ppmv/decade a +0.44 ppmv/decade per l'ozono e una gamma di valori che va da -50.2 pptv/decade a +6.5 pptv/decade per il CFC-11. Abbiamo ottenuto tendenze per la maggior parte leggermente positive per l'ozono e quasi ovunque fortemente negative per il CFC-11, risultato in accordo con le disposizioni emanate a seguito del Protocollo di Montreal e in buon accordo anche con lavori precedentemente pubblicati in letteratura. Infine abbiamo stimato l'errore sistematico sulle tendenze ricavate, causato dalla deriva strumentale dovuta alla non-linearità della risposta dei rivelatori, che varia a seguito dell'invecchiamento dei rivelatori stessi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi si descrive il lavoro svolto presso l’istituto INFN-CNAF, che consiste nello sviluppo di un’applicazione parallela e del suo utilizzo su di un’architettura a basso consumo, allo scopo di valutare il comportamento della stessa, confrontandolo a quello di architetture ad alta potenza di calcolo. L’architettura a basso consumo utilizzata `e un system on chip mutuato dal mondo mobile e embedded contenente una cpu ARM quad core e una GPU NVIDIA, mentre l’architettura ad alta potenza di calcolo `e un sistema x86 64 con una GPU NVIDIA di classe server. L’applicazione `e stata sviluppata in C++ in due differenti versioni: la prima utilizzando l’estensione OpenMP e la seconda utilizzando l’estensione CUDA. Queste due versioni hanno permesso di valutare il comportamento dell’architettura a basso consumo sotto diversi punti di vista, utilizzando nelle differenti versioni dell’applicazione la CPU o la GPU come unita` principale di elaborazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La stima della frequenza di accadimento di eventi incidentali di tipo random da linee e apparecchiature è in generale effettuata sulla base delle informazioni presenti in banche dati specializzate. I dati presenti in tali banche contengono informazioni relative ad eventi incidentali avvenuti in varie tipologie di installazioni, che spaziano dagli impianti chimici a quelli petrolchimici. Alcune di queste banche dati risultano anche piuttosto datate, poiché fanno riferimento ad incidenti verificatisi ormai molto addietro negli anni. Ne segue che i valori relativi alle frequenze di perdita forniti dalle banche dati risultano molto conservativi. Per ovviare a tale limite e tenere in conto il progresso tecnico, la linea guida API Recommended Pratice 581, pubblicata nel 2000 e successivamente aggiornata nel 2008, ha introdotto un criterio per determinare frequenze di perdita specializzate alla realtà propria impiantistica, mediante l’ausilio di coefficienti correttivi che considerano il meccanismo di guasto del componente, il sistema di gestione della sicurezza e l’efficacia dell’attività ispettiva. Il presente lavoro di tesi ha lo scopo di mettere in evidenza l’evoluzione dell’approccio di valutazione delle frequenze di perdita da tubazione. Esso è articolato come descritto nel seguito. Il Capitolo 1 ha carattere introduttivo. Nel Capitolo 2 è affrontato lo studio delle frequenze di perdita reperibili nelle banche dati generaliste. Nel Capitolo 3 sono illustrati due approcci, uno qualitativo ed uno quantitativo, che permettono di determinare le linee che presentano priorità più alta per essere sottoposte all’attività ispettiva. Il Capitolo 4 è dedicato alla descrizione della guida API Recomended Practice 581. L’applicazione ad un caso di studio dei criteri di selezione delle linee illustrati nel Capitolo 3 e la definizione delle caratteristiche dell’attività ispettiva secondo la linea guida API Recomended Practice 581 sono illustrati nel Capitolo 5. Infine nel Capitolo 6 sono rese esplicite le considerazioni conclusive dello studio effettuato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’elaborato è incentrato sul problema dello Human Blockage, e lo si è analizzato utilizzando tecniche di copertura radio, per ambienti indoor, basate sull’uso di array di antenne. In particolare si è dato enfasi alle tecniche Radiale, Single Beamforming e Multi Beamforming che sono state utilizzate per ottenere le performance in termini di CINR che hanno evidenziato le differenze tra scenari "statici" in cui le ostruzioni sono solo oggetti e "dinamici" i blockage sono costituiti da corpi umani.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'analisi di fase del segnale si presenta appropriata e di notevole efficacia per l'individuazione di attivazioni in fibrillazione atriale, in quanto permette la valutazione di come queste si generano e si propagano. Dopo aver ottenuto i dati relativi alle attivazioni, è possibile ricostruire delle mappe di fase atriale che possono essere utilizzate dal clinico per individuare i punti in cui cauterizzare. In questo lavoro di tesi sono stati utilizzati i segnali endocavitari atriali acquisiti con un catetere a contatto di nuova generazione per ottenere gli istanti di attivazione nelle diverse zone della camera atriale. I risultati dell'algoritmo messo a punto e testato su segnali in ritmo sinusale, sono stati confrontati con le performance di due metodi riportati in letteratura, evidenziando prestazioni migliori che potrebbero portare alla costruzione accurata delle mappe di fase e quindi ad una precisa localizzazione delle aree da cauterizzare durante la procedura di ablazione.