565 resultados para sistemi catalitici organici, aminocatalisi


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi di laurea nasce dall’esperienza maturata presso la VM Motori S.p.A., ufficio CRM (Centro Ricerca Motori) di ingegneria, divisione del reparto R&D (Research and Development) situato a Cento di Ferrara. Durante tale esperienza sono state affrontate le problematiche inerenti al settore automotive riguardo la ricerca e lo sviluppo dei motori endotermici diesel. Dopo un approccio introduttivo, che definisce l’ambito lavorativo in cui opera VM Motori S.p.A. e l’oggetto della tesi, si passa alla definizione ed alla calibrazione di un circuito low pressure EGR di un propulsore diesel da 200HP@3800rpm di potenza e 500Nm@1600rpm di coppia per uso automobilistico, mediante l’ausilio dei software AδαMO, INCA, Controldesk Next Generation, DoE, DIAdem ed INDICOM, software per lo studio della calibrazione al banco sviluppo. Si analizzano gli aspetti che contraddistinguono la VM Motori S.p.A. dalle altre aziende specializzate nel settore automotive, facendo riferimento ai campi produttivi in cui si applica l’ingegneria meccanica ed analizzandone gli aspetti tecnici, metodici e gestionali. Da notare il ruolo fondamentale delle automotive nell’economia mondiale in riferimento alla produzione dei principali propulsori diesel, primarie fonti produttive della VM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nell'era di Internet e della digitalizzazione, anche la telefonia ha avuto la possibilità di evolversi, e grazie alle tecnologie Voice-over-IP è stato possibile realizzare servizi di comunicazione avanzata su reti di dati. Anche se la comunicazione vocale è l'aspetto chiave di questi sistemi, le reti VoIP supportano altri tipi di servizi, tra cui video, messaggistica istantanea, condivisione di file, ecc. Il successo di questa nuova tipologia di rete è dovuto ad una migliore flessibilità rispetto ai vecchi sistemi analogici, grazie ad architetture aperte e implementazioni a livello software, e soprattutto ad un minor costo legato alle apparecchiature ed ai collegamenti utilizzati, ed ai nuovi modelli di business e di consumo sempre più orientati allo sfruttamento della connettività a banda larga. Tuttavia, l'implementazione dei sistemi VoIP rappresenta anche un grado di complessità maggiore in termini di architetture di rete, di protocolli, e di implementazione, e con questo ne segue un incremento delle possibili vulnerabilità. Una falla nella sicurezza in questi sistemi può portare a disservizi e violazione della privacy per gli utenti con conseguenti ripercussioni economiche per i relativi gestori. La tesi analizza la sicurezza delle reti VoIP concentrandosi sul protocollo che sta alla base dei servizi multimediali, il protocollo SIP. SIP è un protocollo di livello applicativo realizzato per creare, modificare e terminare delle sessioni multimediali tra due o più utenti. Dopo un'introduzione alle generalità del protocollo, vengono esaminate le classi di vulnerabilità delle reti VoIP e gli attacchi a SIP, e vengono presentate alcune contromisure attuabili. Viene mostrato un esempio di come vengano attuati alcuni dei principali attacchi a SIP tramite l'utilizzo di appositi strumenti. L'eborato conclude con alcune considerazioni sulle minacce al protocollo e sugli obiettivi futuri che la comunità scientifica dovrebbe perseguire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il Web nel corso della sua esistenza ha subito un mutamento dovuto in parte dalle richieste del mercato, ma soprattutto dall’evoluzione e la nascita costante delle numerose tecnologie coinvolte in esso. Si è passati da un’iniziale semplice diffusione di contenuti statici, ad una successiva collezione di siti web, dapprima con limitate presenze di dinamicità e interattività (a causa dei limiti tecnologici), ma successivamente poi evoluti alle attuali applicazioni web moderne che hanno colmato il gap con le applicazioni desktop, sia a livello tecnologico, che a livello di diffusione effettiva sul mercato. Tali applicazioni web moderne possono presentare un grado di complessità paragonabile in tutto e per tutto ai sistemi software desktop tradizionali; le tecnologie web hanno subito nel tempo un evoluzione legata ai cambiamenti del web stesso e tra le tecnologie più diffuse troviamo JavaScript, un linguaggio di scripting nato per dare dinamicità ai siti web che si ritrova tutt’ora ad essere utilizzato come linguaggio di programmazione di applicazioni altamente strutturate. Nel corso degli anni la comunità di sviluppo che ruota intorno a JavaScript ha prodotto numerose librerie al supporto del linguaggio dotando così gli sviluppatori di un linguaggio completo in grado di far realizzare applicazioni web avanzate. Le recenti evoluzioni dei motori javascript presenti nei browser hanno inoltre incrementato le prestazioni del linguaggio consacrandone la sua leadership nei confronti dei linguaggi concorrenti. Negli ultimi anni a causa della crescita della complessità delle applicazioni web, javascript è stato messo molto in discussione in quanto come linguaggio non offre le classiche astrazioni consolidate nel tempo per la programmazione altamente strutturata; per questo motivo sono nati linguaggi orientati alla programmazione ad oggetti per il web che si pongono come obiettivo la risoluzione di questo problema: tra questi si trovano linguaggi che hanno l’ambizione di soppiantare JavaScript come ad esempio Dart creato da Google, oppure altri che invece sfruttano JavaScript come linguaggio base al quale aggiungono le caratteristiche mancanti e, mediante il processo di compilazione, producono codice JavaScript puro compatibile con i motori JavaScript presenti nei browser. JavaScript storicamente fu introdotto come linguaggio sia per la programmazione client-side, che per la controparte server-side, ma per vari motivi (la forte concorrenza, basse performance, etc.) ebbe successo solo come linguaggio per la programmazione client; le recenti evoluzioni del linguaggio lo hanno però riportato in auge anche per la programmazione server-side, soprattutto per i miglioramenti delle performance, ma anche per la sua naturale predisposizione per la programmazione event-driven, paradigma alternativo al multi-threading per la programmazione concorrente. Un’applicazione web di elevata complessità al giorno d’oggi può quindi essere interamente sviluppata utilizzando il linguaggio JavaScript, acquisendone sia i suoi vantaggi che gli svantaggi; le nuove tecnologie introdotte ambiscono quindi a diventare la soluzione per i problemi presenti in JavaScript e di conseguenza si propongono come potenziali nuovi linguaggi completi per la programmazione web del futuro, anticipando anche le prossime evoluzioni delle tecnologie già esistenti preannunciate dagli enti standard della programmazione web, il W3C ed ECMAScript. In questa tesi saranno affrontate le tematiche appena introdotte confrontando tra loro le tecnologie in gioco con lo scopo di ottenere un’ampia panoramica delle soluzioni che uno sviluppatore web dovrà prendere in considerazione per realizzare un sistema di importanti dimensioni; in particolare sarà approfondito il linguaggio TypeScript proposto da Microsoft, il quale è nato in successione a Dart apparentemente con lo stesso scopo, ma grazie alla compatibilità con JavaScript e soprattutto con il vasto mondo di librerie legate ad esso nate in questi ultimi anni, si presenta nel mercato come tecnologia facile da apprendere per tutti gli sviluppatori che già da tempo hanno sviluppato abilità nella programmazione JavaScript.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Microprocessori basati su singolo processore (CPU), hanno visto una rapida crescita di performances ed un abbattimento dei costi per circa venti anni. Questi microprocessori hanno portato una potenza di calcolo nell’ordine del GFLOPS (Giga Floating Point Operation per Second) sui PC Desktop e centinaia di GFLOPS su clusters di server. Questa ascesa ha portato nuove funzionalità nei programmi, migliori interfacce utente e tanti altri vantaggi. Tuttavia questa crescita ha subito un brusco rallentamento nel 2003 a causa di consumi energetici sempre più elevati e problemi di dissipazione termica, che hanno impedito incrementi di frequenza di clock. I limiti fisici del silicio erano sempre più vicini. Per ovviare al problema i produttori di CPU (Central Processing Unit) hanno iniziato a progettare microprocessori multicore, scelta che ha avuto un impatto notevole sulla comunità degli sviluppatori, abituati a considerare il software come una serie di comandi sequenziali. Quindi i programmi che avevano sempre giovato di miglioramenti di prestazioni ad ogni nuova generazione di CPU, non hanno avuto incrementi di performance, in quanto essendo eseguiti su un solo core, non beneficiavano dell’intera potenza della CPU. Per sfruttare appieno la potenza delle nuove CPU la programmazione concorrente, precedentemente utilizzata solo su sistemi costosi o supercomputers, è diventata una pratica sempre più utilizzata dagli sviluppatori. Allo stesso tempo, l’industria videoludica ha conquistato una fetta di mercato notevole: solo nel 2013 verranno spesi quasi 100 miliardi di dollari fra hardware e software dedicati al gaming. Le software houses impegnate nello sviluppo di videogames, per rendere i loro titoli più accattivanti, puntano su motori grafici sempre più potenti e spesso scarsamente ottimizzati, rendendoli estremamente esosi in termini di performance. Per questo motivo i produttori di GPU (Graphic Processing Unit), specialmente nell’ultimo decennio, hanno dato vita ad una vera e propria rincorsa alle performances che li ha portati ad ottenere dei prodotti con capacità di calcolo vertiginose. Ma al contrario delle CPU che agli inizi del 2000 intrapresero la strada del multicore per continuare a favorire programmi sequenziali, le GPU sono diventate manycore, ovvero con centinaia e centinaia di piccoli cores che eseguono calcoli in parallelo. Questa immensa capacità di calcolo può essere utilizzata in altri campi applicativi? La risposta è si e l’obiettivo di questa tesi è proprio quello di constatare allo stato attuale, in che modo e con quale efficienza pùo un software generico, avvalersi dell’utilizzo della GPU invece della CPU.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La ricerca iniziata all’interno del Laboratorio di Sintesi Finale, e che ha continuato ad approfondirsi parallelamente al progetto durante lo sviluppo della tesi, si è basata sullo studio del tessuto urbano e sulla sperimentazione della sostituzione di porzioni dello stesso come strumento progettuale. Oggi, il patrimonio immobiliare italiano è in gran parte caratterizzato da edifici costruiti nel periodo dell’emergenza, degli anni Cinquanta e Sessanta; la maggior parte di esso è costituito da edilizia che ora necessita di interventi di manutenzione e rinnovo (anche dai punti di vista energetico, impiantistico e sismico), perchè nel periodo della loro realizzazione sono stati usati sistemi costruttivi sbrigativi e si è cercato di ridurre i costi. Si tratta di un fenomeno diffuso che interessa anche la zona della costa dell’Emilia-Romagna: oltre 130 km di riviera caratterizzati da diversi paesaggi che sono il risultato diretto del rapporto uomo-natura. “La presenza e l’azione dell’uomo è ed è stata dominante sul paesaggio costiero mediterraneo, a volte con grande sapienza, equilibrio e rispetto dei luoghi, altre volte con devastante consumo e depauperamento dell’ambiente e delle sue risorse”. Rimini e le sue frazioni fanno parte di un paesaggio fortemente antropizzato, che mostra chiaramente i segni di quegli anni di costruzione privi di pianificazione che hanno favorito lo sviluppo di una serie di nuclei costieri contigui, addensati all’interno di una porzione di territorio delimitata da due linee: quella ferroviaria e quella di costa. Il caso di Viserba è emblematico, perché oggi rappresenta il risultato di una edilizia che ha seguito un’ottica prevalentemente privatistica e speculativa. Il territorio, estremamente parcellizzato e denso, ha favorito la creazione di una sorta di confusione urbana tale da rendere difficilmente riconoscibili i caratteri originari del luogo. Il lungomare è diventato il manifesto di questo intervento, tanto che se si rivolgono le spalle al mare per osservare il primo fronte, ciò che si nota non sono di certo i villini storici, i quali passano inevitabilmente in secondo piano. Il nostro esercizio progettuale si è concentrato proprio sulla fascia litoranea che oggi non dialoga più con il mare, ponendoci come obiettivi, non solo lo sviluppo di una strategia di riqualificazione urbana, ma anche la ricerca di un modo per ristabilire attraverso un nuovo segno urbano, il legame perso tra acqua e terra. Fondamentali per il recupero del rapporto della città con il mare sono stati l’inserimento di spazi destinati alla collettività, percorsi, accessi al mare in grado di ricostituire la facciata marittima e di fungere da legante di un sistema unico che comprende sia la struttura urbana sia la fascia costiera, estendendoci fino alle barriere frangiflutti, che oggi costituiscono solo un limite visivo molto forte. La sfida che, pertanto, è stata lanciata già all’interno del laboratorio era quella di cercare una risposta progettuale, una strategia chiara e condivisa, che aspirasse a risolvere i problemi generati da quegli anni di edificazione “compulsiva” e senza regole all’interno del particolare contesto viserbese. La nostra ricerca è stata supportata dall’approfondimento di un tema comune principale, la sostituzione di tessuto urbano, che è diventato per noi lo strumento chiave per lo sviluppo del progetto. L’analisi si è concentrata, tra i vari aspetti, anche sulla situazione attuale italiana che è apparsa critica e poco incoraggiante a causa del basso livello qualitativo degli edifici nelle principali aree urbane (circa il 35% è stato costruito attorno agli anni Cinquanta ed è inefficiente da diversi punti di vista), della crisi del mercato immobiliare e del disagio sociale derivante da ragioni di vario tipo. L’Italia è un paese eccessivamente radicato a una scelta urbanistica conservativa e perciò ancora molto lontano dalla logica della sostituzione urbana. Quest’ultima può costituire il mezzo per redigere un coraggioso progetto strategico che, nell’ottica del lungo periodo, permetta di delineare un disegno dello sviluppo urbano delle nostre città, migliorandone le loro realtà urbane? Il dibattito oggi è molto acceso. Ed è proprio per tentare di trovare una possibile risposta a questo interrogativo che il nostro esercizio progettuale ha sperimentato questo tipo di intervento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi si prefissa l’obiettivo di analizzare l'evoluzione dei sistemi FPGA nel corso degli ultimi anni, evidenziando le novità e gli aspetti tecnici più significativi che ogni famiglia ha introdotto. Il primo capitolo avrà il compito di mostrare l’architettura ed il funzionamento generale di un FPGA, cercando di illustrarne le principali caratteristiche. Il secondo capitolo introdurrà i dispositivi FPGA Xilinx e mostrerà le caratteristiche tecniche dei principali dispositivi prodotto dall'azienda. Il terzo capitolo mostrerà invece le caratteristiche tecniche degli FPGA più recenti prodotti da Altera. Il quarto ed ultimo capitolo, invece, metterà a confronto alcuni parametri fondamentali dei dispositivi descritti nell'elaborato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’affermazione del trasporto containerizzato verificatasi negli ultimi decenni ha determinato una profonda rivoluzione nell’ambito del trasporto marittimo internazionale. L’unitizzazione dei carichi e l’innovazione tecnologica dei mezzi utilizzati per il trasporto e la movimentazione consentono oggi di gestire ingenti volumi di traffico in tempi rapidi e con costi relativamente contenuti. L’utilizzo di unità standard ha inoltre reso possibile lo sviluppo del trasporto intermodale e la realizzazione di catene logistiche complesse. In questa tesi sono state analizzate le problematiche relative alla gestione delle operazioni che vengono svolte all’interno dei terminal container, i nodi fondamentali del trasporto intermodale. In particolare è stato studiato il caso del nuovo Terminal Container del Porto di Ravenna. Trattandosi di un terminal ancora in fase di progettazione, sono state applicate delle metodologie che consentono di effettuare una valutazione preliminare di quelle che potrebbero essere le potenzialità del nuovo terminal. In primo luogo sono stati determinati il throughput potenziale del terminal, in funzione delle aree di stoccaggio e della capacità operativa della banchina, e il numero medio di mezzi necessari alla movimentazione di tale volume di traffico annuo. Poi si è proceduto all’applicazione di modelli analitici specifici per la valutazione delle performance dell’equipment del terminal. I risultati ottenuti sono stati infine utilizzati per lo studio delle interazioni tra i sub-sistemi principali del terminal attraverso la teoria delle code, allo scopo di valutarne il livello di servizio e individuare eventuali criticità.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro tratta la progettazione di un intervento tecnologico e organizzativo in grado di guidare la creazione di un ecosistema di imprese per un distretto commerciale: Centergross (Funo d’Argelato, Bologna). Tale lavoro è stato preparato durante un periodo di Stage della durata di cinque mesi effettuato presso Epoca S.r.l (Bologna) a seguito della necessità, riscontrata dalla direzione del distretto, di ripensare il proprio modello di business. L’obiettivo del progetto di intervento di Epoca è quello di supportare il distretto in questa fase di cambiamento, da “condominio” di imprese autonome a ecosistema, grazie all’identificazione e alla realizzazione di strumenti organizzativi e tecnologici che possano costruire opportunità di sinergie, aumentare la completezza dell’offerta e sfruttare economie di scopo. Per questo è stato realizzato un nuovo sistema informatico (social network e applicazione mobile) in grado di supportare la strategia ed evolvere con essa. La tesi si struttura in tre parti. Nella prima parte, attraverso un’indagine della letteratura di riferimento, si sono indagati i principali modelli di cambiamento organizzativo e il ruolo dei sistemi informativi all’interno delle organizzazione. Un approfondimento circa gli approcci, i processi e la gestione del cambiamento in relazione all’introduzione di un nuovo sistema informativo all’interno delle organizzazioni con riferimento alle tematiche del Business Process Reengineering. La seconda parte è dedicata all’evoluzione del Web con la rivoluzione culturale causata dagli strumenti del web partecipativo, semantico e potenziato: social network e applicazione mobile nello specifico; e all’approccio di progettazione: il Design Thinking. Una tecnica che si prefigge di: trovare il miglior fit fra obiettivi, risorse e tecnologie disponibili; favorire lo sviluppo di nuove idee innovative entrando in empatia con il contesto del problema proponendo soluzioni centrate sui bisogni degli utenti. L’ultima parte del lavoro consiste nella descrizione del caso. Vengono presentate la fase di analisi della situazione attuale e i successivi step di progettazione del sistema informatico: la definizione dei prototipi, la popolazione del database, il modello di dominio, le interfacce utente e le esperienze di navigazione all’interno della piattaforma software proposta. L’approccio prevede che il progetto proceda per iterazioni successive e un adattamento continuo alle esigenze del cliente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi abbiamo presentato il calcolo dell’Entropia di Entanglement di un sistema quantistico unidimensionale integrabile la cui rappresentazione statistica é data dal modello RSOS, il cui punto critico é una realizzazione su reticolo di tutti i modelli conformi minimali. Sfruttando l’integrabilitá di questi modelli, abbiamo svolto il calcolo utilizzando la tecnica delle Corner Transfer Matrices (CTM). Il risultato ottenuto si discosta leggermente dalla previsione di J. Cardy e P. Calabrese ricavata utilizzando la teoria dei campi conformi descriventi il punto critico. Questa differenza é stata imputata alla non-unitarietá del modello studiato, in quanto la tecnica CTM studia il ground state, mentre la previsione di Cardy e Calabrese si focalizza sul vuoto conforme del modello: nel caso dei sistemi non-unitari questi due stati non coincidono, ma possono essere visti come eccitazioni l’uno dell’altro. Dato che l’Entanglement é un fenomeno genuinamente quantistico e il modello RSOS descrive un sistema statistico classico bidimensionale, abbiamo proposto una Hamiltoniana quantistica unidimensionale integrabile la cui rappresentazione statistica é data dal modello RSOS.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro abbiamo studiato la presenza di correzioni, dette unusuali, agli stati eccitati delle teorie conformi. Inizialmente abbiamo brevemente descritto l'approccio di Calabrese e Cardy all'entropia di entanglement nei sistemi unidimensionali al punto critico. Questo approccio permette di ottenere la famosa ed universale divergenza logaritmica di questa quantità. Oltre a questo andamento logaritmico son presenti correzioni, che dipendono dalla geometria su cui si basa l'approccio di Calabrese e Cardy, il cui particolare scaling è noto ed è stato osservato in moltissimi lavori in letteratura. Questo scaling è dovuto alla rottura locale della simmetria conforme, che è una conseguenza della criticità del sistema, intorno a particolari punti detti branch points usati nell'approccio di Calabrese e Cardy. In questo lavoro abbiamo dimostrato che le correzioni all'entropia di entanglement degli stati eccitati della teoria conforme, che può anch'essa essere calcolata tramite l'approccio di Calabrese e Cardy, hanno lo stesso scaling di quelle osservate negli stati fondamentali. I nostri risultati teorici sono stati poi perfettamente confermati dei calcoli numerici che abbiamo eseguito sugli stati eccitati del modello XX. Sono stati inoltre usati risultati già noti per lo stato fondamentale del medesimo modello per poter studiare la forma delle correzioni dei suoi stati eccitati. Questo studio ha portato alla conclusione che la forma delle correzioni nei due differenti casi è la medesima a meno di una funzione universale.