731 resultados para CaCu3Ti4O12 combustibili solari fotoelettrocatalisi utilizzo di CO2 serigrafia


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obiettivo della tesi è l’analisi delle potenzialità di produzione di una linea di processo dell’azienda Basf, trovando i colli di bottiglia e proponendo delle modifiche per migliorare il processo, sia in efficienza che in volumi prodotti. L’impianto è suddiviso in tre sezioni: sintesi, estrazione e distillazione del prodotto P1. Produrre maggiori quantità di P1 è fondamentale per mantenere lo stabilimento al passo con le richieste del mercato. Lo studio è stato caratterizzato dall’analisi delle apparecchiature della linea nelle condizioni di esercizio e da verifiche secondo le portate attuali; successivamente sono state valutate delle modifiche, intere o parziali, della sezione di distillazione. Le proposte si differenziano nell’investimento necessario, esse sono definite: "low cost”, “high cost 1”, “high cost 2”. La prima opzione equivale ad un classico revamping, in cui vengono sostituiti i riempimenti delle colonne di distillazione per migliorare l’efficienza fluidodinamica e assicurare un punto di esercizio sotto il limite dell’ingolfamento. La proposta high cost 1 suggerisce, invece, oltre ai riempimenti strutturati, la sostituzione di una colonna con un’altra di diametro maggiore nella sezione di esaurimento. La terza proposta prevede di modificare la quasi totalità della linea di processo, effettuando uno scambio delle tre colonne di distillazione, in cui la minore viene eliminata, con l’installazione di una terza di dimensioni superiori. Ogni proposta permette di ottenere delle quantità di P1 maggiori generando un beneficio economico stimato con il Valore Attuale Netto, il punto di ritorno e il Tasso Interno di Rendimento. Per ridurre la necessità di vapore e acqua di torre è stato valutato un recupero energetico che ha come ulteriore beneficio la diminuzione delle emissioni di CO2 in atmosfera. L’elaborato si conclude con la scelta della proposta più conveniente sulla base dei criteri sopra citati e della possibilità realistica di implementazione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La mia tesi riguarda il progetto che ho sviluppato all'interno di IMA Active. Inizia con un'introduzione ai concetti e tecnologie presenti nell'Industry 4.0, ho illustrato i vantaggi dell'utilizzo di piattaforme per il monitoraggio e supporto alla manutenzione predittiva degli asset in ambito aziendale per poi addentrarmi nella demo che ho sviluppato in Python per simulare le funzionalità che dovranno essere implementate in un sistema terzo (di tipo OSISoft Pi). In questo percorso ho introdotto il concetto di DTW e Golden batch che sono stati indispensabili nello sviluppo del progetto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente studio ha l'obiettivo di individuare una soluzione per l'elevata incidentalità di un'intersezione situata nel comune di Langhirano (PR). L'utilizzo di una rotatoria si rende necessario per poter moderare le velocità di approccio all'intersezione e avere una situazione molto più accettabile dal punto di vista della collettività sia da un punto di vista del costo sociale affrontato dalla collettività stessa e dall'Amministrazione Locale, sia dal punto di vista dell'inquinamento ambientale. Lo studio si compone di tutte le fasi progettuali necessarie per il progetto di un'intersezione a rotatoria e, avendo a disposizione i dati di traffico ricavati da rilievi, si è svolta una simulazione di traffico per simulare gli effetti dell'intervento e confrontare la situazione attuale con quella di progetto. Sono inoltre allegati tutti gli elaborati progettuali necessari per poter configurare il presente studio come un progetto preliminare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi viene spiegato il funzionamento e utilizzo di Software GnuRadio. Con l’approccio previsto da GnuRadio, il progettista diventa uno sviluppatore software che costruisce una SDR. Per la costruzione della SDR viene usato un Hardware esterno. In questa tesi e stato usato Hardware chiamato SDR ADALM-PLITO, dove viene spiegato il suo funzionamento e interfacciamento attraverso GnuRadio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Al giorno d'oggi le molle in commercio più utilizzate sono sicuramente quelle in acciaio, ciò è dovuto al fatto che la loro realizzazione è sicuramente la più semplice, in quanto si può automatizzare, ed economica. In applicazioni speciali però non ci si limita al solo utilizzo di molle in acciaio ma da tempo si sono trovate soluzioni alternative quali per esempio le molle in titanio che permettono di avere una riduzione di peso notevole a parità di caratteristiche meccaniche con il particolare svantaggio del costo molto elevato che richiedono per la loro realizzazione. Negli ultimi anni però, sopratutto nell'ambito dei veicoli leggeri, si è cercato di creare molle ancora più leggere utilizzando materiali composito: ciò si è reso necessario, ad esempio nel caso dell'automotive, in quanto la riduzione di peso dei componenti utilizzati genera un effetto benefico sui consumi delle vetture e quindi anche sulle loro emissioni, fattore che sta diventando sempre più importante in virtù delle politiche addottate atte alla riduzione di inquinanti emessi in atmosfera. Le molle in composito più utilizzate sono sicuramente quelle in fibra di vetro, più semplici da realizzare ma diversi studi dimostrano come la fibra di carbonio sia più efficiente dal punto di vista delle proprietà meccaniche. In questo elaborato quindi si va a studiare una soluzione alternativa alle molle in acciaio tradizionali e alle molle in titanio andando a studiare una molla in composito con fibra di carbonio, partendo dal dimensionamento della stessa fino a proporre un metodo di realizzazione della stessa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo strumento in esame è il carbon footprint che ha lo scopo primario di calcolare l’impronta rilasciata in atmosfera dalle emissioni di gas ad effetto serra. Il carbon footprint è stato descritto ed esaminato in ogni suo aspetto pratico, strutturale e funzionale evidenziandone sia pregi da tenere in considerazione sia limiti da colmare anche attraverso il ventaglio di strumenti di misurazione ambientale che si hanno a disposizione. Il carbon footprint non verrà descritto unicamente come strumento di contabilità ambientale ma anche come mezzo di sensibilizzazione del pubblico o dei cittadini ai temi ambientali. Questo lavoro comprende un’indagine online degli strumenti di misura e rendicontazione delle emissioni di CO2 che sono sotto il nome di carbon footprint o carbon calculator. Nell’ultima parte della tesi si è applicato ad un caso reale tutto quello che è stato appreso dalla letteratura. Il lavoro è consistito nell’applicare lo strumento del carbon footprint ad un’azienda italiana di servizi seguendo la metodologia di calcolo prevista dalla norma ISO 14064. Di essa sono state contabilizzate le emissioni di CO2 generate dalle attività quotidiane e straordinarie sulle quali l’azienda ha un controllo diretto o comunque una responsabilità indiretta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Quando si parla di green information technology si fa riferimento a un nuovo filone di ricerche focalizzate sulle tecnologie ecologiche o verdi rivolte al rispetto ambientale. In prima battuta ci si potrebbe chiedere quali siano le reali motivazioni che possono portare allo studio di tecnologie green nel settore dell’information technology: sono così inquinanti i computer? Non sono le automobili, le industrie, gli aerei, le discariche ad avere un impatto inquinante maggiore sull’ambiente? Certamente sì, ma non bisogna sottovalutare l’impronta inquinante settore IT; secondo una recente indagine condotta dal centro di ricerche statunitense Gartner nel 2007, i sistemi IT sono tra le maggiori fonti di emissione di CO2 e di altri gas a effetto serra , con una percentuale del 2% sulle emissioni totali del pianeta, eguagliando il tasso di inquinamento del settore aeromobile. Il numero enorme di computer disseminato in tutto il mondo assorbe ingenti quantità di energia elettrica e le centrali che li alimentano emettono tonnellate di anidride carbonica inquinando l’atmosfera. Con questa tesi si vuole sottolineare l’impatto ambientale del settore verificando, attraverso l’analisi del bilancio sociale ed ambientale, quali misure siano state adottate dai leader del settore informatico. La ricerca è volta a dimostrare che le più grandi multinazionali informatiche siano consapevoli dell’inquinamento prodotto, tuttavia non adottano abbastanza soluzioni per limitare le emissioni, fissando futili obiettivi futuri.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel lavoro di tesi qui presentato si indaga l'applicazione di tecniche di apprendimento mirate ad una più efficiente esecuzione di un portfolio di risolutore di vincoli (constraint solver). Un constraint solver è un programma che dato in input un problema di vincoli, elabora una soluzione mediante l'utilizzo di svariate tecniche. I problemi di vincoli sono altamente presenti nella vita reale. Esempi come l'organizzazione dei viaggi dei treni oppure la programmazione degli equipaggi di una compagnia aerea, sono tutti problemi di vincoli. Un problema di vincoli è formalizzato da un problema di soddisfacimento di vincoli(CSP). Un CSP è descritto da un insieme di variabili che possono assumere valori appartenenti ad uno specico dominio ed un insieme di vincoli che mettono in relazione variabili e valori assumibili da esse. Una tecnica per ottimizzare la risoluzione di tali problemi è quella suggerita da un approccio a portfolio. Tale tecnica, usata anche in am- biti come quelli economici, prevede la combinazione di più solver i quali assieme possono generare risultati migliori di un approccio a singolo solver. In questo lavoro ci preoccupiamo di creare una nuova tecnica che combina un portfolio di constraint solver con tecniche di machine learning. Il machine learning è un campo di intelligenza articiale che si pone l'obiettivo di immettere nelle macchine una sorta di `intelligenza'. Un esempio applicativo potrebbe essere quello di valutare i casi passati di un problema ed usarli in futuro per fare scelte. Tale processo è riscontrato anche a livello cognitivo umano. Nello specico, vogliamo ragionare in termini di classicazione. Una classicazione corrisponde ad assegnare ad un insieme di caratteristiche in input, un valore discreto in output, come vero o falso se una mail è classicata come spam o meno. La fase di apprendimento sarà svolta utilizzando una parte di CPHydra, un portfolio di constraint solver sviluppato presso la University College of Cork (UCC). Di tale algoritmo a portfolio verranno utilizzate solamente le caratteristiche usate per descrivere determinati aspetti di un CSP rispetto ad un altro; queste caratteristiche vengono altresì dette features. Creeremo quindi una serie di classicatori basati sullo specifico comportamento dei solver. La combinazione di tali classicatori con l'approccio a portfolio sara nalizzata allo scopo di valutare che le feature di CPHydra siano buone e che i classicatori basati su tali feature siano affidabili. Per giusticare il primo risultato, eettueremo un confronto con uno dei migliori portfolio allo stato dell'arte, SATzilla. Una volta stabilita la bontà delle features utilizzate per le classicazioni, andremo a risolvere i problemi simulando uno scheduler. Tali simulazioni testeranno diverse regole costruite con classicatori precedentemente introdotti. Prima agiremo su uno scenario ad un processore e successivamente ci espanderemo ad uno scenario multi processore. In questi esperimenti andremo a vericare che, le prestazioni ottenute tramite l'applicazione delle regole create appositamente sui classicatori, abbiano risultati migliori rispetto ad un'esecuzione limitata all'utilizzo del migliore solver del portfolio. I lavoro di tesi è stato svolto in collaborazione con il centro di ricerca 4C presso University College Cork. Su questo lavoro è stato elaborato e sottomesso un articolo scientico alla International Joint Conference of Articial Intelligence (IJCAI) 2011. Al momento della consegna della tesi non siamo ancora stati informati dell'accettazione di tale articolo. Comunque, le risposte dei revisori hanno indicato che tale metodo presentato risulta interessante.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le fioriture algali rappresentano un problema emergente che colpisce le attività ricreative costiere negli ultimi decenni e molta responsabilità è attribuita alla pressione antropica sulle coste, anche se fondamentalmente i fenomeni di fioriture dannose rimangono imprevedibili. Un tempo confinate in aree tropicali e sub-tropicali, nuove alghe tossiche produttrici di composti palitossina-simili, quali Ostreopsis spp., si sono diffuse anche in regioni temperate, come il Mediterraneo. Le condizioni di sviluppo di queste fioriture sono legate a fattori ambientali quali irraggiamento, temperatura, concentrazione di nutrienti e alle caratteristiche biologiche delle singole specie. Per valutare il rischio reale sulla salute dell’uomo, vi è necessità di conoscere i parametri ambientali ottimali alla proliferazione delle specie, in termini di temperatura, intensità luminosa e disponibilità di nutrienti, così come di chiarire la struttura delle tossine e le condizioni che possono favorire la loro produzione. In questo studio un ceppo della dinoflagellata Ostreopsis ovata e un ceppo della dinoflagellata Prorocentrum lima sono stati coltivati in colture batch a tre diverse temperature (20°C, 25°C, 30°C) come monocolture e come colture miste. La raccolta è avvenuta nel periodo della loro presunta fase stazionaria. Le informazioni circa il comportamento delle microalghe nelle diverse colture sono state raccolte tramite calcolo del tasso di crescita, analisi del consumo di nutrienti, valutazione dell’efficienza fotosintetica, produzione di tossine. E’ stato applicato un nuovo metodo di misura per il calcolo dei biovolumi. Tra le due microalghe, O. ovata ha esibito maggiore variabilità morfologica, tassi di crescita più elevati e migliore efficienza fotosintetica, mostrando però di subire stress alla temperatura di 30°C. P. lima ha presentato tassi di crescita inferiori, incompleto utilizzo dei nitrati e minore efficienza fotosintetica, accompagnata da grande dissipazione di energia sotto forma di calore. Nelle colture miste, l’uptake più rapido di nitrati da parte di O. ovata ha fatto sì che il numero di cellule di P. lima fosse notevolmente inferiore a quello sviluppatosi nelle colture pure. Ciononostante, la produzione di acido okadaico da parte di P. lima non si è modificata in presenza di O. ovata. Il ceppo di O. ovata utilizzato è stato in grado di produrre ovatossina-a, la tossina maggiormente presente nelle cellule, e quantità circa quattro volte inferiori di ovatossine d+e, oltre a piccole quantità di palitossina putativa. Non è stato invece in grado di produrre le altre due ovatossine conoscisute, l’ovatossina-b e l’ovatossina-c. La produzione di tossine ha dimostrato di essere correlata positivamente con l’aumento della temperatura quando espressa su unità di biovolume, ed è stata inferiore nelle colture miste rispetto alle colture pure. Grazie alla maggiore capacità di crescita, al miglior utilizzo di nutrienti e alla migliore efficienza fotosintetica, O. ovata si dimostra in grado di dare origine a importanti eventi di fioritura, mentre per P. lima i parametri di crescita studiati non evidenziano questa capacità. Le analisi in corso circa la quantità di tossine emesse nel mezzo di coltura permetterano di completare il quadro delineato dal presente studio. Allo stato attuale, non si può concludere che esista attività allelopatica di una specie nei confronti dell’altra.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi ha lo scopo di esplorare la produzione di sistemi software per Embedded Systems mediante l'utilizzo di tecniche relative al mondo del Model Driven Software Development. La fase più importante dello sviluppo sarà la definizione di un Meta-Modello che caratterizza i concetti fondamentali relativi agli embedded systems. Tale modello cercherà di astrarre dalla particolare piattaforma utilizzata ed individuare quali astrazioni caratterizzano il mondo degli embedded systems in generale. Tale meta-modello sarà quindi di tipo platform-independent. Per la generazione automatica di codice è stata adottata una piattaforma di riferimento, cioè Arduino. Arduino è un sistema embedded che si sta sempre più affermando perché coniuga un buon livello di performance ed un prezzo relativamente basso. Tale piattaforma permette lo sviluppo di sistemi special purpose che utilizzano sensori ed attuatori di vario genere, facilmente connessi ai pin messi a disposizione. Il meta-modello definito è un'istanza del meta-metamodello MOF, definito formalmente dall'organizzazione OMG. Questo permette allo sviluppatore di pensare ad un sistema sotto forma di modello, istanza del meta-modello definito. Un meta-modello può essere considerato anche come la sintassi astratta di un linguaggio, quindi può essere definito da un insieme di regole EBNF. La tecnologia utilizzata per la definizione del meta-modello è stata Xtext: un framework che permette la scrittura di regole EBNF e che genera automaticamente il modello Ecore associato al meta-modello definito. Ecore è l'implementazione di EMOF in ambiente Eclipse. Xtext genera inoltre dei plugin che permettono di avere un editor guidato dalla sintassi, definita nel meta-modello. La generazione automatica di codice è stata realizzata usando il linguaggio Xtend2. Tale linguaggio permette di esplorare l'Abstract Syntax Tree generato dalla traduzione del modello in Ecore e di generare tutti i file di codice necessari. Il codice generato fornisce praticamente tutta la schematic part dell'applicazione, mentre lascia all'application designer lo sviluppo della business logic. Dopo la definizione del meta-modello di un sistema embedded, il livello di astrazione è stato spostato più in alto, andando verso la definizione della parte di meta-modello relativa all'interazione di un sistema embedded con altri sistemi. Ci si è quindi spostati verso un ottica di Sistema, inteso come insieme di sistemi concentrati che interagiscono. Tale difinizione viene fatta dal punto di vista del sistema concentrato di cui si sta definendo il modello. Nella tesi viene inoltre introdotto un caso di studio che, anche se abbastanza semplice, fornisce un esempio ed un tutorial allo sviluppo di applicazioni mediante l'uso del meta-modello. Ci permette inoltre di notare come il compito dell'application designer diventi piuttosto semplice ed immediato, sempre se basato su una buona analisi del problema. I risultati ottenuti sono stati di buona qualità ed il meta-modello viene tradotto in codice che funziona correttamente.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel ramo della Information Tecnology, recentemente, nascono sistemi informativi adibiti alla gestione di risorse hardware e software distribuite e visualizzate in rete. Uno degli strumenti più utilizzati e commercializzati per l'utilizzo di tale tipo di tecnologie è rappresentato dal cloud computing. Secondo una ricerca del "Il Sole 24 Ore'' in Italia il 25% delle aziende italiane intende adottare il cloud nei prossimi 12 mesi. E' un mercato da 287 milioni di euro nel 2011, +41% sul 2010, e passerà a 394 milioni nel 2012 per poi risalire a 671 nel 2014. Questa tesi si basa su un lavoro di ricerca precedentemente alla stessa in cui ho esaminato esperienze aziendali o riflessioni di queste ultime sull'applicazione e l'utilizzo della tecnologia cloud come modello di business. Il lavoro si è svolto leggendo ed analizzando due quotidiani italiani (Il Corriere della Sera e il Il Sole 24 Ore), un quotidiano inglese (Financial Times) e un settimanale londinese (The Economist) nell'arco di due anni a questa parte. Attraverso l'analisi degli articoli ottenuti è stata redatta una sintesi degli stessi pervenendo ad una riflessione che ha rappresentato lo spunto di tale tesi. Spesso si discuteva di problemi legati al cloud ma solo in pochi articoli vi era presente una vera e propria case history con analisi di eventuali difficoltà o benefici riscontrati. Da questo l'inizio di tale attività che pone l'obbiettivo di capire, in parte, il perché di così tanta riluttanza verso uno strumento che sembra rappresentare la scelta tecnologicamente più appropriata e strategicamente ottimale. Il cuore della ricerca è rappresentato dalle interviste svolte ad alcune aziende in merito all'utilizzo della "nuvola'' nel loro sistema informatico. Questa tesi si suddividerà: -Descrizione storica della nascita e dello sviluppo del cloud computing -Analisi delle tecnologie attualmente esistenti e dei modelli di distribuzione -Opportunità e minacce legate all'utilizzo di tale tecnologia in un ambiente aziendale -Studio ed analisi di alcuni casi aziendali e del ruolo che svolge l'uso del cloud nel proprio modello di business -Valutazione dell'attuale situazione del cloud computing e delle prospettive future legate all'utilizzo della tecnologia in analisi

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nell’ambito del presente lavoro sperimentale sono state prese in considerazione differenti tecniche, tradizionali ed innovative, per la determinazione del contenuto di acqua presente negli oli extravergine di oliva. Seppur presente nell'olio in quantità limitata, l'acqua é in grado di favorire la dissoluzione e veicolare componenti minori idrofilici (come le molecole a struttura fenolica e polifenolica) all'interno di micelle inverse che si creano nella matrice lipidica quando alla superficie acqua-olio si aggregano composti anfifilici (come i digliceridi, i monogliceridi, gli acidi grassi liberi, i fosfolipidi etc.) che danno luogo alla formazione di aggregati colloidali. I risultati ottenuti su un set di 60 campioni hanno evidenziato come esistano correlazioni positive e soddisfacenti tra le diverse metodiche analitiche tradizionali quali la titolazione titrimetrica di Karl Fisher e quelle gravimetriche per essiccamento in stufa o mediante termobilancia. La migliore correlazione in termini di R2 con valore pari a circa 0,82 è stata ottenuta tra i metodi Karl Fisher ed essiccamento in stufa, mentre per esempio quella tra i due metodi gravimetrici (stufa e termobilancia) ha fatto registrare un valore inferiore (0,70). Pur essendosi verificate delle soddisfacenti correlazioni tra le tre tecniche tradizionali, i valori del contenuto in acqua dei campioni si sono presentati variabili in funzione dell'utilizzo di una modalità di misurazione rispetto all'altra. Tale variabilità é funzione di diversi fattori: la difficoltà di determinare l'acqua fortemente legata nel caso dei metodi per essiccamento; la perdita in peso causata anche da altri componenti in grado di volatilizzare alle condizioni analitiche adottate; la possibilità di formazione di composti non originariamente presenti come risultato di modificazioni chimiche indotte dall'elevata temperatura. Il contenuto di acqua è stato quindi stimato anche mediante una tecnica innovativa a basso costo basata su misure dielettriche. Considerato che l’olio extravergine di oliva è noto essere un ottimo isolante, il fenomeno dielettrico osservato risulta essere di natura capacitiva. Il risultato di correlazione ottenuto su un set di 23 oli extravergini di oliva applicando in parallelo questa tecnica rapida e la misura gravimetrica con stufa (che é un metodo ISO), è da considerarsi soddisfacente, con un R2 pari anche in questo caso a 0,82. In conclusione, le tecniche attualmente utilizzate per la determinazione del contenuto di acqua in oli extravergine di oliva risultano tra loro correlate. Considerando che tali tecniche tradizionali sono dispendiose o in termini di tempo (gravimetrico mediante stufa) o in termini di consumo di reagenti e solventi (titrimetrico con reattivo di Karl Fischer), il nuovo approccio sperimentato mediante misure capacitive può essere considerato molto interessante anche se, sicuramente, sarà da applicare ad un numero più ampio di campioni per rendere l'evidenza sperimentale più robusta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nell'era di Internet e della digitalizzazione, anche la telefonia ha avuto la possibilità di evolversi, e grazie alle tecnologie Voice-over-IP è stato possibile realizzare servizi di comunicazione avanzata su reti di dati. Anche se la comunicazione vocale è l'aspetto chiave di questi sistemi, le reti VoIP supportano altri tipi di servizi, tra cui video, messaggistica istantanea, condivisione di file, ecc. Il successo di questa nuova tipologia di rete è dovuto ad una migliore flessibilità rispetto ai vecchi sistemi analogici, grazie ad architetture aperte e implementazioni a livello software, e soprattutto ad un minor costo legato alle apparecchiature ed ai collegamenti utilizzati, ed ai nuovi modelli di business e di consumo sempre più orientati allo sfruttamento della connettività a banda larga. Tuttavia, l'implementazione dei sistemi VoIP rappresenta anche un grado di complessità maggiore in termini di architetture di rete, di protocolli, e di implementazione, e con questo ne segue un incremento delle possibili vulnerabilità. Una falla nella sicurezza in questi sistemi può portare a disservizi e violazione della privacy per gli utenti con conseguenti ripercussioni economiche per i relativi gestori. La tesi analizza la sicurezza delle reti VoIP concentrandosi sul protocollo che sta alla base dei servizi multimediali, il protocollo SIP. SIP è un protocollo di livello applicativo realizzato per creare, modificare e terminare delle sessioni multimediali tra due o più utenti. Dopo un'introduzione alle generalità del protocollo, vengono esaminate le classi di vulnerabilità delle reti VoIP e gli attacchi a SIP, e vengono presentate alcune contromisure attuabili. Viene mostrato un esempio di come vengano attuati alcuni dei principali attacchi a SIP tramite l'utilizzo di appositi strumenti. L'eborato conclude con alcune considerazioni sulle minacce al protocollo e sugli obiettivi futuri che la comunità scientifica dovrebbe perseguire.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La realizzazione di stati non classici del campo elettromagnetico e in sistemi di spin è uno stimolo alla ricerca, teorica e sperimentale, da almeno trent'anni. Lo studio di atomi freddi in trappole di dipolo permette di avvicinare questo obbiettivo oltre a offrire la possibilità di effettuare esperimenti su condesati di Bose Einstein di interesse nel campo dell'interferometria atomica. La protezione della coerenza di un sistema macroscopico di spin tramite sistemi di feedback è a sua volta un obbiettivo che potrebbe portare a grandi sviluppi nel campo della metrologia e dell'informazione quantistica. Viene fornita un'introduzione a due tipologie di misura non considerate nei programmi standard di livello universitario: la misura non distruttiva (Quantum Non Demolition-QND) e la misura debole. Entrambe sono sfruttate nell'ambito dell'interazione radiazione materia a pochi fotoni o a pochi atomi (cavity QED e Atom boxes). Una trattazione delle trappole di dipolo per atomi neutri e ai comuni metodi di raffreddamento è necessaria all'introduzione all'esperimento BIARO (acronimo francese Bose Einstein condensate for Atomic Interferometry in a high finesse Optical Resonator), che si occupa di metrologia tramite l'utilizzo di condensati di Bose Einstein e di sistemi di feedback. Viene descritta la progettazione, realizzazione e caratterizzazione di un servo controller per la stabilizzazione della potenza ottica di un laser. Il dispositivo è necessario per la compensazione del ligh shift differenziale indotto da un fascio laser a 1550nm utilizzato per creare una trappola di dipolo su atomi di rubidio. La compensazione gioca un ruolo essenziale nel miglioramento di misure QND necessarie, in uno schema di feedback, per mantenere la coerenza in sistemi collettivi di spin, recentemente realizzato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Utilizzo di un modello matematico monocompartimentale per simulare la cinetica del sodio in sedute di dialisi (HD e HDF on-line) che prevedono l'utilizzo del sistema Hemocontrol, quindi quantificare le prestazioni di tale modello per evidenziarne limiti ed adeguatezza in alternativa all'utilizzo di modelli bicompartimentali più complessi.