53 resultados para Prossimo


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi ha lo scopo di analizzare e approfondire tutte le caratteristiche del nuovo standard delle comunicazioni a radiofrequenza: NFC. Per meglio comprendere l'argomento trattato ho suddiviso la tesi in 5 capitoli: Nel primo capitolo si effettuerà una panoramica sul mondo delle tecnologie a radiofrequenza: parleremo della tecnologia RFID, di come è nata e di come si è sviluppata dagli anni 60 ad oggi, di come veniva utilizzata un tempo e di come oggi viene usata. Ulteriore tecnologia a radiofrequenza presa in considerazione in questo capitolo è la tecnologia Bluetooth, di cui conosceremo le origini e l’evoluzione che ha subito nel corso degli anni. Nel secondo capitolo si affronterà l’argomento principale di questa tesi ossia la tecnologia NFC. Si analizzerà nel dettaglio, capiremo come è nata e come si è evoluta, vedremo come funziona nello specifico, che tipo di componenti usa e vedremo quali sono stati gli elementi cardine che hanno portato a questa rapida diffusione. Nel terzo capitolo si prenderà in esame un prototipo di applicazione per smartphone Android per meglio capire come effettivamente comunicano tra loro hardware e software. Il progetto prende il nome di WeMoNFC e permetterà di attivare e/o disattivare un particolare interruttore tramite l’accostamento di un tag NFC al telefono. Come richiama il nome, il progetto utilizzerà due componenti principali: il primo, ovviamente, è il modulo NFC inserito di fabbrica all’interno dello smartphone, il secondo invece è un dispositivo dell’azienda americana Belkin: il WeMo Switch. Nel quarto capitolo infine si trarranno le dovute conclusioni su questo argomento, si osserveranno i dati di mercato e si cercherà di ricavare una possibile ipotesi su come questa tecnologia davvero alla portata di tutti diverrà, più o meno, importante in un futuro prossimo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Con questo lavoro di tesi si affrontano i primi accorgimenti sperimentali necessari alla realizzazione di un esperimento di ottica quantistica. L'attività svolta consiste nell'ottimizzazione dei parametri di un PLL (Phase-Locked Loop) che mantiene due laser agganciati in frequenza, e nella misura del rumore di fase presente nell'aggancio. Questa stabilizzazione costituisce il primo passo per la generazione di luce squeezed, associata a particolari stati del campo elettromagnetico. Grazie a quest'ultima, è possibile migliorare la sensibilità raggiungibile in esperimenti di interferometria di precisione, quali ad esempio quelli per la ricerca di onde gravitazionali. L'iniezione di luce squeezed costituirà infatti parte del prossimo upgrade dell'interferometro di Virgo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’imaging ad ultrasuoni è una tecnica di indagine utilizzata comunemente per molte applicazioni diagnostiche e terapeutiche. La tecnica ha numerosi vantaggi: non è invasiva, fornisce immagini in tempo reale e l’equipaggiamento necessario è facilmente trasportabile. Le immagini ottenute con questa tecnica hanno tuttavia basso rapporto segnale rumore a causa del basso contrasto e del rumore caratteristico delle immagini ad ultrasuoni, detto speckle noise. Una corretta segmentazione delle strutture anatomiche nelle immagini ad ultrasuoni è di fondamentale importanza in molte applicazioni mediche . Nella pratica clinica l’identificazione delle strutture anatomiche è in molti casi ancora ottenuta tramite tracciamento manuale dei contorni. Questo processo richiede molto tempo e produce risultati scarsamente riproducibili e legati all’esperienza del clinico che effettua l’operazione. In ambito cardiaco l’indagine ecocardiografica è alla base dello studio della morfologia e della funzione del miocardio. I sistemi ecocardiografici in grado di acquisire in tempo reale un dato volumetrico, da pochi anni disponibili per le applicazioni cliniche, hanno dimostrato la loro superiorità rispetto all’ecocardiografia bidimensionale e vengono considerati dalla comunità medica e scientifica, la tecnica di acquisizione che nel futuro prossimo sostituirà la risonanza magnetica cardiaca. Al fine di sfruttare appieno l’informazione volumetrica contenuta in questi dati, negli ultimi anni sono stati sviluppati numerosi metodi di segmentazione automatici o semiautomatici tesi alla valutazione della volumetria del ventricolo sinistro. La presente tesi descrive il progetto, lo sviluppo e la validazione di un metodo di segmentazione ventricolare quasi automatico 3D, ottenuto integrando la teoria dei modelli level-set e la teoria del segnale monogenico. Questo approccio permette di superare i limiti dovuti alla scarsa qualità delle immagini grazie alla sostituzione dell’informazione di intensità con l’informazione di fase, che contiene tutta l’informazione strutturale del segnale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’esperimento LHCb al CERN di Ginevra è stato appositamente progettato per effettuare misure di precisione nel settore della fisica del sapore, per verificare la validità delle previsioni del Modello Standard. Il Modello Standard descrive le trasformazioni dello stato di flavour dei quark secondo lo schema di mixing compendiato nella matrice unitaria di Cabibbo-Kobayashi-Maskawa. La verifica dell’unitarietà della matrice di mixing è dunque uno dei campi d’indagine più importanti nella fisica delle particelle. I modelli teorici che estendono il Modello Standard prevedono infatti meccanismi alternativi a quello CKM per la trasformazione del flavour che implicherebbero una violazione della unitarietà. Allo scopo di studiare la dinamica del flavour l’esperimento LHCb realizza misure della violazione della simmetria di coniugazione di carica e parità CP. Le misure di violazione della simmetria CP permettono di determinare i valori dei parametri complessi della matrice CKM (modulo e fase). Esse si basano sulla misura delle asimmetrie di decadimento di stati coniugati di carica di mesoni costituiti da quark charm (mesoni D) e beauty (mesoni B) in stati finali costituiti da particelle scelte opportunamente. Di particolare importanza in questo programma di ricerca è la misura della fase del termine Vub della matrice CKM, denominata γ. Scopo della tesi è lo studio dei metodi di misura della fase γ. La tesi è organizzata in quattro capitoli. Nei primi tre capitoli sono state poste le basi teoriche per la comprensione della fenomenologia delle interazioni deboli e della sua descrizione nel Modello Standard. È stata discussa in dettaglio la dinamica del sistema dei mesoni neutri e la violazione della simmetria CP dovuta sia al decadimento sia alla oscillazione. Dopo l’inquadramento teorico, nel quarto e ultimo capitolo, sono stati presentati i tre modelli teorici generalmente utilizzati per la misura della fase γ e impiegati dagli esperimenti dedicati alla fisica del flavour. I metodi proposti sono quelli più importanti, che fino ad oggi hanno consentito di misurare γ. Al momento LHCb ha ottenuto la migliore misura di γ, con un errore relativo del 13%, combinando le tre metodologie di analisi. Si prevede che l’esperimento LHCb possa migliorare significativamente la precisione di misura raccogliendo nel prossimo futuro un campione di eventi di dimensione un’ordine di grandezza maggiore dell’attuale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Da alcuni anni in ambito business ed enterprise si sta diffondendo l'utilizzo di dispositivi wearable al fine di rendere più efficiente ed efficace la gestione di molteplici attività e processi aziendali. I sistemi hand-held comunemente utilizzati in ambito lavorativo, tra cui smartphone e tablet, spesso non risultano idonei in contesti in cui un operatore debba interagire con il dispositivo mentre ha le proprie mani impegnate con attrezzature e strumenti di lavoro. I sistemi hands-free rimediano a tali problematiche supportando tecniche di interazione non convenzionali che consentono all'operatore di mantenere libere le proprie mani durante la consultazione del dispositivo e di rimanere concentrato sull'attività che sta svolgendo. I sistemi basati su smart-glass, oltre ad offrire funzionalità hands-free, presentano l'ulteriore vantaggio di poter presentare all'interno del campo visivo dell'utente importanti informazioni di supporto inerenti all'attività che sta svolgendo, avvalendosi anche dell'utilizzo di tecnologie di realtà aumentata. La sinergia tra dispositivi basati su smart-glass e tecniche di realtà aumentata sta destando un crescente interesse sia in ambito accademico che industriale; esiste la possibilità che in un prossimo futuro questa tipologia di sistemi divenga la nuova piattaforma computazionale enterprise di riferimento. L'obiettivo di questo lavoro di tesi è stato lo studio e la progettazione di una soluzione hands-free basata su smart-glass in grado di supportare alcune attività di customer care del Gruppo Loccioni, una società che si occupa dello sviluppo di sistemi automatici di misura e controllo per migliorare la qualità, l'efficienza e la sostenibilità di prodotti, processi ed edifici. In particolare, il sistema sviluppato ha consentito di migliorare la gestione dei processi di manutenzione e riparazione degli impianti energetici sostenibili che il Gruppo Loccioni installa presso le sedi di imprese clienti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le infrastrutture portuali rappresentano un elemento chiave come motore di crescita per l’economia globale. Il 74% delle merci importate ed esportate dall’UE transitano per porti. Per questo motivo sono necessari investimenti in infrastrutture e attrezzature portuali per far fronte alle previsioni di crescita del trasporto merci nel prossimo decennio. La crescita del transhipment, quindi di grossi scali chiamati hub, ha rivoluzionato la scelta delle tratte principali e la scelta degli scali. Nel corso del seguente elaborato ci si è concentrati sulla situazione dell’Alto Adriatico, analizzando lo stato attuale dei principali porti e i possibili sviluppi futuri. La situazione dell’Alto Adriatico è particolare, questi porti si trovano sulle rotte principali del trasporto globale ma vista la crescita di scambi commerciali con la Cina e l’estremo Oriente, per via dello spostamento verso Est del baricentro dell’economia, si trovano in posizione ottimale per diventare un grosso gateway. Questo è l’obbiettivo che si sono prefissati i porti del Nord Adriatico cioè far capire che risalire l’Adriatico, anche se fuori dalle rotte può risultare conveniente visto il risparmio di cinque giorni di navigazione, rispetto ai porti del Nord Europa, che si traduce in un risparmio di tempo e di costi. Per creare attrattiva sono stati svolti, e continuano, numerosi investimenti per lo sviluppo dei fondali e del retroporto, nel tentativo di potersi affermare all’interno del mercato europeo e globale. Nel corso dell’elaborato saranno analizzati i grossi vantaggi di cui godono i porti del Nord Adriatico grazie alla loro posizione geografica, e alcune delle problematiche che ostacolano la crescita.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La città di Bologna, la storia, i flussi e le connessioni. Questo progetto di gruppo nasce dalla necessità di ripensare il ruolo dell’infrastruttura nella contemporaneità e nell’atteggiamento che l’architettura può assumere di fronte alle rinnovate priorità delle città italiane che, tra espansione demografica, monumenti e centri storici da preservare, nuove reti di comunicazione e scambio delle informazioni, necessitano sempre più di una pianificazione che prenda in analisi il passato, interpreti il presente e si ponga l’obiettivo primario di dialogare con il futuro. Il capoluogo Emiliano è collocato in una posizione strategica per le comunicazioni d i trasporti, tenendo uniti gli estremi dello stivale e svolgendo un ruolo di snodo a cui oggi la penisola Italiana non può in alcun modo rinunciare. Ogni giorno una quantità spropositata di pendolari e viaggiatori è indotta nella città concentrandosi in un primo momento nell’area della stazione ferroviaria e dei piazzali antistanti, per poi distribuirsi all’interno del tessuto urbano, chi utilizzando il sistema di rete tramviaria, chi a piedi o in bicicletta. L’intento principale del masterplan proposto è quindi valutare un range di informazioni supplementari ai tradizionali studi urbani. Si è notato come le aree più degradate della città (spesso limitrofe ad infrastrutture consegnate al comune senza valutarne l’integrazione e l’impatto urbano e ambientale) manchino di una circolazione costante e di attività. Si è identificato nelle migliaia di soggetti che ogni giorno giungono a Bologna usufruendo dei servizi delle Ferrovie dello Stato la linfa vitale di un’importante parte della città. Poiché progettare per un futuro prossimo è pensare a un presente in grado di accettare i propri limiti e assimilare le aberrazioni del passato, rifacendosi ad un immaginario che non può che sconfinare i paradigmi prefissati che hanno portato ad uno status irrisolto ma non irrisolvibile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo documento ho analizzato lo scenario della passata e dell’odierna Internet, dal classico protocollo HTTP, al protocollo sperimentale QUIC, argomento di questa tesi. In primis ho analizzato gli attuali protocolli utilizzati nella rete e ricercato i motivi che hanno portato a crearne di nuovi, successivamente ho effettuato un analisi teorica del protocollo affidandomi ai documenti forniti dall'IETF, poi in un capitolo a sé ho descritto l'handshake crittografato tipico di questo protocollo ed infine nell'ultimo capitolo ho mostrato graficamente e praticamente come lavora il protocollo in una reale implementazione. Dopo aver completato questa tesi, mi sono potuto rendere conto di quanto sia necessario un cambio di rotta verso protocolli di rete più veloci, sicuri ed affidabili. I classici protocolli oramai non sono più sufficienti a soddisfare le migliaia di richieste di connessione e presentano, come si vedrà, delle lacune a cui bisogna porre rimedio. Gran parte della popolazione mondiale ha accesso al web,ed è uno strumento ormai alla portata di tutti e non più privilegio di pochi e ci si augura per il bene della rete Internet che tale protocollo o protocolli simili possano prendere presto piede per una migliore esperienza di navigazione a livello globale. Probabilmente saranno necessari molti anni, ma l’idea che già si pensi ad un futuro non tanto prossimo fa ben sperare su quello che ci aspetta. Nella lettura di questa tesi si vedrà come queste ultime affermazioni possano diventare realtà.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Largely reprinted from the Free enquirer or the New-Harmony gazette. Published by Robert Dale Owen--Cf. Richard William Leopold, Robert Dale Owen, a biography. (Harvard Historical Studies ; 45). Cambridge, Mass. 1940, p. 68.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Al Large Hadron Collider (LHC) ogni anno di acquisizione dati vengono raccolti più di 30 petabyte di dati dalle collisioni. Per processare questi dati è necessario produrre un grande volume di eventi simulati attraverso tecniche Monte Carlo. Inoltre l'analisi fisica richiede accesso giornaliero a formati di dati derivati per centinaia di utenti. La Worldwide LHC Computing GRID (WLCG) è una collaborazione interazionale di scienziati e centri di calcolo che ha affrontato le sfide tecnologiche di LHC, rendendone possibile il programma scientifico. Con il prosieguo dell'acquisizione dati e la recente approvazione di progetti ambiziosi come l'High-Luminosity LHC, si raggiungerà presto il limite delle attuali capacità di calcolo. Una delle chiavi per superare queste sfide nel prossimo decennio, anche alla luce delle ristrettezze economiche dalle varie funding agency nazionali, consiste nell'ottimizzare efficientemente l'uso delle risorse di calcolo a disposizione. Il lavoro mira a sviluppare e valutare strumenti per migliorare la comprensione di come vengono monitorati i dati sia di produzione che di analisi in CMS. Per questa ragione il lavoro è comprensivo di due parti. La prima, per quanto riguarda l'analisi distribuita, consiste nello sviluppo di uno strumento che consenta di analizzare velocemente i log file derivanti dalle sottomissioni di job terminati per consentire all'utente, alla sottomissione successiva, di sfruttare meglio le risorse di calcolo. La seconda parte, che riguarda il monitoring di jobs sia di produzione che di analisi, sfrutta tecnologie nel campo dei Big Data per un servizio di monitoring più efficiente e flessibile. Un aspetto degno di nota di tali miglioramenti è la possibilità di evitare un'elevato livello di aggregazione dei dati già in uno stadio iniziale, nonché di raccogliere dati di monitoring con una granularità elevata che tuttavia consenta riprocessamento successivo e aggregazione “on-demand”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi è finalizzato all'ottimizzazione della formulazione iniziale e delle condizioni di stagionatura per ottenere un materiale utilizzabile come refrattario in applicazioni che richiedono elevate temperature di esposizione. L’interesse della ricerca scientifica verso questa nuova classe di materiali nasce dai vantaggi ambientali ed economici che essi possono fornire. Inoltre, le buone proprietà di resistenza e stabilità termica evidenziate dagli studi condotti negli ultimi anni inducono a sperimentare l’impiego dei materiali geopolimerici in sostituzione dei materiali refrattari o cementiferi attualmente in commercio. A tal fine sono state determinate le caratteristiche fisico-meccaniche, microstrutturali e termiche di matrici geopolimeriche additivate con scarti refrattari. Lo studio svolto, si può suddividere in tre fasi successive. Inizialmente sono state ottimizzazione le formulazioni geopolimeriche. Successivamente i prodotti ottenuti sono stati oggetto di caratterizzazione fisico-meccanica, microstrutturale e termica. Tali caratterizzazioni sono state eseguite attraverso: analisi al microscopio ottico, assorbimento di acqua, determinazione della densità geometrica, prove ultrasoniche per la determinazione dell’omogeneità del materiale, resistenza meccanica a compressione, diffrattometria ai raggi X (XRD), microscopio riscaldante, ciclo termico in muffola e analisi dilatometriche. Nella terza fase sono stati analizzati ed elaborati i risultati ottenuti, evidenziando le soddisfacenti proprietà di stabilità e resistenza termica. È stata inoltre effettuata una analisi economica preliminare evidenziando la competitività nel marcato del sistema geopolimerico studiato. Se a questo si aggiungono i considerevoli benefici ambientali dovuti al fatto che il prodotto è ottenuto con sostanze di recupero, non sarebbe sorprendente che in un futuro prossimo i geopolimeri possano essere largamente prodotti e commercializzati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il presente lavoro di tesi analizza un tratto del fiume Secchia, prossimo alla località di Veggia (Sassuolo), al fine di determinare la variazione del livello idrometrico in funzione di diverse portate associate a tempi di ritorno a breve e lungo termine. Vengono dapprima introdotti il concetto di rischio idraulico ed i relativi riferimenti normativi che lo disciplinano, unitamente ai piani di gestione e ai possibili interventi di protezione fluviale. Si introduce successivamente il codice di calcolo HEC-RAS, che viene impiegato nel presente studio per simulare l’andamento dei profili di moto permanente, nel caso in cui il fiume sia o meno interessato dalla presenza di un ponte. In entrambi i casi vengono poi discusse le variazioni dei livelli idrometrici per portate con tempi di ritorno di 20, 100 e 200 anni: si osserva che l’asta fluviale è a rischio nella zona a valle dello studio, mentre nella zona dove è ubicato il ponte l’aumentare dei livelli idrometrici non mette in crisi la struttura. A seguire vengono presentate le opere di mitigazione, destinate alla protezione dell’alveo e dell’ambiente circostante. Poi, si mostrano le opere di mitigazione, essi funzionano di diminuire i rischi dalla diversa classificazione di opere.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La sorveglianza di massa è sempre più utilizzata ai fini dell'anti-terrorismo e determina necessariamente una limitazione della protezione dei dati personali e l'intrusione nella sfera privata. Ovviamente non abbiamo la presunzione di pensare di poter trovare una soluzione al problema terrorismo, o anche al continuo contrasto tra terrorismo e privacy. Lo scopo di questa tesi è principalmente quello di analizzare cosa è stato fatto negli ultimi anni (più precisamente dal 2001 ad oggi), capire perché i governi sono stati finora “inefficienti” e cosa potrebbe succedere nel prossimo futuro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le fonti di energia rinnovabili rappresentano una forma di energia indispensabile al sostentamento dell’attuale sistema produttivo mondiale. L’energia eolica e fotovoltaica ricoprono un ruolo fondamentale nel panorama rinnovabile, e portano con se l’inevitabile svantaggio derivato dall’impossibilita di controllare la fonte primaria di energia. I sistemi di accumulo ed immagazzinamento di energia assumeranno un ruolo strategico nel prossimo scenario energetico, in particolare nell’elaborato viene posta l’attenzione sui sistemi Power-to-Gas. La tecnologia Power-to-Gas consente di produrre gas ad alta potenza specifica (idrogeno o metano sintetico), usando elettricità proveniente da fonti rinnovabili. L’elettrolisi è il metodo più efficiente per convertire energia elettrica in idrogeno. Tra le varie tecnologie, gli elettrolizzatori di tipologia PEM (Proton Exchange Membrane), sono considerati i più adatti all’accoppiamento con fonti di energia rinnovabile, per via della loro risposta alle variazioni di carico e dell’ampio campo di funzionamento. Il lavoro di tesi si concentra sull’analisi delle prestazioni di elettrolizzatori tipo PEM, ed in particolare sull’elettrolizzatore inserito all’interno del “Laboratorio di Microreti di Generazione ed Accumulo” del Tecnopolo di Ravenna. Il laboratorio ha lo scopo di studiare e testare sistemi per la produzione di energia elettrica da fonte rinnovabile e per l’accumulo. L’impianto è costituito principalmente da due pannelli fotovoltaici con il compito di produrre energia, due batterie per accumulare l’energia prodotta dai pannelli, un elettrolizzatore e tre bombole a idruri metallici per lo stoccaggio di idrogeno. Dai dati sperimentali ottenuti dalle prove in laboratorio si è ricavato un modello matematico black-box dell’elettrolizzatore. Il modello gestisce le equazioni della curva caratteristica (P;η). In seguito il modello ottenuto è stato confrontato con un caso analogo presente in letteratura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’introduzione di normative antinquinamento sempre più stringenti ha costretto le case automobilistiche a progettare motori sempre più efficienti e puliti, sviluppando propulsori downsized sovralimentati sottoposti a notevoli sollecitazioni termomeccaniche. L’iniezione di acqua è una tecnologia innovativa che sfrutta il calore latente di evaporazione dell’acqua per raffreddare la carica, allontanando il rischio di detonazione nei motori ad accensione comandata. Essa punta a sostituire l’attuale arricchimento della miscela nei punti di funzionamento critici, in modo da diminuire i consumi di carburante e contenere le emissioni di CO, sottoposte nel prossimo futuro a limitazioni più stringenti nei cicli di omologazione RDE. Il presente lavoro di tesi ha voluto indagare, tramite simulazioni CFD, gli effetti dell’iniezione diretta di acqua su un motore GDI sovralimentato, modellato virtualmente. Le simulazioni hanno coinvolto dapprima le fasi di aspirazione e compressione, valutando l’effetto di raffreddamento sulla carica, la dinamica di evaporazione dell’acqua immessa e l’interazione sia con la dinamica dell’aria all’interno del cilindro, sia con la miscelazione aria-combustibile. Presi come riferimento i casi con λ1 e λ0,75 senz’acqua, l’analisi è iniziata quindi valutando quale fosse la fasatura di iniezione ottimale ed è proseguita analizzando gli effetti di due sistemi di iniezione a 50 bar e 150 bar al variare della quantità di acqua immessa. Una volta trovati i casi migliori nelle due configurazioni, si è proceduto a simulare la combustione, verificando che i benefici ottenuti fossero sfruttati in questa importante fase. Il raffreddamento della miscela permette di aumentare gli anticipi di accensione e quindi avere sia un maggior margine alla detonazione, sia un aumento di lavoro indicato. L’acqua però, comportandosi da inerte, inibisce la propagazione della fiamma, generando combustioni molto lunghe, che influiscono negativamente sulle temperature di scarico.