522 resultados para Dispositivi medici


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Negli ultimi anni, nell' ambito dell' ingegneria dei tessuti, ha avuto un rapido aumento la generazione di tessuti cardiaci miniaturizzati, per lo studio della fisiologia cardiaca e delle patologie. In questa tesi, viene analizzato un processo di realizzazione di un dispositivo heart-on-a-chip recentemente pubblicato da Jayne et al. Per il processo di fabbricazione dei dispositivi è stata utilizzata una combinazione di Soft Lithography e Direct Laser Writing (DLW). Quest' ultima, in particolare, ha fornito due importanti caratteristiche ai dispositivi deputati alla semina cellulare: una struttura curva lungo l’ asse verticale e strutture 3D di diverse altezze sullo stesso piano. Tramite DLW sono stati realizzati anche precisi punti di adesione per le cellule staminali pluripotenti indotte, che hanno consentito di controllare la geometria dei tessuti ingegnerizzati. In particolare, oltre al processo di fabbricazione, in questo lavoro vengono anche illustrate le procedure necessarie al fine di calibrare i microsensori utilizzati per monitorare i costrutti. La prima fase della calibrazione si occupa di determinare la responsività meccanica dei sensori di spostamento, mentre la seconda valuta quella dei sensori elettrici, deputati alla conversione di spostamenti in variazioni di resistenza elettrica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nel seguente elaborato viene trattata la tematica del pacemaker, vista in prima battuta come funzione di autogenerazione elettrica da parte del cuore, con la descrizione dei fenomeni fisiologici alla base di questo fenomeno. Poi successivamente viene data una panoramica sugli studi che hanno portato alla realizzazione dei primi prototipi o dispositivi elettronici utili a sopperire a mancanze o a disturbi legati al sistema di conduzione. In particolare, si evidenzia come la sede dello stimolo, ovvero il nodo senoatriale, sia stata in modo efficiente sostituito da apparecchi biocompatibili e facilmente impiantabili, poiché di piccole dimensioni. Tuttavia, a causa, ad esempio, di alcuni limiti imposti dal consumo di potenza o dal degradarsi della batteria, ci si è chiesti se si potessero trovare delle alternative, altresì utili, per il ripristino dell’attività cardiaca. Per queste ragioni, come suggerito dal titolo, la trattazione di questo elaborato va ad incentrarsi su un ambito diverso ma complementare, quello biologico; in particolare, vengono messi in luce i principali approcci che si sono susseguiti nel corso dei decenni nello studio e nella ricerca per il ripristino dell’autostimolazione del battito, come alternative o compartecipazione, all’impianto di dispositivi elettronici. Viene messo il focus sul concetto di Biopacemaker, il quale riassume la commistione che c’è stata e che tuttora si cerca di fortificare tra l’ambito elettronico e quello legato alla biologia, alla genetica ed all’ingegneria tissutale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'insufficienza cardiaca è una delle malattie cardiovascolari più comuni, nonché quella con maggiori tassi di riospedalizzazione. Nonostante numerosi pazienti siano sottoposti a impianto di defibrillatori cardiaci, come pacemaker e ICD, questo non è sufficiente a diminuire i casi di ricovero. L'innovazione tecnologica dei dispositivi impiantabili li ha resi compatibili con l'utilizzo del monitoraggio remoto che avviene attraverso la trasmissione di un enorme quantità di dati eterogenei, noti come Big Data. Questi offrono la possibilità di rilevare numerosi parametri da cui è possibile valutare il funzionamento del dispositivo e implementare algoritmi di medicina predittiva. In questo elaborato sono analizzati quattro casi studio (cardioMEMS, TRIAGE-HF, SELENE HF, multiSENSE), con lo scopo di confrontare gli algoritmi predittivi in essi sviluppati. Da questi studi, condotti su un insieme ristretto di campioni, è emerso che lo scompenso è predetto correttamente, ma con una previsione di riospedalizzazione a seguito di intervento che differisce in ogni studio clinico. Nello studio MultiSENSE, l'algoritmo ha previsto il 70% delle ospedalizzazioni, con un tempo medio di rilevamento di 34 giorni e 1,47 allarmi inspiegabili per anno-paziente. Questo rispetto al 65,5% e a un tempo medio di 42 giorni e rispetto a 0,63 allarmi inspiegabili per anno-paziente, nel SELENE HF. Nel caso del Triage-HF il tasso di ospedalizzazione è dello 0,2% per anno-paziente, in quanto lo studio è basato sull'associazione tra l'algoritmo e i sintomi che caratterizzano lo scompenso. Al contrario degli altri studi, lo studio cardioMEMS si è occupato di sviluppare una nuova tecnologia: un dispositivo wireless impiantabile; infatti, risulta l'unico studio con un monitoraggio remoto invasivo. Considerando la presenza di numerosi gradi di peggioramento dello scompenso e di differenti dispositivi impiantabili cardiaci è difficile creare un unico algoritmo che includa tutte le tipologie di pazienti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il mondo delle macchine automatiche è in costante evoluzione, ed è in questo contesto che si colloca l’attività di analisi e progettazione oggetto di questo studio. Tutto questo è stato svolto presso l’azienda G.D S.p.A. All’interno dell’Ufficio Tecnico dell’azienda, in collaborazione con l’Ufficio Calcolo, è stata analizzata la resistenza dei componenti, il comportamento deformativo e lo stato tensionale di una testa di taglio principalmente per filtri e cannucce, con lo scopo di sviluppare una nuova soluzione a velocità incrementata, già presente in diverse macchine automatiche e che verrà implementata in molte altre ancora in fase di produzione e progettazione. A tale scopo vengono effettuate diverse verifiche sui componenti, confrontando continuamente i risultati con la situazione attuale di funzionamento e con innovative simulazioni dinamiche e FEM, sull’intero assieme, con lo scopo di prendere in considerazione il maggior numero di contributi alle sollecitazioni, alle deformazioni ed alle vibrazioni possibili, che potrebbero causare criticità o malfunzionamenti del sistema, modellando nel modo più realistico possibile il funzionamento e la movimentazione del meccanismo. L’attuale produttività massima della macchina si attesta su 5000 pz/min con una velocità di rotazione della testa di taglio di 2500 rpm. L’analisi e il miglioramento del sistema ha l’obiettivo di aumentare la velocità di produzione, e quindi di rotazione, a 6000 pz/min e 3000 rpm. Viene infine analizzata la nuova soluzione, verificando anche con prove di funzionamento la validità delle simulazioni e della riprogettazione effettuati. Sono stati studiati e presi in considerazione tutti gli aspetti fondamentali della testa di taglio, nel suo assieme e di ogni suo componente, con lo scopo di migliorarne le prestazioni e la produttività garantendo la sicurezza del meccanismo e al tempo stesso un funzionamento ottimale con la creazione di un prodotto di ottima qualità.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le app mobile sono sempre più pervasive nella vita quotidiana delle persone: gli smartphone hanno rivoluzionato il modo di interagire degli utenti con le varie organizzazioni. Che sia per l'accesso al proprio conto corrente, per la visualizzazione delle notizie quotidiane o per il semplice svago, gli utenti usano sempre più il mondo mobile come canale privilegiato per la fruizione dei contenuti digitali. Il sempre maggior successo delle applicazioni mobile ha sempre più spostato l'attenzione dei malintenzionati sugli smartphone, che sono diventati così uno degli obiettivi più popolari per i cyberattacchi: ciò comporta nuove sfide per le organizzazioni al fine di garantire la sicurezza di dati e sistemi. Risulta fondamentale per un organizzazione in particolare mantenere un controllo sulle proprie applicazioni mobile: configurazioni errate, errori di programmazione, inclusione di librerie software vulnerabili o malevoli e la presenza di credenziali cablate nel codice o nelle configurazioni rappresentano un notevole rischio per la confidenzialità, l'integrità e disponibilità di dati e sistemi. Se risulta fondamentale nello sviluppo un approccio che utilizzi i principi della Security by Design, risulta ancora più importante un presidio costante sulle applicazioni e la costruzione di un ciclo di vita del software sicuro (SSDLC). A tal fine la proposta del progetto di tesi riguarda l'analisi delle principali minacce e vulnerabilità delle applicazioni mobile e lo sviluppo di uno strumento di analisi dei pacchetti mobile (su piattaforma Android o iOS) al fine di identificare possibili rischi prima della pubblicazione dei pacchetti sugli store ufficiali.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi viene spiegato il funzionamento e utilizzo di Software GnuRadio. Con l’approccio previsto da GnuRadio, il progettista diventa uno sviluppatore software che costruisce una SDR. Per la costruzione della SDR viene usato un Hardware esterno. In questa tesi e stato usato Hardware chiamato SDR ADALM-PLITO, dove viene spiegato il suo funzionamento e interfacciamento attraverso GnuRadio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La presente tesi riguarda lo studio di procedimenti di ottimizzazione di sistemi smorzati. In particolare, i sistemi studiati sono strutture shear-type soggette ad azioni di tipo sismico impresse alla base. Per effettuare l’ottimizzazione dei sistemi in oggetto si agisce sulle rigidezze di piano e sui coefficienti di smorzamento effettuando una ridistribuzione delle quantità suddette nei piani della struttura. È interessante effettuare l’ottimizzazione di sistemi smorzati nell’ottica della progettazione antisismica, in modo da ridurre la deformata della struttura e, conseguentemente, anche le sollecitazioni che agiscono su di essa. Il lavoro consta di sei capitoli nei quali vengono affrontate tre procedure numerico-analitiche per effettuare l’ottimizzazione di sistemi shear-type. Nel primo capitolo si studia l’ottimizzazione di sistemi shear-type agendo su funzioni di trasferimento opportunamente vincolate. In particolare, le variabili di progetto sono le rigidezze di piano, mentre i coefficienti di smorzamento e le masse di piano risultano quantità note e costanti durante tutto il procedimento di calcolo iterativo; per effettuare il controllo dinamico della struttura si cerca di ottenere una deformata pressoché rettilinea. Tale condizione viene raggiunta ponendo le ampiezze delle funzioni di trasferimento degli spostamenti di interpiano pari all’ampiezza della funzione di trasferimento del primo piano. Al termine della procedura si ottiene una ridistribuzione della rigidezza complessiva nei vari piani della struttura. In particolare, si evince un aumento della rigidezza nei piani più bassi che risultano essere quelli più sollecitati da una azione impressa alla base e, conseguentemente, si assiste ad una progressiva riduzione della variabile di progetto nei piani più alti. L’applicazione numerica di tale procedura viene effettuata nel secondo capitolo mediante l’ausilio di un programma di calcolo in linguaggio Matlab. In particolare, si effettua lo studio di sistemi a tre e a cinque gradi di libertà. La seconda procedura numerico-analitica viene presentata nel terzo capitolo. Essa riguarda l’ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento e consta di due fasi. La prima fase ricerca il progetto ottimale della struttura per uno specifico valore della rigidezza complessiva e dello smorzamento totale, mentre la seconda fase esamina una serie di progetti ottimali in funzione di diversi valori della rigidezza e dello smorzamento totale. Nella prima fase, per ottenere il controllo dinamico della struttura, viene minimizzata la somma degli scarti quadratici medi degli spostamenti di interpiano. Le variabili di progetto, aggiornate dopo ogni iterazione, sono le rigidezze di piano ed i coefficienti di smorzamento. Si pone, inoltre, un vincolo sulla quantità totale di rigidezza e di smorzamento, e i valori delle rigidezze e dei coefficienti di smorzamento di ogni piano non devono superare un limite superiore posto all’inizio della procedura. Anche in questo caso viene effettuata una ridistribuzione delle rigidezze e dei coefficienti di smorzamento nei vari piani della struttura fino ad ottenere la minimizzazione della funzione obiettivo. La prima fase riduce la deformata della struttura minimizzando la somma degli scarti quadrarici medi degli spostamenti di interpiano, ma comporta un aumento dello scarto quadratico medio dell’accelerazione assoluta dell’ultimo piano. Per mantenere quest’ultima quantità entro limiti accettabili, si passa alla seconda fase in cui si effettua una riduzione dell’accelerazione attraverso l’aumento della quantità totale di smorzamento. La procedura di ottimizzazione di sistemi smorzati agendo simultaneamente sulla rigidezza e sullo smorzamento viene applicata numericamente, mediante l’utilizzo di un programma di calcolo in linguaggio Matlab, nel capitolo quattro. La procedura viene applicata a sistemi a due e a cinque gradi di libertà. L’ultima parte della tesi ha come oggetto la generalizzazione della procedura che viene applicata per un sistema dotato di isolatori alla base. Tale parte della tesi è riportata nel quinto capitolo. Per isolamento sismico di un edificio (sistema di controllo passivo) si intende l’inserimento tra la struttura e le sue fondazioni di opportuni dispositivi molto flessibili orizzontalmente, anche se rigidi in direzione verticale. Tali dispositivi consentono di ridurre la trasmissione del moto del suolo alla struttura in elevazione disaccoppiando il moto della sovrastruttura da quello del terreno. L’inserimento degli isolatori consente di ottenere un aumento del periodo proprio di vibrare della struttura per allontanarlo dalla zona dello spettro di risposta con maggiori accelerazioni. La principale peculiarità dell’isolamento alla base è la possibilità di eliminare completamente, o quantomeno ridurre sensibilmente, i danni a tutte le parti strutturali e non strutturali degli edifici. Quest’ultimo aspetto è importantissimo per gli edifici che devono rimanere operativi dopo un violento terremoto, quali ospedali e i centri operativi per la gestione delle emergenze. Nelle strutture isolate si osserva una sostanziale riduzione degli spostamenti di interpiano e delle accelerazioni relative. La procedura di ottimizzazione viene modificata considerando l’introduzione di isolatori alla base di tipo LRB. Essi sono costituiti da strati in elastomero (aventi la funzione di dissipare, disaccoppiare il moto e mantenere spostamenti accettabili) alternati a lamine in acciaio (aventi la funzione di mantenere una buona resistenza allo schiacciamento) che ne rendono trascurabile la deformabilità in direzione verticale. Gli strati in elastomero manifestano una bassa rigidezza nei confronti degli spostamenti orizzontali. La procedura di ottimizzazione viene applicata ad un telaio shear-type ad N gradi di libertà con smorzatori viscosi aggiunti. Con l’introduzione dell’isolatore alla base si passa da un sistema ad N gradi di libertà ad un sistema a N+1 gradi di libertà, in quanto l’isolatore viene modellato alla stregua di un piano della struttura considerando una rigidezza e uno smorzamento equivalente dell’isolatore. Nel caso di sistema sheat-type isolato alla base, poiché l’isolatore agisce sia sugli spostamenti di interpiano, sia sulle accelerazioni trasmesse alla struttura, si considera una nuova funzione obiettivo che minimizza la somma incrementata degli scarti quadratici medi degli spostamenti di interpiano e delle accelerazioni. Le quantità di progetto sono i coefficienti di smorzamento e le rigidezze di piano della sovrastruttura. Al termine della procedura si otterrà una nuova ridistribuzione delle variabili di progetto nei piani della struttura. In tal caso, però, la sovrastruttura risulterà molto meno sollecitata in quanto tutte le deformazioni vengono assorbite dal sistema di isolamento. Infine, viene effettuato un controllo sull’entità dello spostamento alla base dell’isolatore perché potrebbe raggiungere valori troppo elevati. Infatti, la normativa indica come valore limite dello spostamento alla base 25cm; valori più elevati dello spostamento creano dei problemi soprattutto per la realizzazione di adeguati giunti sismici. La procedura di ottimizzazione di sistemi isolati alla base viene applicata numericamente mediante l’utilizzo di un programma di calcolo in linguaggio Matlab nel sesto capitolo. La procedura viene applicata a sistemi a tre e a cinque gradi di libertà. Inoltre si effettua il controllo degli spostamenti alla base sollecitando la struttura con il sisma di El Centro e il sisma di Northridge. I risultati hanno mostrato che la procedura di calcolo è efficace e inoltre gli spostamenti alla base sono contenuti entro il limite posto dalla normativa. Giova rilevare che il sistema di isolamento riduce sensibilmente le grandezze che interessano la sovrastruttura, la quale si comporta come un corpo rigido al di sopra dell’isolatore. In futuro si potrà studiare il comportamento di strutture isolate considerando diverse tipologie di isolatori alla base e non solo dispositivi elastomerici. Si potrà, inoltre, modellare l’isolatore alla base con un modello isteretico bilineare ed effettuare un confronto con i risultati già ottenuti per il modello lineare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le intersezioni stradali, sono le aree individuate da tre o più tronchi stradali (archi) che convergono in uno stesso punto, nonchè dai dispositivi e dagli apprestamenti atti a consentire ed agevolare le manovre per il passaggio da un tronco all'altro. Rappresentano punti critici della rete viaria per effetto delle mutue interferenze tra le diverse correnti di traffico durante il loro attraversamento. Si acuiscono pertanto, nella loro "area di influenza", i problemi legati alla sicurezza e quelli relativi alla regolarità  ed efficienza della circolazione. Dalla numerosità  dei fattori da cui dipende la configurazione di un incrocio (numero e tipo di strade, entità  dei flussi, situazioni locali, ecc.) deriva una ancor più vasta gamma di tipologie e di schemi. La rotatoria, come particolare configurazione di intersezione a raso, è lo schema che viene considerato nel presente lavoro di tesi, sia nei suoi caratteri essenziali e generali, sia nel particolare di una intersezione che, nel Comune di Bologna, è stata realizzata in luogo dell'intersezione semaforizzata precedente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le reti di distribuzione idrica conservano un ruolo importante ed irrinunciabile nella sicurezza antincendio, ma diversi fattori sul piano normativo e strutturale limitano la loro potenzialità  nelle fasi di estinzione dell'incendio. Ma in che modo si è evoluta in Italia negli ultimi anni la lotta all'incendio? E' ormai noto che non esistono incendi standard, quelli per i quali è possibile definire procedure d'intervento e modalità  di estinzione; non è quindi banale identificare le portate antincendio necessarie (Needed Fire Flow) e il tempo per il quale esse devono essere garantite. In certi contesti è possibile ipotizzare un certo standard d'incendio ma ciò presuppone che edifici, strutture e tutto ciò che è sottoposto ad incendio, possano essere considerati fabbricati a "regola d'arte", ovvero realizzati attraverso procedure esecutive aventi standard di qualità  certificata. Ciò è stato affrontato nei criteri di realizzazione delle nuove costruzioni, ma le vecchie costruzioni, soprattutto gli edifici presenti nei centri storici, sono evidentemente più vulnerabili e sfuggono alla possibilità  di identificare affidabili valori del NFF. Il quadro che si presenta coinvolge quindi carenze normative, contesti urbani con differente vulnerabilità  e una sostanziale disomogeneità  prestazionale delle reti di distribuzione idrica presenti nel territorio nazionale, legata non solo alla disponibilità  idrica ma, anche e soprattutto, alla conformazione della rete, ai livelli di pressione ed alla specifica capacità della rete nel sostenere incrementi di flusso dovuto al prelievo dagli idranti stradali. La scarsa conoscenza di questi aspetti, piuttosto che tradursi in miglioramenti della rete idrica e della sua efficienza ai fini antincendio, ha portato nel tempo ad adottare soluzioni alternative che agiscono principalmente sulle modalità operative di utilizzo dei mezzi dei VV.F. e sul fronte dei dispositivi antincendio privati, quali una migliore protezione passiva, legata all'uso di materiali la cui risposta all'incendio fosse la minore possibile, e protezioni attive alternative, quali impianti sprinkler, di tipo aerosol o misti. Rimangono tutte le problematiche legate alla caratterizzazione nell'area urbanizzata in termini di risposta al prelievo per incendio dagli idranti pubblici sui quali la normativa vigente non impone regole circa le prestazioni e la loro dislocazione sul territorio. Questa incertezza spesso si traduce in un maggiore dispiego di mezzi rispetto all'entità dell'incendio ed ad una scarsa possibilità  di ottimizzare l'allocazione delle unità  operative dei VV.F., con un evidente incremento del rischio nel caso in cui si verifichino più eventi di incendio contemporaneamente. La simulazione numerica avanzata, su modelli opportunamente calibrati delle reti di distribuzione, può consentire una maggiore comprensione quantitativa del livello di sicurezza antincendio offerto da una rete di distribuzione idrica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo del presente elaborato è lo studio della regolarità stradale. La regolarità è una caratteristica fondamentale sia dal punto di vista dell’utenza, poiché da essa dipendono il comfort, ma soprattutto, la sicurezza della guida, sia dal punto di vista dell’ente proprietario della strada, perché dalla regolarità dipende la pianificazione della manutenzione della rete viaria, con tutti i pesi economici che essa comporta. Da questa piccola considerazione si comprende perché nell’ultimo secolo l’argomento abbia suscitato sempre maggiore interesse, vedendo la nascita, sin dagli anni ’50, di strumenti sempre più sofisticati, grazie allo sviluppo dell’elettronica, e sempre più veloci nell’acquisizione dei dati, per far fronte al contemporaneo sviluppo della rete viaria. Nel primo capitolo si affronterà la tematica della regolarità stradale, cercando di comprenderne la natura e i suoi livelli di degrado, dei quali viene fatta un’ampia descrizione, comprensiva di cause scatenanti. Inoltre si fa un accenno al Catasto Stradale, poiché costituisce uno strumento essenziale per la gestione dell’infrastruttura viaria e per l’ottimizzazione delle risorse destinate alla sua manutenzione e alla sua sicurezza; infine si parla delle tecnologie finalizzate al rilievo della regolarità. Il secondo capitolo è dedicato al panorama normativo in materia di regolarità stradale. Le varie norme sono commentate nel dettaglio, data l’importanza di una standardizzazione nella calibrazione e nell’uso degli strumenti di rilievo e nelle procedure di stima della regolarità. Il capitolo successivo contiene una trattazione sugli indici di regolarità, ma l’attenzione è in particolar modo rivolta all’IRI, l’indice internazionale di irregolarità. Per le caratteristiche con cui è stato concepito, cioè stabilità temporale, validità e compatibilità, è stato assunto come scala di riferimento internazionale, a cui gli altri indici possono riferirsi. Viene quindi illustrato il significato di IRI, il modello matematico su cui si basa la sua definizione, per passare poi al procedimento analitico e a quello informatico con il quale viene calcolato. Essendo la presente tesi avvenuta in collaborazione con la ditta Siteco Informatica di Bologna, nel capitolo quarto, sono stati analizzati gli strumenti installati sul veicolo ad alto rendimento (VAR) messo a disposizione dalla ditta stessa. Gli strumenti consistono principalmente in dispositivi per il calcolo del posizionamento e dell’assetto del veicolo, in un profilometro laser per il rilievo della regolarità stradale e in un laser scanner, di cui si è tentato di studiarne le potenzialità nell’ambito dell’oggetto di questa tesi. Il percorso di ricerca ha incluso l’esperienza diretta in sito tramite varie campagne di rilievo, per meglio comprendere il mezzo e la natura dei dati ottenuti. Si è quindi ripercorso l’intero processo di elaborazione dei dati grezzi di rilievo, così com’è strutturato per le finalità della ditta collaborante, per utilizzare poi il dato finito per finalità ingegneristiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il proliferare di dispositivi di elaborazione e comunicazione mobili (telefoni cellulari, computer portatili, PDA, wearable devices, personal digital assistant) sta guidando un cambiamento rivoluzionario nella nostra società dell'informazione. Si sta migrando dall'era dei Personal Computer all'era dell'Ubiquitous Computing, in cui un utente utilizza, parallelamente, svariati dispositivi elettronici attraverso cui può accedere a tutte le informazioni, ovunque e quantunque queste gli si rivelino necessarie. In questo scenario, anche le mappe digitali stanno diventando sempre più parte delle nostre attività quotidiane; esse trasmettono informazioni vitali per una pletora di applicazioni che acquistano maggior valore grazie alla localizzazione, come Yelp, Flickr, Facebook, Google Maps o semplicemente le ricerche web geo-localizzate. Gli utenti di PDA e Smartphone dipendono sempre più dai GPS e dai Location Based Services (LBS) per la navigazione, sia automobilistica che a piedi. Gli stessi servizi di mappe stanno inoltre evolvendo la loro natura da uni-direzionale a bi-direzionale; la topologia stradale è arricchita da informazioni dinamiche, come traffico in tempo reale e contenuti creati dagli utenti. Le mappe digitali aggiornabili dinamicamente sono sul punto di diventare un saldo trampolino di lancio per i sistemi mobili ad alta dinamicità ed interattività, che poggiando su poche informazioni fornite dagli utenti, porteranno una moltitudine di applicazioni innovative ad un'enorme base di consumatori. I futuri sistemi di navigazione per esempio, potranno utilizzare informazioni estese su semafori, presenza di stop ed informazioni sul traffico per effettuare una ottimizzazione del percorso che valuti simultaneamente fattori come l'impronta al carbonio rilasciata, il tempo di viaggio effettivamente necessario e l'impatto della scelta sul traffico locale. In questo progetto si mostra come i dati GPS raccolti da dispositivi fissi e mobili possano essere usati per estendere le mappe digitali con la locazione dei segnali di stop, dei semafori e delle relative temporizzazioni. Queste informazioni sono infatti oggi rare e locali ad ogni singola municipalità, il che ne rende praticamente impossibile il pieno reperimento. Si presenta quindi un algoritmo che estrae utili informazioni topologiche da agglomerati di tracciati gps, mostrando inoltre che anche un esiguo numero di veicoli equipaggiati con la strumentazione necessaria sono sufficienti per abilitare l'estensione delle mappe digitali con nuovi attributi. Infine, si mostrerà come l'algoritmo sia in grado di lavorare anche con dati mancanti, ottenendo ottimi risultati e mostrandosi flessibile ed adatto all'integrazione in sistemi reali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi tratta l’identificazione delle proprietà dissipative del sistema di collegamento fra nuclei in c.a. e telai metallici, disposto all’interno di una struttura specifica, il corpo ‘D’ dell’Ospedale Maggiore di Bologna. Sviluppa anche la calibrazione delle caratteristiche meccaniche di un sistema sostitutivo del precedente, al fine di ottenere selezionate prestazioni sismiche, sviluppando nel complesso un’innovativa soluzione strutturale che vede il posizionamento di dispositivi dissipativi isteretici tra telai pendolari e strutture di controventamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La necessità di sincronizzare i propri dati si presenta in una moltitudine di situazioni, infatti il numero di dispositivi informatici a nostra disposizione è in continua crescita e, all' aumentare del loro numero, cresce l' esigenza di mantenere aggiornate le multiple copie dei dati in essi memorizzati. Vi sono diversi fattori che complicano tale situazione, tra questi la varietà sempre maggiore dei sistemi operativi utilizzati nei diversi dispositivi, si parla di Microsoft Windows, delle tante distribuzioni Linux, di Mac OS X, di Solaris o di altri sistemi operativi UNIX, senza contare i sistemi operativi più orientati al settore mobile come Android. Ogni sistema operativo ha inoltre un modo particolare di gestire i dati, si pensi alla differente gestione dei permessi dei file o alla sensibilità alle maiuscole. Bisogna anche considerare che se gli aggiornamenti dei dati avvenissero soltanto su di uno di questi dispositivi sarebbe richiesta una semplice copia dei dati aggiornati sugli altri dispositivi, ma che non è sempre possibile utilizzare tale approccio. Infatti i dati vengono spesso aggiornati in maniera indipendente in più di un dispositivo, magari nello stesso momento, è pertanto necessario che le applicazioni che si occupano di sincronizzare tali dati riconoscano le situazioni di conflitto, nelle quali gli stessi dati sono stati aggiornati in più di una copia ed in maniera differente, e permettano di risolverle, uniformando lo stato delle repliche. Considerando l' importanza e il valore che possono avere i dati, sia a livello lavorativo che personale, è necessario che tali applicazioni possano garantirne la sicurezza, evitando in ogni caso un loro danneggiamento, perchè sempre più spesso il valore di un dispositivo dipende più dai dati in esso contenuti che dal costo dello hardware. In questa tesi verranno illustrate alcune idee alternative su come possa aver luogo la condivisione e la sincronizzazione di dati tra sistemi operativi diversi, sia nel caso in cui siano installati nello stesso dispositivo che tra dispositivi differenti. La prima parte della tesi descriverà nel dettaglio l' applicativo Unison. Tale applicazione, consente di mantenere sincronizzate tra di loro repliche dei dati, memorizzate in diversi dispositivi che possono anche eseguire sistemi operativi differenti. Unison funziona a livello utente, analizzando separatamente lo stato delle repliche al momento dell' esecuzione, senza cioè mantenere traccia delle operazioni che sono state effettuate sui dati per modificarli dal loro stato precedente a quello attuale. Unison permette la sincronizzazione anche quando i dati siano stati modificati in maniera indipendente su più di un dispositivo, occupandosi di risolvere gli eventuali conflitti che possono verificarsi rispettando la volontà dell' utente. Verranno messe in evidenza le strategie utilizzate dai suoi ideatori per garantire la sicurezza dei dati ad esso affidati e come queste abbiano effetto nelle più diverse condizioni. Verrà poi fornita un' analisi dettagiata di come possa essere utilizzata l' applicazione, fornendo una descrizione accurata delle funzionalità e vari esempi per renderne più chiaro il funzionamento. Nella seconda parte della tesi si descriverà invece come condividere file system tra sistemi operativi diversi all' interno della stessa macchina, si tratta di un approccio diametralmente opposto al precedente, in cui al posto di avere una singola copia dei dati, si manteneva una replica per ogni dispositivo coinvolto. Concentrando l' attenzione sui sistemi operativi Linux e Microsoft Windows verranno descritti approfonditamente gli strumenti utilizzati e illustrate le caratteristiche tecniche sottostanti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sviluppata di un'applicazione che consente di ottimizzare il traffico VoIP SIP sfruttando contemporaneamente tutte le interfacce a disposizione dei dispositivi mobili.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the early 1970 the community has started to realize that have as a main principle the industry one, with the oblivion of the people and health conditions and of the world in general, it could not be a guideline principle. The sea, as an energy source, has the characteristic of offering different types of exploitation, in this project the focus is on the wave energy. Over the last 15 years the Countries interested in the renewable energies grew. Therefore many devices have came out, first in the world of research, then in the commercial one; these converters are able to achieve an energy transformation into electrical energy. The purpose of this work is to analyze the efficiency of a new wave energy converter, called WavePiston, with the aim of determine the feasibility of its actual application in different wave conditions: from the energy sea state of the North Sea, to the more quiet of the Mediterranean Sea. The evaluation of the WavePiston is based on the experimental investigation conducted at the University of Aalborg, in Denmark; and on a numerical modelling of the device in question, to ascertain its efficiency regardless the laboratory results. The numerical model is able to predict the laboratory condition, but it is not yet a model which can be used for any installation, in fact no mooring or economical aspect are included yet. È dai primi anni del 1970 che si è iniziato a capire che il solo principio dell’industria con l’incuranza delle condizioni salutari delle persone e del mondo in generale non poteva essere un principio guida. Il mare, come fonte energetica, ha la caratteristica di offrire diverse tipologie di sfruttamento, in questo progetto è stata analizzata l’energia da onda. Negli ultimi 15 anni sono stati sempre più in aumento i Paesi interessati in questo ambito e di conseguenza, si sono affacciati, prima nel mondo della ricerca, poi in quello commerciale, sempre più dispositivi atti a realizzare questa trasformazione energetica. Di tali convertitori di energia ondosa ne esistono diverse classificazioni. Scopo di tale lavoro è analizzare l’efficienza di un nuovo convertitore di energia ondosa, chiamato WavePiston, al fine si stabilire la fattibilità di una sua reale applicazione in diverse condizioni ondose: dalle più energetiche del Mare del Nord, alle più quiete del Mar Mediterraneo. La valutazione sul WavePiston è basata sullo studio sperimentale condotto nell’Università di Aalborg, in Danimarca; e su di una modellazione numerica del dispositivo stesso, al fine di conoscerne l’efficienza a prescindere dalla possibilità di avere risultati di laboratorio. Il modello numerico è in grado di predirre le condizioni di laboratorio, ma non considera ancora elementi come gli ancoraggi o valutazione dei costi.