999 resultados para Analisi di vulnerabilità sismica strutture esistenti
Resumo:
Attualmente, la maggior parte dei dati che transitano sulla rete appartiene a contenuti multimediali. Più nello specifico, è lo Streaming Video ad avere la predominanza nella condivisione di Internet; vista la crescita che tale servizio ha subìto negli ultimi anni, si sono susseguiti diversi studi volti allo sviluppo di tecniche e metodologie che potessero migliorarlo. Una di queste è sicuramente l'Adaptive Video Streaming, tecnica utilizzata per garantire all'utente una buona Quality of Experience (QoE) mediante l'utilizzo dei cosiddetti "algoritmi di rate adaptation". Il lavoro svolto in questi studi si è voluto concentrare su due filoni distinti, ma allo stesso tempo confrontabili: la prima parte della tesi riguarda lo sviluppo e l'analisi di alcuni algoritmi di rate adaptation per DASH, mentre la seconda è relativa all'implementazione di un nuovo algoritmo che li possa affiancare, migliorando la QoE nel monitorare lo stato della connessione. Si è quindi dovuta implementare un'applicazione Android per lo streaming video, che fosse conforme allo standard MPEG-DASH e potesse fornire le informazioni di testing da utilizzare per le analisi. La tesi è suddivisa in quattro capitoli: il primo introduce l'argomento e definisce la terminologia necessaria alla comprensione degli studi; il secondo descrive alcuni dei lavori correlati allo streaming adattivo e introduce i due filoni principali della tesi, ovvero gli algoritmi di rate adaptation e la proposta di algoritmo per la selezione dinamica del segmento; il terzo presenta l'app SSDash, utilizzata come mezzo per le analisi sperimentali; infine, il quarto ed ultimo capitolo mostra i risultati delle analisi e le corrispondenti valutazioni.
Resumo:
Lo scopo della presente tesi è lo studio e la progettazione di un sistema Hands-Free applicato in ambito Healthcare, volto ad aiutare il personale sanitario nello svolgimento delle mansioni lavorative. Il progetto, denominato Trauma Tracker, ha avuto origine grazie alla collaborazione con medici ed infermieri dell'ospedale Maurizio Bufalini di Cesena. In particolare, il sistema in prodotto si prende carico della compilazione del report finale contenente tutte le operazioni svolte sui pazienti nell'ambito del Pronto Soccorso, riducendo così notevolmente le possibilità di errori dovuti a fattori umani. Durante le fasi di sviluppo e progettazione sono state aggiunte ulteriori funzionalità al sistema, fino a farlo diventare vero e proprio oggetto incantato, in grado di esibire proprietà finora inimmaginabili in questo campo di applicazione. Trauma Tracker, almeno in queste prime fasi, non si propone come uno strumento immediatamente utilizzabile sul campo e pronto ad affiancare i medici, poiché necessiterebbe subito di qualità come robustezza ed affidabilità a livelli estremamente elevati. Per questo motivo il progetto è stato trattato come un "Proof of Concept", ossia un prototipo che ha lo scopo di dimostrare la fattibilità di tale sistema nella realtà, e di verificarne l'utilità una volta applicato in uno scenario concreto. L'argomento trattato ha quindi una grande importanza, poiché getta le basi di una tecnologia che un giorno potrà aiutare medici ed infermieri a svolgere al meglio l'impegnativo compito di salvare vite. In questa tesi, è stato approfondito in particolare il sottosistema utilizzato per il riconoscimento dei parametri vitali dal monitor multi-parametrico posto nei diversi reparti ospedalieri. Esso ha richiesto lunghe fasi di implementazione e collaudo per ottenere dei risultati soddisfacenti, che alla fine sono stati raggiunti.
Resumo:
I Big Data stanno guidando una rivoluzione globale. In tutti i settori, pubblici o privati, e le industrie quali Vendita al dettaglio, Sanità, Media e Trasporti, i Big Data stanno influenzando la vita di miliardi di persone. L’impatto dei Big Data è sostanziale, ma così discreto da passare inosservato alla maggior parte delle persone. Le applicazioni di Business Intelligence e Advanced Analytics vogliono studiare e trarre informazioni dai Big Data. Si studia il passaggio dalla prima alla seconda, mettendo in evidenza aspetti simili e differenze.
Resumo:
Il progetto di dottorato che verrà presentato in questa tesi è focalizzato sullo sviluppo di un metodo sperimentale per la produzione di protesi personalizzate utilizzando il processo di fabbricazione additiva di Selective Laser Melting (SLM). L’obiettivo è quello di definire una condizione di processo ottimizzata per applicazioni in ambito chirurgico che possa essere generalizzabile, ovvero che ne garantisca la riproducibilità al variare dell’anatomia del paziente e che rappresenti la base per estendere il metodo ad altre componenti protesiche. Il lavoro si è sviluppato lungo due linee principali, la cui convergenza ha permesso di realizzare prototipi di protesi complete utilizzando un solo processo: da una parte la produzione di componenti a massima densità per il raggiungimento di elevate resistenze meccaniche, buona resistenza ad usura e corrosione e controllo di tensioni residue e deformazione delle parti stampate. Dall’altra si sono studiate strutture reticolari a geometria e porosità controllata per favorire l’osteointegrazione della componente protesica post impianto. In questo studio sono stati messe a confronto le possibili combinazioni tra parametri di processo e sono state individuate le correlazioni con le proprietà finali dei componenti stampati. Partendo da queste relazioni si sono sviluppate le strategie tecnologiche per la progettazione e la produzione dei componenti. I test sperimentali svolti e i risultati ottenuti hanno dimostrato la fattibilità dell’utilizzo del processo SLM per la produzione di protesi personalizzate e sono stati fabbricati i primi prototipi funzionali. La fabbricazione di protesi personalizzate richiede, però, anche la progettazione e la produzione di strumentario chirurgico ad hoc. Per questo motivo, parallelamente allo studio della lega di Cromo Cobalto, sono stati eseguiti i test anche su campioni in INOX 316L. Anche in questo caso è stato possibile individuare una finestra operativa di processo che garantisse proprietà meccaniche comparabili, e in alcuni casi superiori, a quelle ottenute con processi convenzionali.
Resumo:
Questa tesi è dedicata al ruolo della metafora nella comunicazione politica dal punto di vista di un interprete di conferenza. In essa si effettua un'analisi di un corpus di metafore utilizzate da Vladimir Putin e si inquadra la metafora nel contesto dell’interpretazione simultanea. La metafora, infatti, gioca un ruolo fondamentale nel trasmettere l’intenzione comunicativa dell’oratore. Dunque, è importante che l’interprete sia conscio dei modelli metaforici più frequenti nel discorso politico, nonché delle strategie migliori da adottare di fronte ai vari tipi di metafore. Il primo capitolo è dedicato ad alcune delle teorie sulla metafora. Si evidenzia il passaggio da una concezione “classica” di metafora come abbellimento del testo, all’idea più recente della metafora come fenomeno cognitivo. Si discute inoltre della traduzione della metafora, della sua categorizzazione, su una scala da metafora viva a metafora “morta”, e del concetto di metafora universale. Il secondo capitolo riguarda il ruolo della metafora nella comunicazione politica, le funzioni da essa svolte e il suo potere persuasivo. Si presentano le metafore più diffuse nei discorsi politici russi e il particolare stile comunicativo di Vladimir Putin. Il terzo capitolo analizza un corpus di metafore di Vladimir Putin. Le metafore estratte sono classificate su una scala, dalle più alle meno lessicalizzate; si evidenziano le metafore concettuali più frequenti e le potenziali difficoltà che possono emergere nella resa in interpretazione simultanea.
Resumo:
I big data sono caratterizzati dalle ben note 4v: volume, velocità, veracità e varietà. Quest'ultima risulta di importanza critica nei sistemi schema-less, dove il concetto di schema non è rigido. In questo contesto rientrano i database NoSQL, i quali offrono modelli dati diversi dal classico modello dati relazionale, ovvero: documentale, wide-column, grafo e key-value. Si parla di multistore quando ci si riferisce all'uso di database con modelli dati diversi che vengono esposti con un'unica interfaccia di interrogazione, sia per sfruttare caratteristiche di un modello dati che per le maggiori performance dei database NoSQL in contesti distribuiti. Fare analisi sui dati all'interno di un multistore risulta molto più complesso: i dati devono essere integrati e va ripristinata la consistenza. A questo scopo nasce la necessità di approcci più soft, chiamati pay-as-you-go: l'integrazione è leggera e incrementale, aggira la complessità degli approcci di integrazione tradizionali e restituisce risposte best-effort o approssimative. Seguendo tale filosofia, nasce il concetto di dataspace come rappresentazione logica e di alto livello dei dataset disponibili. Obiettivo di questo lavoro tesi è studiare, progettare e realizzare una modalità di interrogazione delle sorgenti dati eterogenee in contesto multistore con l'intento di fare analisi situazionali, considerando le problematiche di varietà e appoggiandosi all'integrazione fornita dal dataspace. Lo scopo finale è di sviluppare un prototipo che esponga un'interfaccia per interrogare il dataspace con la semantica GPSJ, ovvero la classe di query più comune nelle applicazioni OLAP. Un'interrogazione nel dataspace dovrà essere tradotta in una serie di interrogazioni nelle sorgenti e, attraverso un livello middleware, i risultati parziali dovranno essere integrati tra loro in modo che il risultato dell'interrogazione sia corretto e allo stesso tempo completo.
Resumo:
Questa tesi sostiene l'efficacia delle immagini satellitari per monitorare e valutare lo stato di conservazione dei siti archeologici soggetti a minacce antropiche, facendo riferimento alla situazione di crisi che è in atto in Siria a causa della guerra civile. Sono descritti nello specifico i vantaggi e i limiti del loro uso per riconoscere e seguire l’evoluzione dei saccheggi e delle altre forme di danno: in particolare vengono valutati i danni presenti su 68 tell pre-classici situati nel nord della Siria. È stato utilizzato un approccio foto interpretativo mediante il software QGIS, confrontando immagini satellitari provenienti da piattaforme open source quali Google, Bing, Esri con immagini d’archivio risalenti al 2010. Sono state effettuate diverse analisi volte a mappare la distribuzione dei danni sul territorio e stimarne l’incremento avvenuto tra il 2014 e il 2019, sottolineando l’impatto della militarizzazione e degli scavi clandestini. Sono state inoltre acquistate due immagini ad altissima risoluzione del satellite WorldView-2 per fare un riconoscimento semiautomatico dei cambiamenti avvenuti dal 2010 al 2020 su due dei tell appartenenti all’area di indagine, attraverso l’uso del software ENVI: dopo avere eseguito le opportune correzioni geometriche e atmosferiche è stata effettuata l’analisi delle componenti principali (PCA) ottenendo due immagini raster nelle quali vengono evidenziate le fosse di saccheggio e i danni compiuti sopra i due tell. Questo approccio ha consentito di individuare con maggiore chiarezza le caratteristiche che non erano altrettanto ben visibili nelle immagini rese disponibili dalle fonti open source. I risultati ottenuti dimostrano l’importanza delle immagini satellitari che rappresentano una fonte oggettiva di informazioni per avere una stima dei danni al suolo e possono aiutare le autorità competenti a prendere le misure necessarie per prevenire un'ulteriore diffusione del saccheggio e delle altre forme di danno.
Resumo:
Introduzione: La malattia policistica autosomica dominante (ADPKD) è una causa comune di malattia renale terminale (ESKD). È caratterizzata dallo sviluppo di cisti renali bilaterali che aumentano progressivamente di volume. Il Tolvaptan viene prescritto in base a 3 criteri: volume renale totale (HtTKV) e Mayo Clinic Imaging Class (MCIC), tasso di declino dell'eGFR e al Predicting Renal Outcome in Polycystic Kidney Disease (PROPKD), che combina variabili cliniche e genetiche. In questa coorte multicentrica retrospettiva, l'obiettivo era di valutare e migliorare la concordanza di sensibilità e specificità predittive di MCIC e PROPKD. Metodi: I dati di pazienti adulti affetti da ADPKD sono stati ottenuti da 2 centri di Bologna (B) e Dublino (D). Abbiamo definito RP un calo dell'eGFR ≥3 mL/min/1,73m2/anno su 4 anni (Clinical Score), o classi MCIC 1C-D-E, o punteggio PROPKD da 7 a 9. Per i parametri clinici sono state utilizzate statistiche descrittive. La concordanza tra i punteggi è stata valutata tramite la statistica Kappa. Nelle varianti missenso di PKD1, il punteggio REVEL è stato trattato come una variabile continua; (>0,65 patogeno'). Risultati: Abbiamo valutato 201 pazienti con ADPKD. Il Propkd e il MCIC erano rispettivamente: 90% specifico e 31,3% sensibile; 89,6% sensibile e 28,6% specifico per identificare il calo dell'eGFR. Kappa di Cohen era di 0,025. Il 47,9% (n=143) è risultato concorde. Il punteggio Revel applicato alle mutazioni PKD1NT identifica da 15 a 19 pazienti che potrebbero avere una RP. L'analisi multivariata mostra dati statisticamente significativi per HB (p:0,016), eventi urologici (p: 0,005) e MCIC (p: 0,074). Conclusioni: La concordanza tra i punteggi risulta bassa. Il PROPKD è più selettivo rispetto al Mayo. Tuttavia, il PROPKD permette di identificare alcune RP escluse dall'uso del solo MCIC. L'uso combinato dei punteggi può aumentare la capacità di identificare le RP. Il punteggio REVEL potrebbe migliorare questa concordanza
Resumo:
Il miglioramento dell'assistenza e dei risultati dei pazienti si basano attualmente sullo sviluppo e sulla convalida di nuovi farmaci e tecnologie, soprattutto in campi in rapida evoluzione come la Cardiologia Interventistica. Tuttavia, al giorno d’oggi ancora poca attenzione è rivolta ai professionisti che effettuano tali operazioni, il cui sforzo cognitivo-motorio è essenziale per la riuscita degli interventi. L’ottimizzazione delle prestazioni e dell'organizzazione del lavoro è essenziale in quanto influisce sul carico di lavoro mentale dell'operatore e può determinare l'efficacia dell'intervento e l'impatto sulla prognosi dei pazienti. È stato ampiamente dimostrato che diverse funzioni cognitive, tra cui l'affaticamento mentale comporta alcuni cambiamenti nei segnali elettroencefalografici. Vi sono diversi marcatori dei segnali EEG ciascuno con una determinata ampiezza, frequenza e fase che permettono di comprendere le attività cerebrali. Per questo studio è stato utilizzato un modello di analisi spettrale elettroencefalografica chiamato Alpha Prevalence (AP), che utilizza le tre onde alpha, beta e theta, per mettere in correlazione i processi cognitivi da un lato e le oscillazioni EEG dall’altro. Questo elaborato, condotto insieme all’azienda Vibre, prende in esame il cambiamento dell’AP, all’interno di una popolazione di cardiologi interventisti che effettuano interventi in cath-lab presso l’ospedale universitario di Ferrara, per valutare la condizione di affaticamento mentale o di eccessiva sonnolenza. L’esperimento prevede la registrazione del segnale EEG nei partecipanti volontari durante gli interventi e durante le pause nel corso dell’intero turno di lavoro. Lo scopo sarà quello di rilevare i cambiamenti nella metrica dell’alpha prevalence al variare del carico attentivo: ossia al variare delle risorse attentive richieste dal compito in relazione all’aumentare del tempo.
Resumo:
la gestione ottimale del rischio alluvionale è un ambito di ricerca di grande rilevanza a livello nazionale e internazionale. Con riferimento alle alluvioni, infatti, sono state proposte in letteratura diverse tecniche innovative per la previsione e la mitigazione del rischio alluvionale. Tra di esse spiccano le tecniche speditive di mappatura della pericolosità idraulica ottenute attraverso l'utilizzo di descrittori geomorfici. Detti approcci derivano descrittori morfologici analizzando modelli digitali delle quote del terreno (DEM) ed in base ad essi forniscono una mappatura di pericolosità idraulica da alluvione. Che gioco svolge la risoluzione del DEM di partenza sull'accuratezza dei prodotti finali? La combinazione di DEM a diversa risoluzione migliora le prestazioni dei singoli dataset? Il lavoro di Tesi analizza l'importanza della risoluzione del DEM di partenza sull'accuratezza delle mappature conseguibili, utilizzando come riferimento l'area del bacino del Samoggia con chiusura a Calcara. I risultati ottenuti mostrano come: (a) le caratteristiche dei descrittori geomorfici considerati sembrano essere influenzate significativamente da quelle del DEM utilizzato come dato in ingresso e (b) DEM ad elevata risoluzione portino ad un aumento nell'accuratezza della mappatura di pericolosità.
Resumo:
In questo elaborato verranno prese in esame alcuni personaggi considerati Borderline a causa del ruolo e modalità di azione non convenzionale assunto all'interno del loro contesto narrativo e la loro moralità al limite del lecito, in cui fanno parte gli Antagonisti, gli Antieroi e i Villains, per osservare più attentamente come il loro formato multimediale abbiano un impatto significativo sul loro modo di agire all'interno del loro ambiente narrativo, le influenze culturali, storiche e sociali che stanno alla base della loro creazione, e quali metodologie di narrazione vengono utilizzati per raccontare il loro sviluppo interiore, in modo da scoprire nuove alternative alla caratterizzazione e allo sviluppo di questa tipologia di caratteri.
Resumo:
Il presente elaborato ha l’obiettivo di analizzare il fenomeno dei giochi di parole, in particolar modo quelli bilingue, e le allusioni, andandone a definire i tipi, le funzioni, gli usi e le caratteristiche. L’analisi è stata eseguita prendendo come riferimento alcuni esempi dei programmi russi Ciao, 2020! e Ciao, 2021!, in cui l’uso della lingua italiana svolge un ruolo fondamentale. L’intento è quello di comprendere più a fondo il funzionamento dei mezzi e strumenti per creare l’effetto comico, tenendo conto anche della cultura di un popolo: l’uso innovativo della lingua straniera per creare giochi di parole bilingue, le allusioni culturospecifiche russe e il modo in cui queste vengono utilizzate per avere un effetto sul pubblico sono alla base dell’unicità e originalità di questo elaborato. Inoltre, viene anche analizzata la risposta dell’audience italiana ai tentativi di fare umorismo, studiata sulla base di fenomeni come il failed humour e i culture bumps, cercando di dare una motivazione a tale reazione.
Resumo:
In questo elaborato viene analizzata la traduzione dal bulgaro verso l’italiano di alcuni lavori della poetessa bulgara Elisaveta Bagrjana. Per raggiungere questo obiettivo finale viene fatta un'introduzione sulla figura della poetessa che rappresenta uno dei personaggi più rilevanti per la scena letteraria bulgara e sulla raccolta poetica L'Eterna e la Santa. La poetica viene anche contestualizzata, al fine di dare più informazioni sulla ricchezza artistica della Bulgaria. Le poesie vengono poi singolarmente introdotte e analizzate, soffermandosi sulle difficoltà che si potevano riscontrare nel processo traduttivo, sulle parole chiavi, sui termini difficilmente traducibili, e sulla resa dello schema ritmico e delle rime. In generale l'elaborato vuole aprire un varco nei confronti di un popolo e di una cultura di cui si sa molto poco, ma di cui c'è tanto da scoprire.
Resumo:
Il Ground Penetrating Radar (GPR) è una tecnica di indagine non distruttiva che si basa sulla teoria della propagazione delle onde elettromagnetiche. Questa tecnologia venne inizialmente utilizzata per indagini geologiche, ma più recentemente è stata introdotta anche per lo studio di altri materiali quali calcestruzzo, legno e asfalto. Questa tecnologia investigativa può essere utilizzata per varie problematiche : • Localizzazione di oggetti all’interno del materiale inglobante • Determinazione dello spessore dello strato del materiale oggetto di studio (calcestruzzo, asfalto, terreno, legno) • Proprietà del materiale, inclusa umidità ed eventuale presenza di vuoti Nella fase iniziale di questo lavoro di tesi sono stati studiati i principi fisici di funzionamento, la metodologia di elaborazione dei dati restituiti dallo strumento e di interpretazione dei risultati. Successivamente, è stato posto l’obbiettivo di verificare l’applicabilità del georadar nel rintracciare i ferri di armatura nelle travi da ponte. Quest’ultime sono spesso realizzate tramite l’impiego della precompressione con cavi post-tesi che implica la presenza di guaine con all’interno i relativi trefoli di tensionamento. Per simulare tali condizioni sono state realizzate in laboratorio delle “travi campione” con guaine in differente materiale, con differente posizionamento e con differente tecnologia di posa, in modo tale da permettere di studiare diversi scenari. Di seguito le differenti tipologie di travi : - Trave con guaine metalliche ; - Trave con guaine plastiche ; - Trave con interruzioni in polistirolo lungo le guaine (per simulare la corrosione delle stesse); - Travi con trefoli inseriti all’interno delle guaine (per studiarne l’influenza sul segnale).
Resumo:
La presente tesi tratta lo studio di fattibilità di un impianto automatico per l’assemblaggio di stampati in materiale plastico. Lo sviluppo della tesi si è basato sulla riproduzione a computer (utilizzando il software AutoMod) del layout futuro, delle movimentazioni di materiale e dell’analisi dei flussi che servono all’impianto e l’utilizzo del personale a bordo dello stesso. Successivamente, sviluppato il modello, si è andati a calcolare quale potesse essere il lotto ottimale di produzione che fosse in grado di individuare una produzione efficiente. Infine, è stata fatta l’analisi dell’investimento tramite foglio di calcolo Excel riportando i dati uscenti dal modello di simulazione insieme ad altri dati stimati e rilevati sul campo. Il programma ha come obiettivo l’analisi di fattibilità e la successiva decisione estratta dai dati sulla vantaggiosità o meno dell’investimento ed in quanto tempo l’azienda potrà rientrare economicamente.