763 resultados para Scorrimenti traslativi, Marnoso Arenacea, analisi a ritroso, analisi di stabilità


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro di tesi mira a fornire una panoramica delle tecnologie utilizzate in sala di elettrofisiologia che hanno permesso una riduzione dell’utilizzo del fluoroscopio e quindi della radiazioni ionizzanti per l’individuazione dei cateteri utilizzati durante le procedure. Infatti, si è presentato lo strumento che ha rivoluzionato il mondo della elettrofisiologia quale il sistema di mappaggio elettroanatomico. Esso consente la ricostruzione paziente-specifica dell’anatomia atriale o ventricolare e l’identificazione spaziale e temporale degli elettrogrammi durante un particolare ritmo cardiaco. Infatti questo viene utilizzato dal bioingegnere nelle procedure come l’ablazione transcatetere della fibrillazione atriale per guidare il clinico. Sebbene tale aritmia sia molto diffusa, i suoi meccanismi di mantenimento sono ancora in fase di studio. In particolare, tale tesi presenta la teoria dei rotori che sostiene che la fibrillazione atriale abbia un meccanismo di mantenimento basato su pattern di attivazione spiraliformi. Dato che i rotori possono essere definiti come singolarità di fase che soddisfano un'opportuna persistenza temporale, si è utilizzato un sistema di analisi di dati elettroanatomici (già utilizzato in precedenti casi di studio) in ambiente Matlab per la generazione delle mappe di fase e l’individuazione delle singolarità di fase. In particolare, si è studiata l’attività elettrica di un paziente affetto da FA persistente e sottoposto ad ablazione transcatetere, in due segmenti di acquisizione. Per raggiungere tale obiettivo, è stato utilizzato il catetere HD GRID e il sistema Ensite Precision della Abbott. L’esistenza dei rotori è ancora fortemente dibattuta dalla comunità scientifica, alcuni sostengono che siano artefatti introdotti dal movimento degli elettrodi del catetere durante le procedure. L’eventuale identificazione di rotori con un catetere ad elevata risoluzione, come nel caso in questione, confuterebbe la precedente teoria.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel presente lavoro di tesi è stato studiato il comportamento all’impatto di laminati compositi di varia natura, valutando il danneggiamento ad impatti a bassa velocità. Il comportamento dei diversi campioni è stato osservato prendendo come riferimento un laminato in fibra di carbonio e resina epossidica. Al fine di studiare e migliorare la risposta dei materiali a questo tipo di sollecitazioni sono stati utilizzati diversi approcci: introduzione di strati eterogenei di natura differente e uso di tessuti ibridi (fibre di carbonio e fibre polimeriche). I campioni sono stati quindi sottoposti ad impatti a diversa energia, con lo scopo di valutare l’energia assorbita e la loro deformazione. I provini danneggiati sono stati quindi sottoposti ad analisi di caratterizzazione microscopica, termica e meccanica.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente elaborato si inserisce in un progetto di ricerca volto alla sostituzione del polistirene (PS) con il polietilene-tereftalato (PET) per la realizzazione di vasetti per yogurt, in formato singolo e multiplo, con l’obiettivo di ridurre l’impatto ambientale e allo stesso tempo aumentare le percentuali di riciclo del materiale utilizzato. La tenacità, caratteristica del PET, rende problematica l’incisione di quest’ultimo attraverso i classici sistemi meccanici utilizzati per il PS, per l’ottenimento di una rottura di tipo fragile in formati multipack. Al fine di ottenere una corretta incisione e una conseguente rottura fragile, per la separazione di due vasetti per yogurt adiacenti è stata focalizzata l’attenzione su tecnologie di taglio e incisione alternative a quella meccanica, più in particolare verso i sistemi efficienti, di taglio e incisione laser. In questo contesto, il progetto di tirocinio ha riguardato la caratterizzazione del processo di taglio e incisione laser di lastre di PET. In particolare, sono state effettuate analisi dinamometriche al fine di studiare il comportamento meccanico del PET e di confrontarlo con quello del PS, sono state condotte analisi di viscosità intrinseca e di spettroscopia infrarossa ATR-IR per verificare la presenza di un processo degradativo, in seguito al passaggio del laser sul materiale. Infine, sono stati caratterizzati alcuni prodotti di degradazione, appartenenti alla frazione pesante, mediante analisi NMR e ESI-MS, e sono stati eseguiti dei test di migrazione globale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo elaborato di tesi si affronta lo sviluppo di un framework per l'analisi di URL di phishing estratte da documenti malevoli. Tramite il linguaggio python3 e browsers automatizzati si è sviluppata una pipeline per analizzare queste campagne malevole. La pipeline ha lo scopo di arrivare alla pagina finale, evitando di essere bloccata da tecniche anti-bot di cloaking, per catturare una schermata e salvare la pagina in locale. Durante l'analisi tutto il traffico è salvato per analisi future. Ad ogni URL visitato vengono salvate informazioni quali entry DNS, codice di Autonomous System e lo stato nella blocklist di Google. Un'analisi iniziale delle due campagne più estese è stata effettuata, rivelando il business model dietro ad esse e le tecniche usate per proteggere l'infrastruttura stessa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nell’ambito dello studio della vulnerabilità delle strutture in muratura la modellazione dei maschi murari e la conseguente verifica avviene convenzionalmente considerando tali partizioni come indipendenti, ovvero suddividendo, dapprima,i maschi murari a seconda della loro disposizione spaziale nei confronti della direzione della azione sismica e, successivamente, considerando il contributo dei maschi murari come agenti “in parallelo”.In tale scenario, la modellazione al continuo rende la definizione del singolo maschio murario non banale, in quanto tale tipologia di modellazione vede la geometria dell’edificio come un “unicum” strutturale.Questa dissertazione si prefigge di qualificare e quantificare le differenze scaturite dalla diversa suddivisione dei maschi e delle zone di interfaccia tra diverse pareti murarie, valutando il comportamento del maschio stesso in termini di taglio e sforzo normale ottenuti mediante un’analisi statica non lineare (Pushover). Due modelli ispirati a strutture reali sono analizzati a tal proposito: - Il prototipo testato nel 1994 nel Laboratorio dell’Università di Pavia (modello benchmark n°4). - La scuola “P.Capuzi” di Visso (MC), edificio monitorato permanentemente dall’Osservatorio Sismico delle Strutture del Dipartimento di Protezione Civile [3] e ad oggi demolito (modello benchmark n°5). Il lavoro qui presentato si inserisce in un più ampio programma di ricerca svolto in sinergia da varie unità coinvolte nel progetto ReLUIS 2017/2108 – Linea Strutture in Muratura [1][2] e avente come oggetto l’analisi di strutture benchmark per la valutazione dell’affidabilità di codici di calcolo. I modelli sono stati studiati eseguendo analisi di tipo statico non lineare (Pushover) con distribuzione di forze proporzionale alle masse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dagli anni '40, la produzione di materiali plastici è aumentata in modo esponenziale. La loro versatilità, resistenza ed economicità li hanno resi accessibili globalmente. Questi vantaggi hanno comportato però molti danni a ecosistemi e specie marine, tra cui anche Caretta caretta. Recenti studi hanno dimostrato, ad esempio, la capacità delle microplastiche di influenzare negativamente l’ambiente di incubazione delle uova, causando impatti sullo sviluppo embrionale e sul successo di schiusa. I metalli pesanti svolgono un ruolo chiave nella contaminazione oceanica poiché molto stabili e non biodegradabili. Gli organismi non riescono quindi a eliminarli, ma tendono ad accumularli nei tessuti, determinando conseguentemente il loro inserimento nella catena trofica. Recentemente, l'analisi di campioni di sangue di esemplari vivi di tartaruga marina ha consentito di studiare le loro potenziali implicazioni sulla salute e sul successo riproduttivo delle popolazioni. Tuttavia, poche informazioni sono ancora disponibili sull'esposizione delle uova ai metalli e sul trasferimento di questi dalla madre all'embrione. In questo lavoro di tesi si è andati quindi a verificare i livelli di esposizione ai metalli pesanti, mediante l’analisi all’ICP-OES delle uova, e i livelli di esposizione alle microplastiche, grazie a un nuovo metodo basato sul principio della flottazione della densità applicato sui campioni di sabbia, nei nidi di C. caretta rinvenuti durante la stagione di deposizione 2021 lungo la costa ionica della provincia di Catanzaro. Successivamente è stata valutata la correlazione tra i livelli di esposizione e il successo di schiusa della specie: i risultati ottenuti hanno permesso di affermare che per le concentrazioni dei metalli si ha una correlazione negativa (p=0,022) tra il contenuto di Pb in tuorlo e albume combinati e il successo di schiusa registrato nei nidi presi in analisi, mentre ciò non è stato possibile per le concentrazioni delle microplastiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La malattia COVID-19 associata alla sindrome respiratoria acuta grave da coronavirus 2 (SARS-CoV-2) ha rappresentato una grave minaccia per la salute pubblica e l’economia globale sin dalla sua scoperta in Cina, nel dicembre del 2019. Gli studiosi hanno effettuato numerosi studi ed in particolar modo l’applicazione di modelli epidemiologici costruiti a partire dai dati raccolti, ha permesso la previsione di diversi scenari sullo sviluppo della malattia, nel breve-medio termine. Gli obiettivi di questa tesi ruotano attorno a tre aspetti: i dati disponibili sulla malattia COVID-19, i modelli matematici compartimentali, con particolare riguardo al modello SEIJDHR che include le vaccinazioni, e l’utilizzo di reti neurali ”physics-informed” (PINNs), un nuovo approccio basato sul deep learning che mette insieme i primi due aspetti. I tre aspetti sono stati dapprima approfonditi singolarmente nei primi tre capitoli di questo lavoro e si sono poi applicate le PINNs al modello SEIJDHR. Infine, nel quarto capitolo vengono riportati frammenti rilevanti dei codici Python utilizzati e i risultati numerici ottenuti. In particolare vengono mostrati i grafici sulle previsioni nel breve-medio termine, ottenuti dando in input dati sul numero di positivi, ospedalizzati e deceduti giornalieri prima riguardanti la città di New York e poi l’Italia. Inoltre, nell’indagine della parte predittiva riguardante i dati italiani, si è individuato un punto critico legato alla funzione che modella la percentuale di ricoveri; sono stati quindi eseguiti numerosi esperimenti per il controllo di tali previsioni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'analisi di codice compilato è un'attività sempre più richiesta e necessaria, critica per la sicurezza e stabilità delle infrastrutture informatiche utilizzate in tutto il mondo. Le tipologie di file binari da analizzare sono numerose e in costante evoluzione, si può passare da applicativi desktop o mobile a firmware di router o baseband. Scopo della tesi è progettare e realizzare Dragonlifter, un convertitore da codice compilato a C che sia estendibile e in grado di supportare un numero elevato di architetture, sistemi operativi e formati file. Questo rende possibile eseguire programmi compilati per altre architetture, tracciare la loro esecuzione e modificarli per mitigare vulnerabilità o cambiarne il comportamento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pacchetto R per il supporto dell'analisi di dati spazio temporali. Il pacchetto fornisce due funzioni, le quali permettono di avviare due applicazioni web, sviluppate con il framework shiny, per la visualizzazione di dati con connotazione spaziale di tipo areale o puntuale. Le applicazioni generano, a partire dai dati caricati dall'utente, due grafici interattivi per la visualizzazione della distribuzione temporale e spaziale del fenomeno che i dati descrivono. Sono previsti, all'interno dell'interfaccia utente delle applicazioni, una serie di componenti che permettono di personalizzare i grafici prodotti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’argomento di questa tesi nasce dall’idea di unire due temi che stanno assumendo sempre più importanza nei nostri giorni, ovvero l’economia circolare e i big data, e ha come obiettivo quello di fornire dei punti di collegamento tra questi due. In un mondo tecnologico come quello di oggi, che sta trasformando tutto quello che abbiamo tra le nostre mani in digitale, si stanno svolgendo sempre più studi per capire come la sostenibilità possa essere supportata dalle tecnologie emergenti. L’economia circolare costituisce un nuovo paradigma economico in grado di sostituirsi a modelli di crescita incentrati su una visione lineare, puntando ad una riduzione degli sprechi e ad un radicale ripensamento nella concezione dei prodotti e nel loro uso nel tempo. In questa transizione verso un’economia circolare può essere utile considerare di assumere le nuove tecnologie emergenti per semplificare i processi di produzione e attuare politiche più sostenibili, che stanno diventando sempre più apprezzate anche dai consumatori. Il tutto verrà sostenuto dall’utilizzo sempre più significativo dei big data, ovvero di grandi dati ricchi di informazioni che permettono, tramite un’attenta analisi, di sviluppare piani di produzione che seguono il paradigma circolare: questo viene attuato grazie ai nuovi sistemi digitali sempre più innovativi e alle figure specializzate che acquisiscono sempre più conoscenze in questo campo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La geometria frattale permette di definire un indice di complessitá strutturale di oggetti che presentano, fino a un certo livello d’ingrandimento, caratteristiche di auto-similaritá: il cervello umano ha un alto livello di complessitá, che cambia durante il corso della vita e con l’insorgenza di patologie. Tale complessitá puó essere descritta tramite la dimensione frattale (FD). L’obiettivo di questo elaborato ́e sviluppare un metodo di calcolo della FD surface-based, partendo dalla ricostruzione mediante mesh triangolari della superficie cerebrale. A questo scopo ́e stata implementata una procedura che utilizza gli strumenti di analisi di neuroimmagini, come FSL e FreeSurfer; l’algoritmo ́e stato validato su fantocci tridimensionali e testato su immagini di risonanza magnetica pesate in T1 del dataset International Consortium for Brain Mapping (ICBM), composto da 86 soggetti sani con etá compresa tra i 19 e gli 85 anni. Dalla ricerca condotta é emerso che il calcolo della FD surface-based restituisce valori accurati per i fantocci e permette di differenziare significativamnete gli uomini dalle donne. Concludendo, riteniamo che la FD surface-based si possa candidare come marcatore di complessitá strutturale nelle neuroimmagini, in modo complementare agli indici morfologici convenzionali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il seguente elaborato affronta l'implementazione di un algoritmo che affronta un problema di controllo di processo in ambito industriale utilizzando algoritmi di object detection. Infatti, il progetto concordato con il professore Di Stefano si è svolto in collaborazione con l’azienda Pirelli, nell’ambito della produzione di pneumatici. Lo scopo dell'algoritmo implementato è di verificare il preciso orientamento di elementi grafici della copertura, utilizzati dalle case automobilistiche per equipaggiare correttamente le vetture. In particolare, si devono individuare delle scritte sul battistrada della copertura e identificarne la posizione rispetto ad altri elementi fissati su di essa. La tesi affronta questo task in due parti distinte: la prima consiste nel training di algoritmi di deep learning per il riconoscimento degli elementi grafici e del battistrada, la seconda è un decisore che opera a valle del primo sistema utilizzando gli output delle reti allenate.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi ricade nell'ambito della modellazione dei solidi ed in particolare nel riconoscimento automatico di lavorazioni su di esso presenti con l'obiettivo principale di risolvere alcune delle problematiche presenti nel software SolidPlus. Quest'ultimo ha come scopo quello di acquisire un solido progettato con un software commerciale di progettazione Cad, di rilevare le possibili lavorazioni presenti sulla parte assimilata e generare un file in un formato riconoscibile dalle macchine a controllo numerico per poterlo lavorare. Nel primo capitolo si introduce la rivoluzione industriale scaturita dall'attuazione dei principi dell'industria 4.0. Nel secondo capitolo si esegue un'analisi di alcune delle soluzioni attualmente presenti in letteratura per rilevare e classificare le lavorazioni, con particolare riferimento a quelle soluzioni che si basano sull'analisi del BRep, modello alla base del Cad. Il terzo capitolo riguarda invece il software oggetto di analisi definendo quelle che sono le funzionalità attualmente presenti e le problematiche riscontrate. Il quarto capitolo consiste nell'esame di alcuni casi di fallimento nel riconoscimento delle lavorazioni e delle relative strategie attuate per la risoluzione delle problematiche. In appendice sono stati introdotti i concetti relativi all'iso 10303, standard alla base dei file d'interscambio tra il software di progettazione Cad e le proprietà dei linguaggi a marcatori, fondamentale per lo scambio dati tra software ufficio e macchina

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo sviluppo di questa tesi è stato quello di analizzare diversi campioni di pasta di cacao e di cioccolato liquido prelevati, rispettivamente, dai tank prima del dosaggio degli ingredienti e dal preleva campioni della conca fine concaggio. Le analisi di viscosità effettuate sui campioni hanno l’obiettivo di determinare la causa della variazione di viscosità in una particolare ricetta di cioccolato. La viscosità è una proprietà che può essere influenzata da numerosi fattori, perciò è difficile tenere sempre in considerazione tutte le variabili. Ciò che ho riscontrato durante questa ricerca è stato il fatto che la viscosità del cioccolato viene influenzata, o comunque dipende, dalla viscosità della pasta cacao. Un altro fattore importante è la distribuzione particellare del cioccolato; questa ipotesi origina dal fatto che si hanno viscosità diverse delle conche a parità di altre variabili come l’umidità, la temperatura, la percentuale in grassi o l’aggiunta di lecitina. Questo ulteriore fattore di grandezza delle particelle necessita l’ottimizzazione dei parametri di raffinazione per poter ottenere sempre la stessa distribuzione e può dipendere dalla variabilità delle materie prime (pasta cacao) o dalle dimensioni dello zucchero. I diversi fattori che possono essere presi in considerazione per la variabilità della viscosità sono la distribuzione particellare dello zucchero, che può determinare la presenza o l’assenza di grumi all’interno del cioccolato, la viscosità della materia prima della pasta cacao e la presenza di una percentuale troppo elevata di umidità o di grasso. Ci possono anche essere fattori di processo che alterano la corretta produzione del cioccolato, come il controllo non adeguato delle impostazioni degli strumenti che comporterebbe temperature o velocità scorrette di produzione, oppure la variazione della sequenza di dosaggio che consiste nell’aggiunta di un ingrediente prima o dopo di quando viene richiesto dalla specifica ricetta di quel cioccolato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio si basa sull’analisi di campioni di neve superficiale (0-3 cm) e sub-superficiale (3-6 cm) raccolti nei pressi della “clean area” di Concordia Station, nel plateau Antartico, e di campioni di deposizione raccolti a seguito di eventi di precipitazione nello stesso sito. Il sito di campionamento “clean area” è designato allo studio dei valori di fondo nel plateau antartico, poiché ritenuto privo di contaminazione antropica. L’obiettivo è la quantificazione delle concentrazioni in ultra-tracce di mercurio per lo studio di eventuali patterns relativi al ciclo geochimico dell’elemento nei periodi interessati da radiazione solare. Inoltre, per studiare i processi che controllano il ciclo del mercurio nel plateau Antartico sono stati considerati sia i parametri meteorologici che le variazioni di elementi chimici usati per tracciare le possibili sorgenti emissive ed i meccanismi di scambio che avvengono per il mercurio all’interfaccia aria-neve. Le analisi sono state svolte con ICP-SFMS, una tecnica di spettrometria in grado di rilevare concentrazioni nell’ordine del ppt. A causa dei limiti di rilevazione molto bassi, tutte le provette usate per le analisi e la conservazione dei campioni sono state trattate al fine di minimizzare la contaminazione. I campioni destinati alle analisi di mercurio sono stati trattati con acido, seguendo la procedura per la stabilizzazione di metalli volatili. Il lavoro svolto non ha identificato particolari processi di trasporto e di scambio mentre invece riporta episodi di contaminazione della “clean area” dovuti in parte alla non usuale provenienza del vento ed in parte al crescente impatto antropico dovuto alle attività delle stazioni di ricerca. Lo studio ha messo in luce le problematiche legate al possibile impatto della base di ricerca Concordia Station sui processi naturali evidenziando la necessità di ulteriori studi e approfondimenti sul tema della contaminazione della designata “area pulita” per il campionamento di neve.