753 resultados para Analisi di rischio - Biogas - Modellizzazione - GasSim
Resumo:
La malattia aterosclerotica presenta elevate morbilità e mortalità in gran parte del mondo e poterla diagnosticare prima che essa porti a un evento acuto (ictus) comporta indiscutibili vantaggi per la sanità. Il problema a monte della malattia è la presenza di placche aterosclerotiche nei vasi arteriosi. La placca può essere classificata in base alle sue componenti isto-morfologiche in fibrosa, fibrocalcifica o fibroadiposa, che comportano diversi livelli di rischio. In questo elaborato è presentata la procedura CAPSU, che permette la rilevazione e la segmentazione delle placche in modo automatico in immagini eco; è valutata l’efficacia di un tool che permette la classificazione automatica delle placche, già segmentate con il metodo CAPSU. Un esperto ha classificato le placche appartenenti a 44 immagini ecografiche che poi sono state sottoposte all’elaborazione automatica; i risultati si sono rivelati concordi. Sono stati valutati alcuni fattori che potrebbero differenziare univocamente i tipi di placche tra loro (area, eccentricità, minimo, massimo e medio livello di grigio, ecogenicità ed eterogeneità) e a parte i primi due tutti si sono mostrati validi in almeno un confronto tra due tipi di placche. Si è concluso che una classificazione automatica del tutto efficace delle placche carotidee potrebbe essere possibile in seguito a ulteriori sviluppi di questa tecnica.
Resumo:
Questo elaborato studia e analizza il comportamento di tre algoritmi di base per quanto riguarda la localizzazione indoor e in particolare la tecnica del fingerprint. L'elaborato include l'analisi di come l'eterogeneita dei dispositivi possa influenzare gli algoritmi e la loro accuratezza nel produrre il risultato. Si include inoltre l'analisi dello stato dell'arte la progettazione e lo sviluppo di un'applicazione Android e di un web service. L'illustrazione dei test effettuati e le considerazioni finali concludono la tesi.
Resumo:
La diffusione e l'evoluzione degli smartphone hanno permesso una rapida espansione delle informazioni che e possibile raccogliere tramite i sensori dei dispositivi, per creare nuovi servizi per gli utenti o potenziare considerevolmente quelli gia esistenti, come ad esempio quelli di emergenza. In questo lavoro viene esplorata la capacita dei dispositivi mobili di fornire, tramite il calcolo dell'altitudine possibile grazie alla presenza del sensore barometrico all'interno di sempre piu dispositivi, il piano dell'edificio in cui si trova l'utente, attraverso l'analisi di varie metodologie con enfasi sulle problematiche dello stazionamento a lungo termine. Tra le metodologie vengono anche considerati sistemi aventi accesso ad una informazione proveniente da un dispositivo esterno e ad una loro versione corretta del problema dei differenti hardware relativi ai sensori. Inoltre viene proposto un algoritmo che, sulla base delle sole informazioni raccolte dal sensore barometrico interno, ha obbiettivo di limitare l'errore generato dalla naturale evoluzione della pressione atmosferica durante l'arco della giornata, distinguendo con buona precisione uno spostamento verticale quale un movimento tra piani, da un cambiamento dovuto ad agenti, quali quelli atmosferici, sulla pressione. I risultati ottenuti dalle metodologie e loro combinazioni analizzate vengono mostrati sia per singolo campionamento, permettendo di confrontare vantaggi e svantaggi dei singoli metodi in situazioni specifiche, sia aggregati in casi d'uso di possibili utenti aventi diverse necessita di stazionamento all'interno di un edificio.
Resumo:
La misura della sezione d'urto di processi fisici prodotti negli urti fra protoni ad LHC è uno dei settori più importanti della ricerca in corso, sia per verificare le predizioni del Modello Standard, che per la ricerca di nuova fisica. La precisione necessaria per distinguere fenomeni standard e non, richiede un ottimo controllo delle incertezze sistematiche. Fra le sorgenti di errore sistematico, di particolare importanza sono quelle sulla misura della luminosità, che rappresenta il fattore di normalizzazione necessario per la misura di qualsiasi sezione d'urto. Ogni esperimento che si proponga misure di questo genere è quindi dotato di monitor di luminosità dedicati. In questa tesi sono presentate le tecniche di misura della luminosità ad ATLAS utilizzando i rivelatori dedicati e le problematiche incontrate nel corso della presa dati del 2012, sia per quanto riguarda la loro procedura di calibrazione assoluta, che per la loro stabilità in funzione del tempo e linearità di risposta, e vengono fornite le incertezze sistematiche dipendenti dal loro confronto. Per meglio comprendere tali risultati, si è studiato il canale di produzione del bosone Z nelle interazioni protone-protone, all'energia nel centro di massa s = √8 TeV mediante il suo decadimento in due muoni, utilizzando i dati acquisiti nel corso del 2012 Nel primo capitolo vengono definiti i concetti di luminosità istantanea ed integrata, sia dalla prospettiva del collider che le fornisce, che dal punto di vista delle analisi di fisica, quale quella svolta in questa tesi. Nel secondo capitolo viene descritto l'insieme dei rivelatori utilizzati da ATLAS per la misura della luminosità e i risultati ottenuti mediante il loro confronto in termini di incertezze sistematiche. Nel terzo capitolo viene infine presentata la misura della sezione d'urto di produzione del bosone Z e l'utilizzo di tale misura per il controllo della stabilità nel tempo e della linearità della misura sperimentale della luminosità.
Resumo:
Il presente lavoro si riferisce alle acque delle fontane a ricircolo. Una fontana a ricircolo è un’opera monumentale le cui acque non sono erogate come potabili; inoltre le persone non vi si immergono ma potendo comunque venirne a contatto tramite schizzi o animali, vanno trattate con una disinfezione mirata ad eliminare gli agenti patogeni pericolosi per l’uomo. Dopo aver inquadrato il problema dal punto di vista normativo, nel primo capitolo, si è passati ad analizzare il problema sanitario, descrivendo microorganismi patogeni e indicatori di rischio. È stato tuttavia necessario tenere conto anche di un altro problema: quello dell’aggressività di certi prodotti disinfettanti sui materiali costituenti la fontana. A tal proposito è stato riportato l’esempio di un caso di studio, il restauro della Fontana delle Tartarughe di Roma. Infine, dopo varie considerazioni volte ad analizzare un adeguato compromesso tra problema sanitario e problema di aggressività/corrosione sui materiali, si è dimostrato come la tecnica di disinfezione a raggi UV sia preferibile per le fontane monumentali a ricircolo.
Resumo:
Teoria generale sui metodi di protezione della proprietà intellettuale: marchi, brevetti e diritto d'autore. Valutazione economica assets nel mercato. Contraffazione brevetti e plagio di diritto d'autore. Il risarcimento del danno secondo la legge. Metodi di quantificazione del risarcimento: danno emergente e lucro cessante. Analisi di alcune sentenze giuridiche in materia di contraffazione e risarcimento.
Resumo:
Questo studio cerca di individuare e descrivere gli elementi che contraddistinguono la coppia del tango dal punto di vista coreografico e strutturale e vedere in che modo questi fondamenti vengono trasposti sul palcoscenico. Come introduzione viene presentato il percorso della coppia lungo la storia approfondendo i rapporti e le influenze reciproci fra il ballo e i diversi contesti sociali e norme di tipo morale dei singoli momenti storici. Viene affrontata anche la dimensione tecnica del ballo e i codici che la governano attraverso le testimonianze di consolidati ballerini e maestri della generazione attuale e quelle precedenti. In conclusione vengono fornite le analisi di tre spettacoli teatrali prodotti da quattro coreografi diversi che mettono in chiaro gli approcci distintivi nella rappresentare scenica del tango e nel suo utilizzo come linguaggio teatrale.
Resumo:
Il presente elaborato di tesi tratta la valutazione di differenti sistemi di controventatura, sia dal punto di vista di risposta ad un evento sismico che in termini di perdite economiche legate al danneggiamento delle varie componenti. Tra di esse è presentata anche una nuova tipologia strutturale, ideata per ridurre il comportamento “soft-story” e “weak-story”, tipico delle strutture controventate convenzionali. In questo caso, è integrata alla struttura una trave reticolare metallica, che funge da supporto verticale ed è progettata per rimanere in campo elastico. Tale sostegno garantisce una distribuzione più uniforme degli sforzi lungo l’intera altezza della struttura, anziché concentrarli in un unico piano. La ricerca tratta lo studio della fattibilità economica di questa nuova tecnologia, rispetto alle precedenti soluzioni di controventatura adottate, confrontando le perdite economiche delle diverse soluzioni, applicate ad un unico prototipo di edificio collocato a Berkeley, CA. L’analisi sismica tiene in considerazione di tre diversi livelli di intensità, riferiti a un periodo di ritorno di 50 anni, corrispondente alla vita dell’edificio: questi sono caratterizzati dalla probabilità di ricorrenza, rispettivamente del 2%, 10% e 50% ogni 50 anni. L’ambito di ricerca presentato è estremamente innovativo e di primario interesse per lo sviluppo di uno studio sulla resilienza, che può essere adattato anche in un modello di urbanizzazione futura.
Resumo:
L'elaborato tratta delle dinamiche del pricing, analizzando nello specifico al contrapposizione fra Prezzo e Valore per il Cliente, entrando nello specifico delle metodologie per la determinazione degli stessi per poi introdurre alcune delle più comuni politiche di prezzo attuate dalle aziende. Si descrive dunque il mercato degli elettrodomestici bianchi, evidenziando come il Prezzo sia una variabile determinante in questo mercato ormai in fase di saturazione. Infine si fa un analisi di "The Business Game" analizzando la condotta del team irajoya e come il Prezzo sia stato essenziale per il successo della squadra nel mercato simulato.
Resumo:
La salvaguardia della risorsa suolo, bene comune da preservare per le future generazioni, sollecita l’adozione di principi dell’agroecologia nella gestione dei vigneti. In questo contesto, il lavoro di Tesi condotto in un vigneto della cv Sangiovese (Castel Bolognese, RA) si è focalizzato sugli effetti delle strategie agroecologiche di gestione del suolo e, in particolare, sul fenomeno delle crepacciature attraverso lo sviluppo di un approccio metodologico basato sull’elaborazione ed analisi di immagini. Il suolo gestito attraverso l’utilizzo di un inerbimento “modulato a strisce”, caratterizzato dalla presenza di un miscuglio a base di leguminose autoriseminanti lungo il filare, ha migliorato lo stato idrico delle viti. La Tesi ha dimostrato che le strategie agronomiche implementate nel campo sperimentale, riducendo le lavorazioni meccaniche del suolo e limitandole alle sole operazioni di semina dei miscugli, possono contribuire significativamente alla conservazione della risorsa suolo. La metodologia per lo studio delle crepacciature, ideata e resa replicabile nel lavoro di Tesi, potrà essere adottata e sviluppata per confermare i benefici delle strategie agroecologiche.
Resumo:
In questo elaborato di tesi si affronta lo sviluppo di un framework per l'analisi di URL di phishing estratte da documenti malevoli. Tramite il linguaggio python3 e browsers automatizzati si è sviluppata una pipeline per analizzare queste campagne malevole. La pipeline ha lo scopo di arrivare alla pagina finale, evitando di essere bloccata da tecniche anti-bot di cloaking, per catturare una schermata e salvare la pagina in locale. Durante l'analisi tutto il traffico è salvato per analisi future. Ad ogni URL visitato vengono salvate informazioni quali entry DNS, codice di Autonomous System e lo stato nella blocklist di Google. Un'analisi iniziale delle due campagne più estese è stata effettuata, rivelando il business model dietro ad esse e le tecniche usate per proteggere l'infrastruttura stessa.
Resumo:
Nell’ambito dello studio della vulnerabilità delle strutture in muratura la modellazione dei maschi murari e la conseguente verifica avviene convenzionalmente considerando tali partizioni come indipendenti, ovvero suddividendo, dapprima,i maschi murari a seconda della loro disposizione spaziale nei confronti della direzione della azione sismica e, successivamente, considerando il contributo dei maschi murari come agenti “in parallelo”.In tale scenario, la modellazione al continuo rende la definizione del singolo maschio murario non banale, in quanto tale tipologia di modellazione vede la geometria dell’edificio come un “unicum” strutturale.Questa dissertazione si prefigge di qualificare e quantificare le differenze scaturite dalla diversa suddivisione dei maschi e delle zone di interfaccia tra diverse pareti murarie, valutando il comportamento del maschio stesso in termini di taglio e sforzo normale ottenuti mediante un’analisi statica non lineare (Pushover). Due modelli ispirati a strutture reali sono analizzati a tal proposito: - Il prototipo testato nel 1994 nel Laboratorio dell’Università di Pavia (modello benchmark n°4). - La scuola “P.Capuzi” di Visso (MC), edificio monitorato permanentemente dall’Osservatorio Sismico delle Strutture del Dipartimento di Protezione Civile [3] e ad oggi demolito (modello benchmark n°5). Il lavoro qui presentato si inserisce in un più ampio programma di ricerca svolto in sinergia da varie unità coinvolte nel progetto ReLUIS 2017/2108 – Linea Strutture in Muratura [1][2] e avente come oggetto l’analisi di strutture benchmark per la valutazione dell’affidabilità di codici di calcolo. I modelli sono stati studiati eseguendo analisi di tipo statico non lineare (Pushover) con distribuzione di forze proporzionale alle masse.
Resumo:
L’incidenza di patologie cardiovascolari come ipertensione e aterosclerosi è in progressivo aumento nel mondo, sia a causa del maggiore sviluppo di fattori di rischio quali obesità, sedentarietà e diabete, dovuti al tenore di vita che caratterizza la popolazione, specialmente quella risiedente in paesi sviluppati e con un alto tenore di vita, sia a causa dell’aumento dell’aspettativa di vita. Sembra quindi possibile considerare la complianza arteriosa totale e, in particolare, la complianza del primo tratto di aorta come un importante indice per la prevenzione e la valutazione del rischio della patologia arteriosa. La valutazione di questo parametro è però difficile da effettuare in vivo, motivo per cui diversi metodi sono stati sviluppati, alcuni basati sul modello Windkessel a due elementi, modello della circolazione sistemica proposto per la prima volta da Otto Frank nel 1899, altri su quello a tre. I primi risultano più accurati dei secondi. Tra i metodi di stima della complianza arteriosa totale ve ne è uno, il Pulse Pressure Method (PPM), ovvero metodo della pressione differenziale che, introdotto per la prima volta da Stergiopulos nel 1994, si è dimostrato essere tanto semplice quanto accurato. Questo consiste nel trovare il miglior valore di complianza che minimizzi, dopo opportune iterazioni, l’errore tra la pressione differenziale misurata, e quella calcolata in uscita da un modello Windkessel a due elementi. I vantaggi nell’uso di questo metodo non sono pochi: esso infatti non richiede flusso nullo in aorta ed è perciò applicabile in qualsiasi punto dell’albero arterioso, fornisce il valore della complianza alla pressione media Pm e necessita della sola conoscenza della pressione differenziale aortica e del flusso aortico, ottenibili non invasivamente. Studiando i risultati ottenuti, infine, si è visto come l’aorta prossimale, ovvero il tratto di aorta ascendente e l’arco aortico, sia il principale determinante della complianza arteriosa totale.
Resumo:
La malattia COVID-19 associata alla sindrome respiratoria acuta grave da coronavirus 2 (SARS-CoV-2) ha rappresentato una grave minaccia per la salute pubblica e l’economia globale sin dalla sua scoperta in Cina, nel dicembre del 2019. Gli studiosi hanno effettuato numerosi studi ed in particolar modo l’applicazione di modelli epidemiologici costruiti a partire dai dati raccolti, ha permesso la previsione di diversi scenari sullo sviluppo della malattia, nel breve-medio termine. Gli obiettivi di questa tesi ruotano attorno a tre aspetti: i dati disponibili sulla malattia COVID-19, i modelli matematici compartimentali, con particolare riguardo al modello SEIJDHR che include le vaccinazioni, e l’utilizzo di reti neurali ”physics-informed” (PINNs), un nuovo approccio basato sul deep learning che mette insieme i primi due aspetti. I tre aspetti sono stati dapprima approfonditi singolarmente nei primi tre capitoli di questo lavoro e si sono poi applicate le PINNs al modello SEIJDHR. Infine, nel quarto capitolo vengono riportati frammenti rilevanti dei codici Python utilizzati e i risultati numerici ottenuti. In particolare vengono mostrati i grafici sulle previsioni nel breve-medio termine, ottenuti dando in input dati sul numero di positivi, ospedalizzati e deceduti giornalieri prima riguardanti la città di New York e poi l’Italia. Inoltre, nell’indagine della parte predittiva riguardante i dati italiani, si è individuato un punto critico legato alla funzione che modella la percentuale di ricoveri; sono stati quindi eseguiti numerosi esperimenti per il controllo di tali previsioni.
Resumo:
L'analisi di codice compilato è un'attività sempre più richiesta e necessaria, critica per la sicurezza e stabilità delle infrastrutture informatiche utilizzate in tutto il mondo. Le tipologie di file binari da analizzare sono numerose e in costante evoluzione, si può passare da applicativi desktop o mobile a firmware di router o baseband. Scopo della tesi è progettare e realizzare Dragonlifter, un convertitore da codice compilato a C che sia estendibile e in grado di supportare un numero elevato di architetture, sistemi operativi e formati file. Questo rende possibile eseguire programmi compilati per altre architetture, tracciare la loro esecuzione e modificarli per mitigare vulnerabilità o cambiarne il comportamento.