999 resultados para Analisi di rischio - Biogas - Modellizzazione - GasSim
Resumo:
Nell’ambito dello studio della vulnerabilità delle strutture in muratura la modellazione dei maschi murari e la conseguente verifica avviene convenzionalmente considerando tali partizioni come indipendenti, ovvero suddividendo, dapprima,i maschi murari a seconda della loro disposizione spaziale nei confronti della direzione della azione sismica e, successivamente, considerando il contributo dei maschi murari come agenti “in parallelo”.In tale scenario, la modellazione al continuo rende la definizione del singolo maschio murario non banale, in quanto tale tipologia di modellazione vede la geometria dell’edificio come un “unicum” strutturale.Questa dissertazione si prefigge di qualificare e quantificare le differenze scaturite dalla diversa suddivisione dei maschi e delle zone di interfaccia tra diverse pareti murarie, valutando il comportamento del maschio stesso in termini di taglio e sforzo normale ottenuti mediante un’analisi statica non lineare (Pushover). Due modelli ispirati a strutture reali sono analizzati a tal proposito: - Il prototipo testato nel 1994 nel Laboratorio dell’Università di Pavia (modello benchmark n°4). - La scuola “P.Capuzi” di Visso (MC), edificio monitorato permanentemente dall’Osservatorio Sismico delle Strutture del Dipartimento di Protezione Civile [3] e ad oggi demolito (modello benchmark n°5). Il lavoro qui presentato si inserisce in un più ampio programma di ricerca svolto in sinergia da varie unità coinvolte nel progetto ReLUIS 2017/2108 – Linea Strutture in Muratura [1][2] e avente come oggetto l’analisi di strutture benchmark per la valutazione dell’affidabilità di codici di calcolo. I modelli sono stati studiati eseguendo analisi di tipo statico non lineare (Pushover) con distribuzione di forze proporzionale alle masse.
Resumo:
Background: Le early-onset sepsis (EOS) sono infezioni batteriche invasive definite dalla presenza di batteri nel sangue e/o nel liquor cefalorachidiano che esordiscono nelle prime 72 ore di vita e causano in epoca neonatale mortalità e morbilità importanti. Scopo: Determinare l’eccesso di trattamento antibiotico (Overtreatment index=OI) nei neonati di EG ≥34 settimane con sospetta sepsi ad esordio precoce. Metodi: Tutti i nati dal 1.01.2014 al 31.12.2018 di EG ≥34 settimane presso IRCCS Azienda Ospedaliero-Universitaria e l’Ospedale Maggiore di Bologna che hanno ricevuto terapia antibiotica endovenosa nelle prime 168 ore di vita nel sospetto di EOS. Sono stati identificati 2 gruppi: EOS provata (N=7) ed EOS sospetta (N=465). Risultati: L’incidenza di EOS è stata 0.22 su 1000 nati vivi, rispettivamente 0.12/1000 per Streptococcus agalactiae (GBS) e 0.06/1000 per Escherichia coli (E.coli). L’1.75% dei neonati ha ricevuto terapia antimicrobica empirica a largo spettro. L’OI è risultato 68. L’esposizione al trattamento antibiotico nella popolazione è stata di 85 giorni/1000 nati vivi. Tra i fattori di rischio materni, il tampone vagino-rettale (TVR) e l’urinocoltura positiva sono risultati associati al rischio di EOS provata (p=.017, p =.000). I valori di proteina C reattiva (PCR) al T0, T1 e T2 tra i due gruppi sono risultati significativi (p=.000). All’analisi multivariata è stata confermata la significatività delle variabili descritte. (TVR non noto OR=15.1, 95%CI 1.98-115.50, p =.009, urinocoltura positiva OR=30.1, 95%CI 3.6-252.1, p = .002, PCR T0 OR=1.6, 95% CI 1.29-2.07, p = .000.) Conclusioni: L’individuazione precoce di fattori di rischio e la valutazione degli indici di flogosi in neonati sintomatici può ridurre l’OI e la durata della terapia antibiotica in casi di sepsi non confermata. L’uso appropriato degli antibiotici in questa popolazione è particolarmente importante poichè riduce lo sviluppo di germi multiresistenti. Nelle Terapie Intensive Neonatali, i programmi di stewardship antimicrobica dovrebbero guidare la gestione delle sepsi.
Resumo:
Negli ultimi decenni, l’outcome dei pazienti sottoposti a chirurgia dell’aorta toracica è migliorato grazie ai progressi ottenuti nella gestione della circolazione extracorporea, della protezione miocardica e cerebrale e del monitoraggio intra- e postoperatorio dei pazienti. Malgrado questo però, la chirurgia dell’arco aortico è ancora gravata da una significativa mortalità e morbilità dovute principalmente alle complicanze neurologiche conseguenti all’interruzione temporanea della circolazione cerebrale. Nel presente studio sono stati analizzati 364 pazienti trattati per sostituzione dell’arco aortico con l’ausilio della perfusione cerebrale selettiva anterograda, presso l’Unità Operativa di Cardiochirurgia dell’Ospedale di Sant’Orsola di Bologna dal 1° gennaio 2015 al 31 maggio 2020.Le disfunzioni neurologiche permanenti sono state diagnosticate in 33 dei 364 pazienti (9.1%) operati, utilizzando la perfusione cerebrale selettiva anterograda come tecnica di perfusione cerebrale. Pertanto abbiamo confrontato due gruppi di pazienti: un gruppo di 33 pazienti con deficit permanenti con il resto dei pazienti (331) che non aveva alcun deficit. Tra le variabili intraoperatorie, i tipi di cannulazione arteriosa, in particolare la cannulazione dell’arteria femorale (109 [32.9%] vs 17 [51.5%], p-value=0.032) e dell’aorta ascendente (56 [16.9%] vs 0, p-value=0.010), presentano delle differenze statisticamente significative tra i due gruppi. Per quanto riguarda la perfusione cerebrale selettiva anterograda, i valori del flusso medio (899.63 ± 214.12 vs 952.52 ± 160.72, p-value=0.051) presentano una differenza statisticamente significativa tra i due campioni. All’analisi multivariata, la dissezione aortica di tipo A (p = 0.010), la cannulazione femorale (p = 0.033) e l’arresto di circolo totale (p = 0.046) si confermano dei fattori di rischio statisticamente significativi per l’insorgenza di disfunzioni neurologiche permanenti
"Tradizione romanistica" e principi generali del diritto: Il dibattito italiano tra Otto e Novecento
Resumo:
Il presente lavoro verte sul ruolo svolto dal diritto romano e – più in generale – dalla “tradizione romanistica” all'interno del sistema giuridico nazionale posteriore alla codificazione civile del 1865. L'attenzione è rivolta principalmente all'art. 3 delle Disposizioni preliminari del Codice del 1865 con il suo riferimento ai 'principi generali del diritto' e, dunque, all'analogia iuris. La prima parte dello studio si concentra sull'analisi di alcune voci della scienza giuridica italiana tra Otto e Novecento, nei loro diversi approcci – laddove riscontrabili – rispetto allo studio e al recupero (in chiave moderna) del diritto romano. La seconda parte è invece dedicata all'esame della prassi giudiziaria e, più specificamente, delle Corti di Cassazione. In questa fase si persegue un duplice obiettivo: da un lato, verificare se, ed eventualmente in che misura, il diritto romano possa ancora svolgere un ruolo nella (moderna) giurisprudenza di legittimità; dall'altro, valutare la concreta possibilità, prospettata da una parte della scienza giuridica, di ricorrere in Cassazione per impugnare una sentenza asseritamente contraria ai principi generali del diritto sanciti dall'art. 3 co. 2 delle Preleggi. L'analisi prende dunque le mosse dal contenuto delle singole decisioni della Cassazione, per poi passare all'esegesi dei frammenti di volta in volta richiamati; infine, si concluderà con un'operazione di sintesi volta a valutare, per ciascun caso, la coerenza (giuridica) del ragionamento analogico.
Resumo:
Nowadays, the scientific community has devoted a consistent effort to the sustainable development of the waste management sector and resource efficiency in building infrastructures. Waste is the fourth largest source sector of emissions and the municipal solid waste management system is considered as the most complex system to manage, due to its diverse composition and fragmentation of producers and responsibilities. Nevertheless, given the deep complexity that characterize the waste management sector, sustainability is still a challenging task. Interestingly, open issues arise when dealing with the sustainability of the waste sector. In this thesis, some recent advances in the waste management sector have been presented. Specifically, through the analysis of four author publications this thesis attempted to fill the gap in the following open issues: (i) the waste collection and generation of waste considering the pillars of sustainability; (ii) the environmental and social analysis in designing building infrastructures; (iv) the role of the waste collection in boosting sustainable systems of waste management; (v) the ergonomics impacts of waste collection. For this purpose, four author publications in international peer – reviewed journals were selected among the wholly author's contributions (i.e., final publication stage).
Resumo:
L'endoarteriectomia polmonare (PEA) rappresenta la terapia più efficace per il cuore polmonare cronico tromboembolico (CTEPH). Tuttavia, una quota sostanziale di pazienti sono non operabili ma hanno altre possibili strategie di trattamento: terapia medica e angioplastica polmonare(BPA). In questo studio abbiamo confrontato l'efficacia delle diverse strategie di trattamento del CTEPH nel mondo reale. Metodi: Sono stati inclusi tutti i pazienti con CTEPH riferiti al nostro centro. Abbiamo valutato l'efficacia della terapia medica a breve termine sui dati clinici, funzionali, capacità di esercizio e profilo emodinamico (indipendentemente dalle strategie di trattamento successive), l'efficacia di PEA e BPA (indipendentemente dalle strategie di trattamento precedenti/successive); Abbiamo inoltre riportato l'efficacia a lungo termine dei diversi trattamenti. Risultati: Sono stati inclusi in totale 467 pazienti (il 39% trattato solo con terapia medica, il 43% sottoposto a PEA, il 13% sottoposto a BPA e il 5% non ha ricevuto alcuna terapia). I pazienti trattati solo con terapia medica sono stati il gruppo più vecchio in termini di età, e confrontati rispetto ai pazienti sottoposti a PEA, mostravano minore capacità di esercizio, un profilo di rischio più elevato e minor miglioramento del profilo emodinamico, funzionale e della sopravvivenza. I pazienti sottoposti a BPA hanno avuto un miglioramento emodinamico inferiore rispetto ai pazienti sottoposti PEA, ma un miglioramento funzionale, dell'esercizio fisico e del profilo di rischio, e di sopravvivenza sovrapponibile ai pazienti sottoposti a PEA; la sopravvivenza è risultata migliore rispetto ai pazienti tsottoposti a sola terapia medica. Il gruppo di controllo storico di pazienti non trattati con alcuna terapia ha avuto la peggiore sopravvivenza. Conclusioni: Abbiamo confermato la superiorità della PEA rispetto a qualsiasi trattamento nei pazienti affetti da CTEPH, nei pazienti non operabili o con PH persistente/ricorrente dopo PEA, la BPA determina una prognosi migliore rispetto alla sola terapia medica.
Resumo:
L’incidenza di patologie cardiovascolari come ipertensione e aterosclerosi è in progressivo aumento nel mondo, sia a causa del maggiore sviluppo di fattori di rischio quali obesità, sedentarietà e diabete, dovuti al tenore di vita che caratterizza la popolazione, specialmente quella risiedente in paesi sviluppati e con un alto tenore di vita, sia a causa dell’aumento dell’aspettativa di vita. Sembra quindi possibile considerare la complianza arteriosa totale e, in particolare, la complianza del primo tratto di aorta come un importante indice per la prevenzione e la valutazione del rischio della patologia arteriosa. La valutazione di questo parametro è però difficile da effettuare in vivo, motivo per cui diversi metodi sono stati sviluppati, alcuni basati sul modello Windkessel a due elementi, modello della circolazione sistemica proposto per la prima volta da Otto Frank nel 1899, altri su quello a tre. I primi risultano più accurati dei secondi. Tra i metodi di stima della complianza arteriosa totale ve ne è uno, il Pulse Pressure Method (PPM), ovvero metodo della pressione differenziale che, introdotto per la prima volta da Stergiopulos nel 1994, si è dimostrato essere tanto semplice quanto accurato. Questo consiste nel trovare il miglior valore di complianza che minimizzi, dopo opportune iterazioni, l’errore tra la pressione differenziale misurata, e quella calcolata in uscita da un modello Windkessel a due elementi. I vantaggi nell’uso di questo metodo non sono pochi: esso infatti non richiede flusso nullo in aorta ed è perciò applicabile in qualsiasi punto dell’albero arterioso, fornisce il valore della complianza alla pressione media Pm e necessita della sola conoscenza della pressione differenziale aortica e del flusso aortico, ottenibili non invasivamente. Studiando i risultati ottenuti, infine, si è visto come l’aorta prossimale, ovvero il tratto di aorta ascendente e l’arco aortico, sia il principale determinante della complianza arteriosa totale.
Resumo:
La malattia COVID-19 associata alla sindrome respiratoria acuta grave da coronavirus 2 (SARS-CoV-2) ha rappresentato una grave minaccia per la salute pubblica e l’economia globale sin dalla sua scoperta in Cina, nel dicembre del 2019. Gli studiosi hanno effettuato numerosi studi ed in particolar modo l’applicazione di modelli epidemiologici costruiti a partire dai dati raccolti, ha permesso la previsione di diversi scenari sullo sviluppo della malattia, nel breve-medio termine. Gli obiettivi di questa tesi ruotano attorno a tre aspetti: i dati disponibili sulla malattia COVID-19, i modelli matematici compartimentali, con particolare riguardo al modello SEIJDHR che include le vaccinazioni, e l’utilizzo di reti neurali ”physics-informed” (PINNs), un nuovo approccio basato sul deep learning che mette insieme i primi due aspetti. I tre aspetti sono stati dapprima approfonditi singolarmente nei primi tre capitoli di questo lavoro e si sono poi applicate le PINNs al modello SEIJDHR. Infine, nel quarto capitolo vengono riportati frammenti rilevanti dei codici Python utilizzati e i risultati numerici ottenuti. In particolare vengono mostrati i grafici sulle previsioni nel breve-medio termine, ottenuti dando in input dati sul numero di positivi, ospedalizzati e deceduti giornalieri prima riguardanti la città di New York e poi l’Italia. Inoltre, nell’indagine della parte predittiva riguardante i dati italiani, si è individuato un punto critico legato alla funzione che modella la percentuale di ricoveri; sono stati quindi eseguiti numerosi esperimenti per il controllo di tali previsioni.
Resumo:
L'analisi di codice compilato è un'attività sempre più richiesta e necessaria, critica per la sicurezza e stabilità delle infrastrutture informatiche utilizzate in tutto il mondo. Le tipologie di file binari da analizzare sono numerose e in costante evoluzione, si può passare da applicativi desktop o mobile a firmware di router o baseband. Scopo della tesi è progettare e realizzare Dragonlifter, un convertitore da codice compilato a C che sia estendibile e in grado di supportare un numero elevato di architetture, sistemi operativi e formati file. Questo rende possibile eseguire programmi compilati per altre architetture, tracciare la loro esecuzione e modificarli per mitigare vulnerabilità o cambiarne il comportamento.
Resumo:
La geometria frattale permette di definire un indice di complessitá strutturale di oggetti che presentano, fino a un certo livello d’ingrandimento, caratteristiche di auto-similaritá: il cervello umano ha un alto livello di complessitá, che cambia durante il corso della vita e con l’insorgenza di patologie. Tale complessitá puó essere descritta tramite la dimensione frattale (FD). L’obiettivo di questo elaborato ́e sviluppare un metodo di calcolo della FD surface-based, partendo dalla ricostruzione mediante mesh triangolari della superficie cerebrale. A questo scopo ́e stata implementata una procedura che utilizza gli strumenti di analisi di neuroimmagini, come FSL e FreeSurfer; l’algoritmo ́e stato validato su fantocci tridimensionali e testato su immagini di risonanza magnetica pesate in T1 del dataset International Consortium for Brain Mapping (ICBM), composto da 86 soggetti sani con etá compresa tra i 19 e gli 85 anni. Dalla ricerca condotta é emerso che il calcolo della FD surface-based restituisce valori accurati per i fantocci e permette di differenziare significativamnete gli uomini dalle donne. Concludendo, riteniamo che la FD surface-based si possa candidare come marcatore di complessitá strutturale nelle neuroimmagini, in modo complementare agli indici morfologici convenzionali.
Resumo:
La tesi ricade nell'ambito della modellazione dei solidi ed in particolare nel riconoscimento automatico di lavorazioni su di esso presenti con l'obiettivo principale di risolvere alcune delle problematiche presenti nel software SolidPlus. Quest'ultimo ha come scopo quello di acquisire un solido progettato con un software commerciale di progettazione Cad, di rilevare le possibili lavorazioni presenti sulla parte assimilata e generare un file in un formato riconoscibile dalle macchine a controllo numerico per poterlo lavorare. Nel primo capitolo si introduce la rivoluzione industriale scaturita dall'attuazione dei principi dell'industria 4.0. Nel secondo capitolo si esegue un'analisi di alcune delle soluzioni attualmente presenti in letteratura per rilevare e classificare le lavorazioni, con particolare riferimento a quelle soluzioni che si basano sull'analisi del BRep, modello alla base del Cad. Il terzo capitolo riguarda invece il software oggetto di analisi definendo quelle che sono le funzionalità attualmente presenti e le problematiche riscontrate. Il quarto capitolo consiste nell'esame di alcuni casi di fallimento nel riconoscimento delle lavorazioni e delle relative strategie attuate per la risoluzione delle problematiche. In appendice sono stati introdotti i concetti relativi all'iso 10303, standard alla base dei file d'interscambio tra il software di progettazione Cad e le proprietà dei linguaggi a marcatori, fondamentale per lo scambio dati tra software ufficio e macchina
Resumo:
Lo studio si basa sull’analisi di campioni di neve superficiale (0-3 cm) e sub-superficiale (3-6 cm) raccolti nei pressi della “clean area” di Concordia Station, nel plateau Antartico, e di campioni di deposizione raccolti a seguito di eventi di precipitazione nello stesso sito. Il sito di campionamento “clean area” è designato allo studio dei valori di fondo nel plateau antartico, poiché ritenuto privo di contaminazione antropica. L’obiettivo è la quantificazione delle concentrazioni in ultra-tracce di mercurio per lo studio di eventuali patterns relativi al ciclo geochimico dell’elemento nei periodi interessati da radiazione solare. Inoltre, per studiare i processi che controllano il ciclo del mercurio nel plateau Antartico sono stati considerati sia i parametri meteorologici che le variazioni di elementi chimici usati per tracciare le possibili sorgenti emissive ed i meccanismi di scambio che avvengono per il mercurio all’interfaccia aria-neve. Le analisi sono state svolte con ICP-SFMS, una tecnica di spettrometria in grado di rilevare concentrazioni nell’ordine del ppt. A causa dei limiti di rilevazione molto bassi, tutte le provette usate per le analisi e la conservazione dei campioni sono state trattate al fine di minimizzare la contaminazione. I campioni destinati alle analisi di mercurio sono stati trattati con acido, seguendo la procedura per la stabilizzazione di metalli volatili. Il lavoro svolto non ha identificato particolari processi di trasporto e di scambio mentre invece riporta episodi di contaminazione della “clean area” dovuti in parte alla non usuale provenienza del vento ed in parte al crescente impatto antropico dovuto alle attività delle stazioni di ricerca. Lo studio ha messo in luce le problematiche legate al possibile impatto della base di ricerca Concordia Station sui processi naturali evidenziando la necessità di ulteriori studi e approfondimenti sul tema della contaminazione della designata “area pulita” per il campionamento di neve.
Resumo:
L'ecosistema dello sport tech, caratterizzato dalle complesse relazioni che avvengono tra chi sviluppa innovazione per lo sport, chi ne usufruisce e chi investe su di essa, ha vissuto una vera e propria impennata negli ultimi 5 anni, sia in termini di investimenti che di nascita di nuove realtà. Nel corso degli ultimi 3 anni in particolare, lo sport tech ha saputo fronteggiare in maniera ottimale la crisi pandemica, che avrebbe potuto destabilizzare il sistema causandone un forte rallentamento, mentre in realtà ha permesso alle startup di dimostrare alle organizzazioni sportive e agli investitori le proprie capacità di innovare i modelli di business per rispondere a cambiamenti improvvisi e imprevedibili degli scenari. Nonostante la svolta vissuta a livello globale, in Italia le startup dello sport tech si trovano in una condizione singolare: nonostante operino in un settore di grande interesse per il Paese (muove circa il 3% del Pil) caratterizzato da un forte interesse, trovano difficoltà importanti nel momento in cui si trovano a dover rendere scalabile il proprio business, fondamentalmente per la mancanza di un ecosistema strutturato che regoli le interazioni tra i vari attori. Lo scopo di questa tesi è quello di fornire, in primo luogo, una contestualizzazione dell'ecosistema a livello globale, attraverso l'analisi di report e di alcuni successi di startup internazionali, e successivamente di analizzare la situazione italiana, evidenziando i motivi per cui non si può ancora parlare di ecosistema sport tech nonostante la presenza di diversi casi di successo, e documentando gli sforzi attualmente in essere finalizzati alla creazione del suddetto ecosistema, ovvero l'incubatore di startup sport tech Wylab e l'acceleratore WeSportUp. Per la ricostruzione delle attività di questi ultimi, si è fatto ricorso a dichiarazioni di addetti ai lavori ed esperti del settore, rilasciate durante video interviste sul web, masterclass o colloqui con i diretti interessati.
Resumo:
L’obiettivo del lavoro di tesi è stato quello di valutare la sensitività dell’analisi quantitativa del rischio (QRA, Quantitative Risk Analysis) alla frequenza di accadimento degli scenari di rilascio delle sostanze pericolose ovvero dei top-events. L’analisi di rischio è stata condotta applicando, ad uno stabilimento a rischio di incidente rilevante della Catalogna, i passaggi procedurali previsti dall’istruzione 14/2008 SIE vigente in quella regione. L’applicazione di questa procedura ha permesso di ottenere le curve isorischio, che collegano i punti attorno allo stabilimento aventi lo stesso valore del rischio locale. Le frequenze base dei top-events sono state prese innanzitutto dalla linea guida BEVI, e successivamente ai fini dell’analisi di sensitività, sono stati considerati sia i valori forniti da altre 3 autorevoli linee guida sia i valori ottenuti considerando incrementi delle frequenze base del 20%, 30%, 50%, 70%, 200%, 300%, 500%, 700%, 1000%, 2000%, 3000%, 4000%, 5000%. L’analisi delle conseguenze è stata condotta tramite i software EFFECTS ed ALOHA, mentre ai fini della ricomposizione del rischio è stato utilizzato il codice RISKCURVES. La sensitività alle frequenze dei top-events è stata valutata in termini di variazione del diametro massimo delle curve isorischio, con particolare attenzione a quella corrispondente a 10-6 ev/anno, che rappresenta il limite di accettabilità del rischio per la pianificazione territoriale nell’intorno dello stabilimento. E’ stato così dimostrato che l’estensione delle curve isorischio dipende in maniera molto forte dalla frequenza dei top-events e che l’utilizzo di dati di frequenza provenienti da linee guida diverse porta a curve isorischio di dimensioni molto differenti. E’ dunque confermato che la scelta delle frequenze degli scenari incidentali rappresenta, nella conduzione dell’analisi di rischio, un passaggio delicato e cruciale.
Resumo:
Obiettivo di questo elaborato è fornire un quadro generale del fumetto e della sua traduzione. Partendo dalla definizione teorica di questo tipo di opera, vengono poi descritti gli elementi che la compongono e i webcomic, fumetti digitali nati grazie all’avvento di Internet. L’attenzione è successivamente focalizzata sulla traduzione del fumetto, la quale è direttamente condizionata sia dagli elementi che lo compongono, sia da altri fattori come preferenze del target e convenzioni culturali, e che condivide molti dei suoi aspetti con il processo di localizzazione. Segue una spiegazione della pratica nota come scanlation, ovvero la traduzione non professionale di fumetti svolta da appassionati. Essa viene condivisa su Internet da gruppi di scanlation e presenta alcune peculiarità nel suo svolgimento. Per concludere viene proposta l’analisi di due traduzioni non professionali in italiano del manhua Tamen de gushi 她们的故 di Tan Jiu 坛九, le quali sono state confrontate sia con la scanlation in inglese dell’opera, sia con il testo originale in cinese mandarino.