938 resultados para gallerie, rischio, sicurezza, QRAM
Resumo:
Dal 1949 al 1989 la Germania dovette fare i conti con le conseguenze della 2^ guerra mondiale e della guerra fredda, che portarono alla spaccatura ideologica e geografica del paese. La Repubblica Democratica Tedesca, costruita su modello del socialismo dell’Urss, era guidata dal partito della SED, che esercitò il proprio predominio sociale, politico ed economico sulla popolazione e sull’opinione pubblica, servendosi di mezzi sottili di influenza e di controllo e, non da ultimo, del linguaggio. Il progetto di questa tesi si basa sull’analisi e il sottotitolaggio di un notiziario del telegiornale della Germania Est, Aktuelle Kamera, e di un documentario prodotto dalla DEFA, l’impresa tedesco-orientale addetta alla produzione di film, con l’obiettivo di approfondire lo studio della propaganda degli ultimi anni di vita della RDT, che, grazie al controllo di tutti i mezzi di comunicazione, indottrinava i cittadini a una visione socialista del mondo e giustificava le scelte del governo. Attraverso il filtro cinematografico si possono delineare le caratteristiche della società tedesca orientale, che, pur sotto l’influenza sovietica, presentava una propria identità e cultura. Nel primo capitolo di questo elaborato verrà presentato il quadro storico di riferimento, ripercorrendo le tappe salienti che portarono alla formazione delle due Germanie e l’evoluzione sociale e politica della RDT; nel secondo capitolo ci si concentrerà sul sistema della propaganda creato dal regime con particolare attenzione al ruolo delle istituzioni, dei media e degli intellettuali. Inoltre si farà accenno all’opera di censura, al delicato mondo del consenso/dissenso e al Ministero della Sicurezza di Stato. Infine, nel terzo e ultimo capitolo verranno presentati i due documenti sottotitolati (il notiziario “1. Mai 1989” e il documentario “Berlin – die Hauptstadt der DDR”) e, basandosi su esempi concreti, verranno analizzate le strategie traduttive messe in atto durante la fase di traduzione.
Resumo:
I salumi fermentati sono prodotti caratterizzati da grandi differenze che riguardano la materia prima, gli ingredienti, le dimensioni e le condizioni di maturazione. Questa differenziazione è dovuta a pratiche storiche, culturali e tradizionali che variano da zona a zona. Il processo produttivo nel nostro Paese è però cambiato radicalmente grazie alle innovazioni tecnologiche. Tra queste l’introduzione delle colture starter ha rappresentato una garanzia di maggiore sicurezza igienica e sanitaria ma ha determinato una standardizzazione delle caratteristiche qualitative dei prodotti. Infatti, tutte le trasformazioni biochimiche che avvengono durante la maturazione possono essere influenzate dall’uso degli starter, così come dal diametro dei salami, che influenza la cinetica di perdita dell’acqua e la disponibilità di ossigeno all’interno del prodotto. Lo scopo del lavoro descritto nel mio elaborato è stato quello di valutare l’effetto di queste due variabili su alcune caratteristiche fisico-chimiche, microbiologiche e sul contenuto in amine biogene di salami prodotti industrialmente a partire dalla stessa miscela di ingredienti. Questo impasto carneo è stato addizionato di due starter diversi: oltre all’impiego di Staphylococcus carnosus, un primo lotto è stato inoculato con Lactobacillus sakei mentre un secondo con Pediococcus pentosaceus. Successivamente i due lotti sono stati insaccati in budelli sintetici aventi dimensioni diverse (grande con peso del prodotto all’insacco di 5.3kg e piccolo, con peso all’insacco di 385g). I risultati ottenuti da questa sperimentazione confermano il fatto che la dimensione è uno degli aspetti che maggiormente influenza la caratteristiche del prodotto. Inoltre, anche le colture starter hanno dato risultati diversi indipendentemente dal diametro, dimostrando la necessità di una più approfondita conoscenza tecnologica dei prodotti studiati in relazione alle attività microbiche che si svolgono durante la fermentazione e la maturazione.
Resumo:
Durante la mia tesi mi sono occupata di una grave patologia, l’Aneurisma Cerebrale, che rappresenta una delle principali cause di ospedalizzazione provocando il 10/12% della mortalità globale annua nei paesi industrializzati. In Italia , l’incidenza di aneurismi cerebrali è di 100.000 nuovi casi all’anno. In generale , nei paesi industrializzati, la prevalenza è stimata a circa 600 per 100.000 abitanti . Tuttavia la prevalenza degli aneurismi cerebrali nelle popolazioni in generale , è molto più elevato stimato intorno al 2,3%,il che suggerisce indirettamente che la maggior parte degli aneurismi non va mai incontro a rottura. Negli ultimi vent’anni lo sviluppo della tecnologia ha visto significativi progressi che ci hanno permesso di agire sul problema in modo sempre migliore. Nei primi capitoli ho descritto alcune apparecchiature biomediche che sono di fondamentale importanza nello studio degli aneurismi cerebrali, mettendo in evidenza le varie peculiarità che le contraddistinguono. A seguire, ho parlato del trattamento endovascolare, che consiste nell’esclusione della cavità aneurismatica dal flusso di sangue, il quale viene incanalato in una protesi posizionata all’interno del lume vasale eliminando il rischio di rottura o di embolizzazione di materiale trombotico proveniente dalla sacca aneurismatica. I vantaggi della tecnica endovascolare consistono nella minore invasività rispetto alla tecnica chirurgica standard, la craniotomia. A fronte di ciò, si deduce quanto l’ingegneria biomedica sia una disciplina in evoluzione. Le condizioni di vita delle persone che subiscono questi tipi di interventi sono notevolmente migliorate ottenendo risultati di completa o semi-completa guarigione.
Resumo:
Il progetto parte da un’indagine preliminare relativa alla città di Bogotà, capitale della Colombia che, a causa della rapida urbanizzazione a cui è andata incontro nel corso degli anni, presenta un tessuto urbano frammentario e disorganizzato. In seguito all'aumento spropositato della popolazione, la storia della Colombia documenta un sempre più crescente bisogno di abitazioni ed è proprio da questa situazione che si sviluppa il presente elaborato. Occorre ricucire il tessuto urbano esistente ridefinendo un nuovo sistema di aree residenziali, servizi primari, pubblici, sanitari e aree per la collettività che siano in grado di regolare i futuri insediamenti urbani. La localidad Usme si colloca a Sud di Bogotà, si tratta di una delle localidades più povere e prive di servizi, il cui suolo urbano è interamente ricoperto di abitazioni di piccole dimensioni insalubri e insicure. In questa zona periferica rurale, accanto alle tipiche viviendas informales, si stanno sviluppando le nuove costruzioni collettive edificate ad opera di “MetroVivienda” . Questa società realizza dei massicci blocchi edilizi sfruttando al massimo lo spazio a disposizione senza rispettare le preesistenze o gli spazi aperti, deturpando il contesto in cui si inseriscono e l’assetto originale della città. Il punto di partenza per la comprensione della realtà urbana di Usme è rappresentato dallo studio del rigido schema a griglia dell' assetto urbano, tipico delle fondazioni coloniali della Capitale, che sarà la base generatrice del progetto di ricucitura del tessuto. Lo scopo di questo lavoro è lo sviluppo di un progetto che si adatti al contesto, valorizzando il paesaggio e la naturalità del luogo, per mezzo della riqualificazione del tessuto esistente e che sia in grado di integrare il vecchio con il nuovo.
Resumo:
Il litorale di Senigallia si sviluppa ai due lati del porto ed è caratterizzato da una costa bassa e sabbiosa, che già nei decenni passati ha risentito dell’influenza del porto nel tratto sottocorrente, in cui sono state installate delle opere di difesa. Nei primi anni del 2000 il porto ha subito ulteriori modifiche con possibili altri impatti sulla spiaggia emersa e sommersa. In tale ambito, la ditta Geomarine S.r.l. di Senigallia, su commissione del Comune di Senigallia, ha eseguito dei rilievi topo-batimetrici su un tratto del litorale del medesimo Comune dal 2009 al 2015. In questo lavoro di tesi ho partecipato personalmente alla campagna di misura del 2015. Per le indagini nella spiaggia sommersa è stata utilizzata una strumentazione Singlebeam e Multibeam mentre per i rilievi topografici è stato utilizzato un sistema GPS-NRTK. Con i dati acquisiti, elaborati e processati, è stato costruito un DTM con una carta delle isoipse e isobate dell’area. Allo scopo di integrare la ricostruzione morfologica ottenuta per l’area con informazioni sul sedimento presente, sono stati realizzati dei campionamenti lungo gli stessi transetti adottati in precedenti campagne sedimentologiche svolte dalla Regione Marche. I campioni sono stati successivamente sottoposti ad un’analisi granulometrica e i risultati confrontati tra loro e con quelli raccolti nei decenni precedenti. I risultati dei rilievi topo-batimetrici sono stati, infine, confrontati tra loro sui diversi intervalli temporali di acquisizione, per comprendere l’evoluzione del tratto di costa studiato nel breve termine e come i fattori naturali e antropici possano aver influito sui cambiamenti osservati. Per inquadrare l’evoluzione dell’area d’interesse su un arco temporale più ampio (1955-2015) si è poi effettuata un’analisi semi-qualitativa/quantitativa dell’andamento nel medio termine della linea di riva a partire da foto aeree.
Resumo:
L’interesse da parte dell’industria alimentare verso il melograno sta aumentando in virtù delle sue caratteristiche nutrizionali, come ad esempio l’alto contenuto di composti fenolici, che rendono tale frutto interessante per la produzione di succhi funzionali. Studi riportano che il microbiota di tali frutti è rappresentato principalmente da lieviti, muffe, batteri mesofili e lattici che possono proliferare durante la conservazione dei succhi. L’obiettivo di questa tesi è stato quello di valutare l’effetto di trattamenti di pastorizzazione di sul livello di contaminazione microbica di succo di melagrana ottenuto da arilli di due cultivar. A tale scopo si è valutata l’efficacia delle condizioni di trattamento adottate nell’inattivare la microflora naturalmente presente nei succhi di frutta e la sua capacità di recuperare durante la fase di conservazione a temperature sia di refrigerazione, che ambiente. Inoltre si è realizzato un challenge test in cui i succhi sono stati deliberatamente contaminati con S. cerevisiae, L. plantarum e diversi patogeni. I risultati hanno mostrato come il succo di melagrana sia un prodotto a breve shelf-life (5 giorni) quando conservato a temperatura ambiente poichè soggetto ad un rapido sviluppo della microflora. Infatti, sebbene i livelli di contaminazione iniziale rilevati fossero complessivamente bassi, i lieviti hanno raggiunto rapidamente la soglia critica di spoilage (6 Log UFC/ml) nei succhi freschi. Le condizioni di trattamento termico adottate hanno portato ad una significativa riduzione della microflora a livelli inferiori al limite di rilevabilità, e le cellule sopravvissute al trattamento non sono state in grado di proliferare nel succo conservato a 4°C per quasi 2 mesi. Quando conservati a temperatura ambiente, i succhi esposti al processo più blando hanno presentato una shelf-life di circa 25 giorni, mentre questa è aumentata fino oltre 32 giorni nei prodotti trattati più a lungo.
Resumo:
All'interno della tesi viene analizzato il problema dell'autenticazione delle parti su un canale insicuro. Viene data una formalizzazione matematica del problema, di cosa sia un protocollo sicuro e viene poi esibito un protocollo dimostrabilmente sicuro, con l'assunzione dell'esistenza di funzioni pseudorandom. Viene poi presa in esame questa assunzione e si discute di quanto l'assunzione sia ragionevole all'atto pratico. Si discutono alcune proprietà delle funzioni pseudorandom e si esibiscono delle funzioni candidate ad essere pseudorandom.
Resumo:
L’effetto dell’informatica e dell’automazione sulle procedure medico sanitarie si sta manifestando in maniera sempre più ampia, portando notevoli vantaggi per la salute e il benessere di tutti i pazienti e al tempo stesso ponendo sfide sempre più complesse alle istituzioni sanitarie e ai produttori di dispositivi medico-sanitari. Al di là dei meriti del singolo prodotto o tecnologia, esiste un fattore strategico che dovrebbe essere sempre considerato nel momento di progettare un software o un dispositivo da utilizzare in ambito sanitario (da parte dei produttori) o nel momento di pianificare l’acquisto di sistemi medicali o diagnostici complessi (da parte delle istituzioni sanitarie): l’aspetto dell’Integrazione, ovvero la capacità del sistema di inserirsi in maniera semplice, efficace e poco costosa in un Workflow (flusso di lavoro) completamente integrato. Nel primo capitolo di questo elaborato finale è stato fatto un quadro generale sull’organizzazione del flusso di lavoro in radiologia e sono stati trattati i vari standard di comunicazione e scambio dati in ambito clinico, in primis DICOM, HL7 e IHE. L’oggetto del secondo capitolo è l’organizzazione e gli obbiettivi del Dipartimento di Radiologia attuati dal Gruppo Villa Maria (GVM) e il confronto di questi ultimi con il contenuto del documento: ‘Linee guida per l’assicurazione di qualita` in teleradiologia ‘che è stata redatta dal Istituto Superiore di Sanita` destinata ad apportare, non solo ai medici radiologi ed ai TSRM ma anche agli altri professionisti della sanità coinvolti, gli elementi di informazione e di metodo per l’organizzazione della teleradiologia nel rispetto delle esigenze della deontologia medica, della sicurezza del paziente, compreso il consenso, anche per quanto riguarda la radioprotezione, la privacy e la qualità. Nel terzo capitolo sono elencati gli strumenti con cui il Dipartimento di radiologia intende perseguire i suoi obbiettivi. Il quarto capitolo tratta la mia esperienza presso una clinica esterna al GVM, in particolare la clinica Santo Stefano, di Porto Potenza Picena, dove sono stati fatti dei test volti a valutare i tempi di caricamento di esami di TAC e RMN sul cloud di GVM.
Resumo:
Lo scopo della tesi è la realizzazione del modello geologico-tecnico della frana in Loc. Calvanelle (Comune di Loiano, Bologna) finalizzato alla progettazione del consolidamento del versante e al ripristino della viabilità stradale. Per realizzare il modello geologico - tecnico ho interpretato i dati stratigrafici ottenuti da una campagna di sondaggi a carotaggio continuo. Questi dati sono stati integrati da indagini geofisiche per ottenere un modello più accurato, inoltre ho cartografato il corpo di frana con l'ausilio del GPS e derivato il suo profilo usando il Triplometro. E' stata quindi valutata l'evoluzione geomorfologica del corpo di frana ed è stata monitorata la variazione della falda tramite l'installazioni di 12 piezometri. Infine ho svolto un'analisi numerica, per interpretare la dinamica del corpo di frana e per definire i parametri geotecnici dei terreni coinvolti.
Resumo:
Il funzionamento del cervello umano, organo responsabile di ogni nostra azione e pensiero, è sempre stato di grande interesse per la ricerca scientifica. Dopo aver compreso lo sviluppo dei potenziali elettrici da parte di nuclei neuronali in risposta a stimoli, si è riusciti a graficare il loro andamento con l'avvento dell'ElettroEncefaloGrafia (EEG). Tale tecnologia è entrata a far parte degli esami di routine per la ricerca di neuropsicologia e di interesse clinico, poiché permette di diagnosticare e discriminare i vari tipi di epilessia, la presenza di traumi cranici e altre patologie del sistema nervoso centrale. Purtroppo presenta svariati difetti: il segnale è affetto da disturbi e richiede un'adeguata elaborazione tramite filtraggio e amplificazione, rimanendo comunque sensibile a disomogeneità dei tessuti biologici e rendendo difficoltoso il riconoscimento delle sorgenti del segnale che si sono attivate durante l'esame (il cosiddetto problema inverso). Negli ultimi decenni la ricerca ha portato allo sviluppo di nuove tecniche d'indagine, di particolare interesse sono la ElettroEncefaloGrafia ad Alta Risoluzione (HREEG) e la MagnetoEncefaloGrafia (MEG). L'HREEG impiega un maggior numero di elettrodi (fino a 256) e l'appoggio di accurati modelli matematici per approssimare la distribuzione di potenziale elettrico sulla cute del soggetto, garantendo una migliore risoluzione spaziale e maggior sicurezza nel riscontro delle sorgenti neuronali. Il progresso nel campo dei superconduttori ha reso possibile lo sviluppo della MEG, che è in grado di registrare i deboli campi magnetici prodotti dai segnali elettrici corticali, dando informazioni immuni dalle disomogeneità dei tessuti e andando ad affiancare l'EEG nella ricerca scientifica. Queste nuove tecnologie hanno aperto nuovi campi di sviluppo, più importante la possibilità di comandare protesi e dispositivi tramite sforzo mentale (Brain Computer Interface). Il futuro lascia ben sperare per ulteriori innovazioni.
Resumo:
In questa tesi abbiamo effettuato la caratterizzazione dinamica del celebre ponte pedonale sito a Vagli di Sotto, in Garfagnana (Lucca) e del suo suolo di fondazione. L’opera fu progettata dall’ing. Riccardo Morandi nel 1953 per mettere in comunicazione l’abitato di Vagli di Sopra con i paesi circostanti, dopo l’allagamento della valle sottostante ad opera di una diga in costruzione nello stesso anno. L’opera è interessante per il modo in cui fu costruita in sito e per il fatto di essere - esempio raro - un ponte con fondazioni sommerse da un invaso artificiale per gran parte del tempo e per essere stato costruito in una zona in cui la progettazione antisismica moderna prevederebbe accortezze molto diverse a livello di progettazione. Abbiamo avuto occasione di effettuare la caratterizzazione dinamica dell’opera e del sottosuolo prima ad invaso completamente svuotato (evento che si verifica in media solo ogni 20 anni, per lavori di manutenzione della diga) e successivamente ad invaso riempito. Questo ha permesso di verificare come e se il livello dell’acqua influenzi la risposta dinamica del ponte. E’ stata infine effettuata un’analisi numerica di risposta sismica locale per stimare le accelerazioni tipiche a cui sarebbe sottoposta la struttura in caso di terremoto e le accelerazioni tipiche con cui tale opera dovrebbe essere progettata o sismicamente adeguata al giorno d’oggi.
Resumo:
L’acquifero superficiale della Provincia di Ferrara è caratterizzato dalla presenza di una diffusa contaminazione da Arsenico. Per dare una risposta a questo fenomeno gli Enti della Provincia e del Comune hanno deciso di intraprendere uno studio volto alla determinazione dei valori di fondo del metalloide ed al miglioramento della comprensione del fenomeno. Il lavoro ha portato alla creazione di tre database con i dati presenti negli archivi provinciali inerenti: ubicazione e caratteristiche dei piezometri, dati idrochimici, concentrazione di Arsenico. L’acquifero superficiale è l’A0, olocenico, che si presenta eterogeneo per via della sua evoluzione geologica. Da uno studio stratigrafico ed idrogeologico si è visto come l’area sia costituita, andando da Ovest verso Est, da corpi alluvionali-deltizio-costieri olocenici in eteropia di facies. L’area centro-orientale è caratterizzata da un ciclo sedimentario trasgressivo-regressivo caratterizzato, nella parte superiore, dalla progradazione di un antico delta del Po. In tale ambiente si sono andati formando depositi ricchi in materia organica e in torba. Questi possono assumere una rilevante importanza nello spiegare il fenomeno, poiché possono svolgere sia il ruolo di sorgente dell’Arsenico che di redox driver attraverso la loro decomposizione. Elaborando i dati sono emersi elementi che sembrano confermare l’azione di un meccanismo di dissoluzione riduttiva che rilascia l’Arsenico, come mostrato dai cross plot tra Arsenico e Potenziale Redox, Ferro e Potenziale Redox, Arsenico e Ferro, Ferro e Manganese. L’area è stata suddivisa in tre zone, in cui la centrale corrisponde all’area ricca in materia organica. Sulla base delle tre aree individuate si è proceduto alla creazione di tre popolazioni di dati sottoposte ad analisi statistica. Quindi si è dimostrata l’assenza di contaminazione antropica, si sono esclusi i dati non significativi, si sono trattati i non detected e si sono individuati ed eliminati gli outlier. Infine si è proceduto alla determinazione della migliore distribuzione per ogni popolazione. Fatto ciò si è calcolato il 95° percentile, che è stato assunto come valore di fondo dell’area. Si è visto come tutti i tre valori di fondo superassero la CSC ed in particolare il valore di fondo dell’area centrale risultasse nettamente superiore agli altri due, superando la CSC di circa 10 volte. Questo ad ulteriore conferma della possibile azione della torba nel rilascio di Arsenico.
Resumo:
L’HTA rappresenta un valido strumento per operare un’analisi dell’impatto clinico,economico e organizzativo di apparecchiature sempre più tecnologicamente sofisticate.Il SIC si inserisce nella valutazione multidisciplinare con le metodologie dell’HTA garantendo appropriatezza e aggiornamento del patrimonio tecnologico per rendere più efficiente l’erogazione delle prestazioni sanitarie.L’HTA dalla valutazione dei bisogni analizza l’applicabilità clinica.Un SIC deve essere in grado di elaborare dati tecnici,gestionali e clinici mediante il software di gestione della manutenzione del parco macchine che nel caso dell’AOSP BO è TMS che gestisce tutte le fasi del ciclo di vita di un’apparecchiatura biomedica.Il ruolo strategico del SIC prevede la programmazione degli investimenti e la valutazione rigorosa nella scelta del rinnovo tecnologico (urgente o programmato) o del potenziamento del parco tecnologico.L’algoritmo analizzato va a individuare diverse categorie di apparecchiature del Sant’Orsola e valuta modello per modello se e quanto risulta efficiente dopo un’attenta analisi il loro trasferimento all’interno del nuovo Polo Cardio Toraco Vascolare inaugurato il 14 dicembre 2015,determinando così un eventuale rinnovo tecnologico,aggiornamento,fuori uso o mantenimento in vita della strumentazione in esame.Le fasi dell’algoritmo finalizzato alla definizione dei recuperi delle apparecchiature medicali nell’ambito dei progetti di riqualificazione tecnologica sono: 1.Normativo (rispondenza a prescrizioni generali relative alla sicurezza e verifiche particolari.Si definisce anche un’analisi dei rischi). 2.Funzionale (si analizzano su TMS l’età dell’apparecchiatura,i tempi di disservizio,il numero e la frequenza delle azioni di manutenzione, le parti consumabili). 3.Economico (costi degli interventi e mantenimento dell'apparecchiatura, spese relative ai pezzi di ricambio o materiale deperibile,contratto di assistenza). 4.Prestazionale (valutazione dello stato del sistema in toto).
Resumo:
This work aims to evaluate the reliability of these levee systems, calculating the probability of “failure” of determined levee stretches under different loads, using probabilistic methods that take into account the fragility curves obtained through the Monte Carlo Method. For this study overtopping and piping are considered as failure mechanisms (since these are the most frequent) and the major levee system of the Po River with a primary focus on the section between Piacenza and Cremona, in the lower-middle area of the Padana Plain, is analysed. The novelty of this approach is to check the reliability of individual embankment stretches, not just a single section, while taking into account the variability of the levee system geometry from one stretch to another. This work takes also into consideration, for each levee stretch analysed, a probability distribution of the load variables involved in the definition of the fragility curves, where it is influenced by the differences in the topography and morphology of the riverbed along the sectional depth analysed as it pertains to the levee system in its entirety. A type of classification is proposed, for both failure mechanisms, to give an indication of the reliability of the levee system based of the information obtained by the fragility curve analysis. To accomplish this work, an hydraulic model has been developed where a 500-year flood is modelled to determinate the residual hazard value of failure for each stretch of levee near the corresponding water depth, then comparing the results with the obtained classifications. This work has the additional the aim of acting as an interface between the world of Applied Geology and Environmental Hydraulic Engineering where a strong collaboration is needed between the two professions to resolve and improve the estimation of hydraulic risk.
Resumo:
Violazione della sicurezza sul web da parte di attacchi man in the middle