548 resultados para gallerie, rischio, sicurezza, QRAM
Resumo:
Il rischio di caduta durante la deambulazione aumenta con l'età; le cadute comportano costi elevati per l’assistenza sanitaria ed hanno un influenza critica sullo stato di salute dell'anziano. La valutazione della stabilità del cammino rappresenta un aspetto fondamentale per la definizione di un indice del rischio di caduta. Diverse misure di variabilità e stabilità del cammino sono state proposte in letteratura con l'obiettivo di ottenere una standardizzazione metodologica e risultati affidabili, ripetibili e facilmente interpretabili. Queste misure andrebbero ad integrare, o sostituire, le scale cliniche, unico metodo attualmente in uso ma la cui affidabilità è limitata in quanto fortemente dipendente dall’operatore. Il fine ultimo è quello di definire un indice del rischio di caduta specifico per il soggetto. Gli obiettivi della tesi comprendono la valutazione della ripetibilità in dipendenza dalla lunghezza del trial di una serie di misure di variabilità e stabilità applicate al cammino di soggetti anziani, la valutazione della correlazione fra queste misure di variabilità e stabilità e il risultato delle scale cliniche e la valutazione della correlazione fra queste misure di variabilità e stabilità e la storia di caduta dei soggetti. Per fare questo si sono somministrati alcuni questionari e schede di valutazione funzionale (CIRS, Barthel, Mini-BESTest) a 70 soggetti di età superiore a 65 anni. Questi hanno eseguito inoltre una camminata lungo un tratto rettilineo di circa 100 m di lunghezza; il relativo segnale accelerometrico è stato registrato mediante sensori inerziali. Il risultato generale ottenuto è che alcune misure di stabilità come la MSE e la RQA, già in passato risultate legate alla storia di cadute, mostrano promettenti performance per la definizione del rischio di caduta.
Resumo:
L’argomento trattato in questo elaborato riguarda la natura e le applicazioni di una nuova classe di biomateriali: i peptidi auto-assemblanti. La perdita di funzione di un organo o di un tessuto rappresenta una problematica rilevante sia sotto il profilo clinico sia per i costi di gestione. I trapianti sono infatti tra le terapie più sofisticate e onerose economicamente, complicate da altri aspetti quali una strutturale insufficienza di donatori e la necessità che i soggetti trapiantati vengano sottoposti cronicamente a regimi terapeutici immunosoppressivi che aumentano eventuali effetti collaterali. La terapia sostitutiva basata su organi artificiali è invece gravata dalla durata limitata dei dispositivi, nonchè da un non trascurabile rischio infettivo. La medicina rigenerativa, che sembra essere una soluzione adeguata per ovviare a tutte queste problematiche, è un settore emergente che combina aspetti della medicina, della biologia cellulare e molecolare, della scienza dei materiali e dell’ingegneria al fine di rigenerare, riparare o sostituire i tessuti danneggiati. In questo panorama, il ruolo dei biomateriali sta diventando sempre più importante grazie alla loro varietà e alle loro funzioni emergenti. Tra i biomateriali innovativi più promettenti troviamo i peptidi auto-assemblanti. Dopo un'introduzione sui principi dell'ingegneria tissutale, la tesi si focalizza sui peptidi auto-assemblanti e sulle loro applicazioni in campo biomedico, ponendo l'attenzione, in particolar modo, sulla realizzazione di scaffold per la rigenerazione del tessuto osseo, cardiaco, cartilagineo e nervoso, e sulla loro applicazione per il rilascio controllato di farmaci.
Resumo:
Il metodo agli elementi finiti è stato utilizzato per valutare la distribuzione dei carichi e delle deformazioni in numerose componenti del corpo umano. L'applicazione di questo metodo ha avuto particolare successo nelle articolazioni con geometria semplice e condizioni di carico ben definite, mentre ha avuto un impatto minore sulla conoscenza della biomeccanica delle articolazioni multi-osso come il polso. Lo scopo di questo lavoro è quello di valutare gli aspetti clinici e biomeccanici dell’articolazione distale radio-ulnare, attraverso l’utilizzo di metodi di modellazione e di analisi agli elementi finiti. Sono stati progettati due modelli 3D a partire da immagini CT, in formato DICOM. Le immagini appartenevano ad un paziente con articolazione sana e ad un paziente con articolazione patologica, in particolare si trattava di una dislocazione ulnare traumatica. Le componenti principali dei modelli presi in considerazione sono stati: radio, ulna, cartilagine, legamento interosso, palmare e distale. Per la realizzazione del radio e dell’ulna sono stati utilizzati i metodi di segmentazione “Thresholding” e “RegionGrowing” sulle immagini e grazie ad operatori morfologici, è stato possibile distinguere l’osso corticale dall’osso spongioso. Successivamente è stata creata la cartilagine presente tra le due ossa, attraverso operazioni di tipo booleano. Invece, i legamenti sono stati realizzati prendendo i punti-nodo del radio e dell’ulna e formando le superfici tra di essi. Per ciascuna di queste componenti, sono state assegnate le corrispondenti proprietà dei materiali. Per migliorare la qualità dei modelli, sono state necessarie operazioni di “Smoothing” e “Autoremesh”. In seguito, è stata eseguita un’analisi agli elementi finiti attraverso l’uso di vincoli e forze, così da simulare il comportamento delle articolazioni. In particolare, sono stati simulati lo stress e la deformazione. Infine, grazie ai risultati ottenuti dalle simulazioni, è stato possibile verificare l’eventuale rischio di frattura in differenti punti anatomici del radio e dell’ulna nell’articolazione sana e patologica.
Resumo:
Nel mondo della sicurezza informatica, le tecnologie si evolvono per far fronte alle minacce. Non è possibile prescindere dalla prevenzione, ma occorre accettare il fatto che nessuna barriera risulterà impenetrabile e che la rilevazione, unitamente ad una pronta risposta, rappresenta una linea estremamente critica di difesa, ma l’unica veramente attuabile per poter guadagnare più tempo possibile o per limitare i danni. Introdurremo quindi un nuovo modello operativo composto da procedure capaci di affrontare le nuove sfide che il malware costantemente offre e allo stesso tempo di sollevare i comparti IT da attività onerose e sempre più complesse, ottimizzandone il processo di comunicazione e di risposta.
Resumo:
È impossibile implementare sorgenti autenticamente casuali su hardware digitale. Quindi, storicamente, si è fatto ampio uso di generatori di numeri pseudo-casuali, evitando così i costi necessari per la progettazione di hardware analogico dedicato. Tuttavia, le sorgenti pseudo-casuali hanno proprietà (riproducibilità e periodicità) che si trasformano in vulnerabilità, nel caso in cui vengano adottate in sistemi di sicurezza informatica e all’interno di algoritmi crittografici. Oggi la richiesta di generatori di numeri autenticamente casuali è ai suoi massimi storici. Alcuni importanti attori dell’ICT sviluppato proprie soluzioni dedicate, ma queste sono disponibili solo sui sistemi moderni e di fascia elevata. È quindi di grande attualità rendere fruibili generatori autenticamente casuali per sistemi già esistenti o a basso costo. Per garantire sicurezza e al tempo stesso contenere i costi di progetto è opportuno pensare ad architetture che consentano di riusare parti analogiche già disponibili. Particolarmente interessanti risultano alcune architetture che, grazie all’utilizzo di dinamiche caotiche, consentono di basare buona parte della catena analogica di elaborazione su ADC. Infatti, tali blocchi sono ampiamente fruibili in forma integrata su architetture programmabili e microcontrollori. In questo lavoro, si propone un’implementazione a basso costo ed elevata flessibilità di un architettura basata su un ADC, inizialmente concepita all’Università di Bologna. La riduzione di costo viene ottenuta sfruttando il convertitore già presente all’interno di un microcontrollore. L’elevata flessibilità deriva dal fatto che il microcontrollore prescelto mette a disposizione una varietà di interfacce di comunicazione, tra cui quella USB, con la quale è possibile rendere facilmente fruibili i numeri casuali generati. Quindi, l’intero apparato comprende solo un microcontrollore e una minima catena analogica di elaborazione esterna e può essere interfacciato con estrema facilità ad elaboratori elettronici o sistemi embedded. La qualità della proposta, in termini di statistica delle sequenze casuali generate, è stata validata sfruttando i test standardizzati dall’U.S. NIST.
Resumo:
Educare le nuove generazioni all'uso consapevole del web è un'attività di notevole importanza, visto l'utilizzo sempre più intenso che la società contemporanea fa di questo insieme numeroso e variegato di tecnologie, identificato dalla parola "rete''. La rete quindi non è più paragonabile soltanto a un luogo virtuale da visitare ma quasi ad un'"atmosfera" che circonda la realtà stessa, rendendo costantemente vicine possibilità e preoccupazioni sempre nuove. Gli utenti della rete, siano essi "nativi" o "immigrati", si trovano a contatto con questo ambiente mutevole e rapidissimo e ne apprendono regole e usi, riportandoli a volte anche sulla realtà, con maggiore o minore disinvoltura. Le giovani generazioni sono particolarmente permeabili a questo tipo di apprendimento e dimostrano sempre maggiore affinità con lo strumento web, a volte rischiando di confondere il virtuale con il reale. La deriva valoriale e ideologica della società europea ed italiana lascia però dei vuoti che vengono spesso colmati dalle relazioni che sono loro più prossime. Anche quelle on the cloud, nel bene e nel male. Il rischio di scambiare il mezzo con il fine, poi, è sempre presente. La sfida per il sistema educativo, familiare, sociale, è dimostrarsi attento, essere aggiornato sulle tecnologie, è saper valutare attentamente, saper discernere e riconoscere le opere dai loro frutti, per poter condividere l'esperienza umana in tutti i suoi aspetti con coloro che, più di tutti, vanno in cerca di risposte profonde alle loro domande. Non bisogna aver paura di mettersi in gioco, talvolta anche di rischiare, perché la posta in gioco è altissima, è in gioco lo stesso rapporto di scambio e di fiducia tra generazioni differenti. Le maglie delle nostra "rete" di relazioni, di rapporti, di comunicazione, crescono sempre di numero, ma non bisogna promuovere la sola quantità a scapito della qualità della loro sostanza, soprattutto nel caso degli adolescenti. Concludendo, ritengo che nell'educazione al web siano fondamentali: l'attenzione, l'ascolto reciproco, la cura dei dettagli e l'attenzione al rispetto delle regole. La precisione del controllo, il senso del limite e il valore prospettico delle aspettative sono strumenti imprescindibili per costruire giorno dopo giorno una "rete" formata per le persone e non soltanto delle persone formate per la rete.
Resumo:
Una teoria degli insiemi alternativa alla più nota e diffusa teoria di Zermelo-Fraenkel con l'Assioma di Scelta, ZFC, è quella proposta da W. V. O. Quine nel 1937, poi riveduta e corretta da R. Jensen nel 1969 e rinominata NFU (New foundations with Urelementen). Anche questa teoria è basata sui concetti primitivi di insieme e appartenenza, tuttavia differisce notevolmente da quella usuale perché si ammettono solo formule stratificate, cioè formule in cui è rispettata una gerarchizzazione elemento-insieme che considera priva di significato certe scritture. L'unico inconveniente di NFU è dovuto alle conseguenze della stratificazione. I pregi invece sono notevoli: ad esempio un uso molto naturale delle relazioni come l'inclusione, o la possibilità di considerare insiemi anche collezioni di oggetti troppo "numerose" (come l'insieme universale) senza il rischio di cadere in contraddizione. NFU inoltre risulta essere più potente di ZFC, in quanto, grazie al Teorema di Solovay, è possibile ritrovare in essa un modello con cardinali inaccessibili di ZFC ed è ammessa la costruzione di altri modelli con cardinali inaccessibili della teoria classica.
Resumo:
La foca monaca (Monachus monachus, Hermann 1779) è il pinnipede più a rischio d’estinzione del mondo e pochi sono gli studi che hanno indagato l’impatto antropico dato dagli inquinanti chimici su questa specie. Questo studio si propone di analizzare la pressione che elementi in traccia, organoclorurati (OC) e, per la prima volta, idrocarburi policiclici aromatici (IPA) hanno sulla specie, studiando una della popolazioni più numerose presenti nel Mar Mediterraneo, ossia quella greca. Sono stati utilizzati campioni di 59 esemplari deceduti provenienti da diverse colonie residenti in Grecia, di ambedue i sessi, appartenenti a diverse classi d’età e riferibili ad un arco temporali di quasi 20 anni (1994-2013). Per i contaminanti organici (PCB, DDT ed IPA), caratterizzati da un comportamento lipofilico, sono stati utilizzati esclusivamente campioni di tessuto adiposo, mentre per l’analisi di elementi in traccia (essenziali: Fe, Co, Cu, Se, Zn, Mg; tossici: Cr, Ni, As, Cd, Pb, Hg) sono state impiegate diverse matrici, quali fegato, rene, muscolo, adipe, milza, polmone, cuore e pelo. I risultati evidenziano un’importante contaminazione dai OC (125.896,69±289.934,27 ng/g p.s.), in cui DDT e PCB sono presenti rispettivamente al 48,5% e 51,5%, mentre, tra i metalli considerati tossici (As, Cd, Pb, Hg, Cr, Ni), As e Hg sono gli elementi che destano maggiori preoccupazioni per la salute di Monachus monachus, presenti rispettivamente al 36,44% e 12,83%. IPA ed altri elementi in traccia analizzati invece non raggiungono di per sé concentrazioni di rischio per la specie, ma non si escludono possibili effetti sinergici tra i vari inquinanti. L’elaborazione del fingerprint tossicologico ha evidenziato un’eterogeneità nella pressione data dai contaminanti in studio, manifestando che alcune colonie di foca monaca in Grecia sono maggiormente soggette all’azione negativa di organoclorurati, idrocarburi policiclici aromatici o elementi in traccia tossici a seconda del caso.
Resumo:
Oggetto della presente tesi di laurea è quello di analizzare sia dal punto di vista teorico che da quello pratico l’impiego di geosintetici di rinforzo per il consolidamento di rilevati e sponde arginali al fine di ottenere un sistema pluricomposto terreno-rinforzo che manifesti adeguati margini di sicurezza nei confronti delle verifiche di stabilità prescritte dalla normativa vigente, soprattutto nei confronti dell’azione indotta dal sisma. In particolare il lavoro è suddiviso di due macro parti fondamentali: una prima parte dedicata allo studio degli aspetti teorici legati alla caratterizzazione dei materiali di rinforzo con particolare riferimento ai geotessili ed alle geogriglie, ai principi fondamentali di funzionamento del sistema terreno-rinforzi, alla normativa di riferimento per tali costruzioni, al dimensionamento dei pendii in terra rinforzata ed al loro inserimento ambientale; la seconda parte, basata sullo studio di un caso di reale applicazione del metodo di rinforzo con geosintetici, si svolge attraverso una approfondita e critica analisi della relazione geologica messa a disposizione dal Comune di Cesenatico (FC) con lo scopo di elaborare le prove svolte in situ, ricavare i parametri geotecnici caratteristici del terreno e definire un modello geologico e geotecnico di riferimento per le successive elaborazioni. Il progetto prevede infatti il consolidamento delle sponde del canale che attraversa, parallelamente alla linea di costa, la città di Cesenatico (FC) e denominato “Vena Mazzarini”, dal nome dell’Ingegnere che ne curò il progetto originale. In particolare si è previsto l’impiego di geogriglie di rinforzo in HDPE e tutte le verifiche sono state realizzate mediante il software di calcolo Geostru Slope® e Slope/M.R.E® messi cordialmente a disposizione dalla software house Geostru S.r.l.
Resumo:
Descrizione dell'algoritmo crittografico AES, criteri adottati dal NIST per la scelta di AES e considerazioni sulla sua sicurezza.
Resumo:
Questo elaborato realizzato assieme alla creazione di un link nel sito "progettomatematic@" tratta dell'infinito in tre modi diversi: la storia, l'applicazione ai frattali e alla crittografia. Inizia con una breve storia dai greci all'antinomia di Russel; poi si parla dei frattali in natura, di misura e dimensione di Hausdorff, polvere di Cantor e fiocco di neve di Koch. Infine si trova un riassunto dei cifrari storici famosi, con particolare attenzione al cifrario di Vernam, alla teoria dell'entropia di Shannon e alla dimostrazione che otp ha sicurezza assoluta.
Resumo:
Uno dei problemi che ostacola la diffusione in ambito civile degli aerei senza pilota a bordo (UAV) è la gestione della sicurezza in volo. Gli UAV civili, infatti, popolando una regione di spazio aereo molto affollata e devono interagire con una moltitudine di altri mezzi aerei. Per questo motivo, risulta particolarmente critica l'implementazione di logiche di tipo Sense and Avoid, attraverso le quali un UAV deve essere in grado di "vedere" altri mezzi in rotta di collisione ed elaborare le azioni utili ad evitare l'impatto, decidendo se attuare una manovra autonoma di avoiding oppure delegarla al mezzo incontrato. Questa tesi descrive un primo approccio al problema del riconoscimento (Sense) dei mezzi aerei che un generico velivolo UAV può incontrare durante la normale condotta del volo. In particolare, si descrivono le strategie impiegate e gli ambienti software utilizzati per testare alcune procedure di riconoscimento delle immagini applicabili alla fase di detection dell'intruder, situazione tipica del caso di studio. I risultati sperimentali ottenuti dalla progettazione e dallo sviluppo di un apposito software, consistono nell'implementazione e successiva valutazione di diverse tecniche, individuando le criticità del problema.
Resumo:
L’oggetto della presente tesi è sviluppare la ricostruzione virtuale di un autobus pubblicitario progettato negli anni 50, un simbolo del design italiano legato allo sviluppo industriale del secondo dopoguerra. La tesi si sviluppa inizialmente con un’attività di ricerca e documentazione legata all'autobus, con particolare attenzione alla raccolta di immagini e disegni progettuali d’epoca, punto di partenza per la ricostruzione virtuale del mezzo. Si procede quindi alla modellazione CAD della carrozzeria cercando di replicare in modo quanto più dettagliato l’originale. Dal modello ottenuto, sono stati ricavati due prototipi di diverse dimensioni e materiali: un primo di dimensioni ridotte, realizzato tramite la tecnica del rapid prototyping, ed un secondo di dimensioni maggiori, in ureol fresato. Successivamente si procede ad uno studio preliminare di ricostruzione del mezzo con lo scopo di analizzare le principali problematiche di un’eventuale futura costruzione e messa in strada del mezzo. Tale studio parte dalla normativa vigente sulla costruzione e sulle norme di circolazione degli autobus, comprendente sia le leggi italiane sia comunitarie, riguardanti le caratteristiche dimensionali, prestazionali e di sicurezza che qualsiasi autobus con licenza di circolazione deve rispettare. Quindi verrà compiuta la scelta del telaio base da utilizzare tra quelli proposti dai maggiori costruttori europei e verrà realizzato il modello CAD anche del telaio con l’obiettivo di collegarlo alla carrozzeria e ottenere così il modello completo in tutte le sue parti. Per realizzare la scocca, verranno prese in esame le soluzioni costruttive più utilizzate dai progettisti di autobus, e viene svolto un breve studio riguardo i materiali utilizzabili a tale scopo. Sulla base di tali considerazioni si procederà alla modellazione della stessa. In ultimo si procede ad un preliminare studio fluidodinamico attraverso l’analisi CFD, e ad un preliminare studio del comportamento meccanico della struttura reticolare che sostiene la carrozzeria.
Resumo:
La verifica di vulnerabilità sismica di un edificio esistente è un procedimento volto a stabilire se questa è in grado o meno di resistere alla combinazione sismica di progetto. La vulnerabilità sismica di una struttura dipende da molteplici fattori quali la mancanza di requisiti fondamentali degli elementi strutturali, considerando che la maggior parte delle strutture presenti sul territorio italiano sono state progettate sulla base di normative che non consideravano l’azione sismica. Nel presente lavoro verranno analizzati tutti fattori necessari per effettuare una verifica di vulnerabilità sismica, determinando i fattori di sicurezza per ogni tipologia di verifica.
Resumo:
Il CP-ESFR è un progetto integrato di cooperazione europeo sui reattori a sodio SFR realizzato sotto il programma quadro EURATOM 7, che unisce il contributo di venticinque partner europei. Il CP-ESFR ha l'ambizione di contribuire all'istituzione di una "solida base scientifica e tecnica per il reattore veloce refrigerato a sodio, al fine di accelerare gli sviluppi pratici per la gestione sicura dei rifiuti radioattivi a lunga vita, per migliorare le prestazioni di sicurezza, l'efficienza delle risorse e il costo-efficacia di energia nucleare al fine di garantire un sistema solido e socialmente accettabile di protezione della popolazione e dell'ambiente contro gli effetti delle radiazioni ionizzanti. " La presente tesi di laurea è un contributo allo sviluppo di modelli e metodi, basati sull’uso di codici termo-idraulici di sistema, per l’ analisi di sicurezza di reattori di IV Generazione refrigerati a metallo liquido. L'attività è stata svolta nell'ambito del progetto FP-7 PELGRIMM ed in sinergia con l’Accordo di Programma MSE-ENEA(PAR-2013). Il progetto FP7 PELGRIMM ha come obbiettivo lo sviluppo di combustibili contenenti attinidi minori 1. attraverso lo studio di due diverse forme: pellet (oggetto della presente tesi) e spherepac 2. valutandone l’impatto sul progetto del reattore CP-ESFR. La tesi propone lo sviluppo di un modello termoidraulico di sistema dei circuiti primario e intermedio del reattore con il codice RELAP5-3D© (INL, US). Tale codice, qualificato per il licenziamento dei reattori nucleari ad acqua, è stato utilizzato per valutare come variano i parametri del core del reattore rilevanti per la sicurezza (es. temperatura di camicia e di centro combustibile, temperatura del fluido refrigerante, etc.), quando il combustibile venga impiegato per “bruciare” gli attinidi minori (isotopi radioattivi a lunga vita contenuti nelle scorie nucleari). Questo ha comportato, una fase di training sul codice, sui suoi modelli e sulle sue capacità. Successivamente, lo sviluppo della nodalizzazione dell’impianto CP-ESFR, la sua qualifica, e l’analisi dei risultati ottenuti al variare della configurazione del core, del bruciamento e del tipo di combustibile impiegato (i.e. diverso arricchimento di attinidi minori). Il testo è suddiviso in sei sezioni. La prima fornisce un’introduzione allo sviluppo tecnologico dei reattori veloci, evidenzia l’ambito in cui è stata svolta questa tesi e ne definisce obbiettivi e struttura. Nella seconda sezione, viene descritto l’impianto del CP-ESFR con attenzione alla configurazione del nocciolo e al sistema primario. La terza sezione introduce il codice di sistema termico-idraulico utilizzato per le analisi e il modello sviluppato per riprodurre l’impianto. Nella sezione quattro vengono descritti: i test e le verifiche effettuate per valutare le prestazioni del modello, la qualifica della nodalizzazione, i principali modelli e le correlazioni più rilevanti per la simulazione e le configurazioni del core considerate per l’analisi dei risultati. I risultati ottenuti relativamente ai parametri di sicurezza del nocciolo in condizioni di normale funzionamento e per un transitorio selezionato sono descritti nella quinta sezione. Infine, sono riportate le conclusioni dell’attività.