520 resultados para Tomografia, prove soniche dirette, surfer, geotom, velocità di propagazione
Proposta metodologica per acquisizione e verificabilita di dati in rete trasmessi in maniera cifrata
Resumo:
Lo sviluppo di tecnologie informatiche e telematiche comporta di pari passo l’aumento di dispositivi informatici e di conseguenza la commissione di illeciti che richiedono l’uso di tecniche dell’informatica forense. Infatti, l'evoluzione della tecnologia ha permesso la diffusione di sistemi informatici connessi alla rete Internet sia negli uffici che nelle case di molte famiglie: il miglioramento notevole della velocità di connessione e della potenza dei dispositivi comporta l’uso di un numero sempre maggiore di applicazioni basate sul web 2.0, modificando lo schema classico d’uso del mezzo e passando da utente “lettore” a utente “produttore”: si potrebbe quasi porre la domanda “Chi non ha mai scritto un commento su un social network? Chi non ha mai caricato un video su una piattaforma di video sharing? Chi non ha mai condiviso un file su un sito?”. Il presente lavoro si propone di illustrare le problematiche dell’acquisizione del traffico di rete con particolare focus sui dati che transitano attraverso protocolli cifrati: infatti, l’acquisizione di traffico di rete si rende necessaria al fine di verificare il contenuto della comunicazione, con la conseguenza che diventa impossibile leggere il contenuto transitato in rete in caso di traffico cifrato e in assenza della chiave di decifratura. Per cui, operazioni banali nei casi di traffico in chiaro (come la ricostruzione di pagine html o fotografie) possono diventare estremamente impegnative, se non addirittura impossibile, quando non si sono previsti appositi accorgimenti e in assenza di idonei strumenti. Alla luce di tali osservazioni, il presente lavoro intende proporre una metodologia completa di acquisizione e uno strumento software che agevoli il lavoro di ricostruzione, e quindi verifica, dei dati contenuti nel traffico catturato, anche cifrato. Infine, verranno mostrati dei casi esemplificativi nei quali tale metodologia si rende opportuna (o meglio, necessaria) con test di ricostruzione dei dati eseguiti con il tool SSLTrafficReader.
Resumo:
La conoscenza e la determinazione dell’equazione cinetica è indispensabile per lo studio, la progettazione e l’ottimizzazione di qualsiasi reattore chimico. Normalmente l’analisi cinetica viene eseguita con reattori che operano in maniera quanto più prossima a condizioni ideali in modo da rendere più facile e meno affetta da errori l’interpretazione dei risultati sperimentali. In fotocatalisi è invece di fatto impossibile realizzare, anche in presenza di una perfetta miscelazione, un sistema ideale in cui si abbia un’uniforme distribuzione di tutti i parametri che influenzano la velocità di reazione. Infatti in un reattore fotocatalitico il campo di radiazione è intrinsecamente non uniforme poiché l’assorbimento della radiazione e quindi la sua attenuazione sono necessari per l’attivazione della reazione. Pertanto l’impossibilità di realizzare un sistema fotocatalitico che operi in condizioni quanto più possibile prossime all’idealità e l’incapacità di misurare sperimentalmente i valori locali di velocità di reazione e di velocità di assorbimento dei fotoni possono rendere complessa una corretta analisi cinetica. In questo lavoro vengono studiate le modalità con cui condurre comunque una rigorosa analisi cinetica di un sistema fotocatalitico slurry, nel quale il fotocalizzatore è disperso come polvere fine in sospensione nella soluzione reagente. La reazione studiata è quella di mineralizzazione dell’acido formico. Sono stati impiegati due reattori con geometrie ed illuminazioni differenti: un reattore piano illuminato con luci LED ed un reattore anulare con lampada lineare fluorescente blacklight. È stata verificata la validità di una particolare equazione cinetica, che tiene conto dell’effetto non lineare della velocità specifica (cioè per unità di massa di catalizzatore) di assorbimento dei fotoni e delle concentrazioni del reagente, dell’ossigeno e del fotocatalizzatore. Sono state inoltre determinate le condizioni critiche che possono portare ad errori nell’analisi cinetica ed è stata dimostrata l’utilità di un modello matematico che tiene conto dei bilanci di energia raggiante, di materia nonché del campo di moto. Il modello matematico, in cui compare un solo parametro aggiustabile (il tempo caratteristico di reazione od equivalentemente la costante cinetica), è in grado di riprodurre molto soddisfacentemente i risultati sperimentali in tutte le diverse condizioni operative: diversa geometria di reattore, diversa illuminazione, differente spessore ottico, diverse contrazioni di substrato e di fotocatalizzatore. Infine è stato mostrato come l’equazione cinetica ad una sola costante cinetica, che è stata adottata, descriva meglio la cinetica della reazione fotocatalitica in esame di altre equazioni a due o più costanti cinetiche spesso utilizzate in fotocatalisi e basate sulla teoria di Langmuir-Hinshelwood, a dimostrazione di un diverso meccanismo di reazione.
Resumo:
Le fratture vertebrali sono tra le principali cause dell’incremento della mortalità. Queste sono dovute principalmente a traumi, tumori o particolari patologie metaboliche che colpiscono l’osso. Il tratto maggiormente interessato è quello toraco-lombare in quanto deve sopportare la maggior parte dei carichi. Risulta quindi necessario comprendere come la colonna vertebrale risponde ai carichi così da studiare e sviluppare nuovi protocolli e trattamenti per disordini del tratto spinale. Informazioni quantitative possono essere ottenute mediante test in vitro. Questi hanno alcune limitazioni dovute principalmente alla difficoltà di misurare le tensioni e le deformazioni in zone diverse dalla superficie, alla complessità e al costo delle prove. Un altro limite delle prove in vitro è rappresentato dal fatto che ciascun campione può essere testato a rottura una volta sola. Queste problematiche possono essere superate con l’utilizzo contemporaneo di modelli matematici e test in vitro. In particolare i test in vitro sono utilizzati in fase di validazione del modello matematico, ovvero nella determinazione di quanto il modello è una rappresentazione del comportamento reale che si sta simulando. Il presente lavoro di tesi si inserisce in un progetto di caratterizzazione di vertebre toraco-lombari utilizzate per la validazione di un modello agli elementi finiti. In particolare l’obiettivo dello studio è stata la realizzazione di prove meccaniche in modo da replicare l’anterior wedge fracture. Tali prove sono state effettuate presso il Laboratorio di Biomeccanica del Dipartimento di Ingegneria Industriale dell’Università di Bologna. Gli spostamenti registrati durante le prove sono stati utilizzati dal Laboratorio di Tecnologia Medica dell’Istituto Ortopedico Rizzoli come condizioni al contorno per la realizzazione di un modello FE. Una volta validato e messo a punto, il modello sarà utilizzato per valutare lo stato di salute della colonna vertebrale in vivo.
Resumo:
In questo elaborato sono state messe a confronto differenti procedure per la creazione di file in formato STL a partire da dati tomografici. Questo tipo di formato di dati è attualmente molto richiesto in quanto è adottato dalle stampanti 3D. I tre software presi in analisi, nello specifico, sono: DEVIDE, un programma open source, compatibile sia con Windows che con Linux, sviluppato presso la Delft University of Technology, nei Paesi Bassi; Imagej, un programma informatico di elaborazione digitale delle immagini, accessibile a tutti, basato su Sun-Java e sviluppato dal National Institutes of Health negli Stati Uniti; e infine VGStudioMax, un software sviluppato in Germania dalla VolumeGraphics GmbH. Un confronto diretto di questi software ha portato ad evidenziare i pregi ed i difetti d’ognuno di questi programmi, prendendo come criteri svariati fattori, tra cui la possibilità di scelta di uno o più soglie per i livelli di grigio, la velocità di esecuzione, il fatto che sia open-source o meno, ecc. I risultati ottenuti tramite l’utilizzo di slice filtrate riguardanti una Cera Anatomica e un Feticcio Africano, sono stati molto soddisfacenti, in quanto hanno permesso la realizzazione di modelli virtuali 3D di entrambi i reperti nel formato richiesto.
Resumo:
La fisica delle collisioni ad alte energie è, ad oggi, uno dei campi di ricerca più interessante per la verifica di modelli teorici che spieghino la nascita e la formazione dell'universo in cui viviamo. In quest'ottica lavorano esperimenti presso i più importanti acceleratori di particelle: tra questi anche l'esperimento ALICE, presso il Large Hadron Collider LHC del CERN di Ginevra. Il suo scopo principale è quello di verificare e ampliare l'insieme delle prove sperimentali alla base sull'esistenza di un nuovo stato della materia: il Quark Gluon Plasma. La presenza della transizione di fase della materia adronica ordinaria a QGP era stata teorizzata da diversi studi termodinamici e da calcoli di QCD su reticolo: in particolare si prevedeva l'esistenza di uno stato della materia in cui i quark sono deconfinati. Il QGP è dunque un plasma colorato e densissimo di quark e gluoni, liberi di interagire tra loro. Queste condizioni sarebbero state quelle dell'universo primordiale, circa 1µs dopo il Big Bang: a seguito di una transizione di fase, si sarebbe poi formata tutta la materia adronica ordinaria. Per riprodurre le condizioni necessarie alla formazione del QGP occorrono collisioni ad energie ultrarelativistiche come quelle prodotte, negli ultimi anni, dall'acceleratore LHC. Uno dei principali rivelatori dedicati all'identificazione di particelle in ALICE è il sistema a tempo di volo TOF. Nonostante un attento processo di ottimizzazione della risoluzione delle sue componenti, persistono residui errori strumentali che limitano la qualità (già ottima) del segnale, tutt'oggi oggetto di studio. L'elaborato presentato in questa tesi è suddiviso in tre capitoli: nel primo ripercorriamo gli aspetti teorici del Modello Standard e del Quark Gluon Plasma. Nel secondo descriviamo la struttura di rivelazione di ALICE, analizzando il funzionamento delle singole componenti. Nel terzo, infine, verifichiamo le principali correzioni al TOF ad oggi note, confrontando i dati a nostra disposizione con delle simulazioni Monte Carlo: questo ci permette da un lato di approfondirne la conoscenza, dall'altro di cercarne di migliorare la descrizione del comportamento del rivelatore.
Resumo:
Nel corso del tempo, nell’ambito dell’idrogeologia sono state sviluppate diverse tecniche per la determinazione conducibilità idraulica (K). Negli ultimi decenni sempre maggiori sforzi sono stati compiuti per integrare le tecniche geofisiche a questo specifico settore di ricerca; in particolare le metodologie geoelettriche sono state fonte di molteplici studi per la determinazione indiretta di K. Su questa idea è stato impostato il lavoro presentato in questo elaborato di tesi. Ciò che questo propone è infatti l’esecuzione di test in campo che prevedono il monitoraggio time lapse con tecnologia ERT (Electrical Resistivity Tomography) di un tracciante salino iniettato nel terreno. Il fine ultimo è quello di poter sviluppare una tecnica indiretta per la stima della conducibilità idraulica verticale dei terreni sciolti. Le immagini tomografiche, realizzate in sequenza nel tempo, premettono la visualizzazione l’avanzamento del plume basso resistivo in movimento nel terreno (causato dalla salamoia iniettata). Un successivo confronto grafico fra queste permette di quantificare lo spostamento nel tempo, in modo da calcolare in seguito la velocità di infiltrazione del tracciante, e in ultimo stimare la K del terreno in analisi. I risultati ottenuti con tale metodologia sperimentale, opportunamente elaborati tramite specifici software, sono stati confrontati, dove possibile, con i valori forniti dall’impiego di altre tecniche più tradizionali, in modo da poter valutare la bontà del dato ottenuto. Le aree studio individuate per condurre tali sperimentazioni ricadono all’interno del territorio regionale del Friuli Venezia Giulia, in particolare nell’area di Alta e Bassa pianura friulana. La strumentazione (resistivimetro multicanale VHR X612-EM della MAE-Molisana Apparecchiature Elettroniche) e il software (Res2dinv) per la raccolta e l’elaborazione delle immagini tomografiche sono stati gentilmente messi a disposizione dalla società Geomok s.r.l. del Dott. Geol. Mocchiutti (Udine) con la cui collaborazione è stato realizzato questo elaborato di tesi.
Resumo:
Il teorema di Borsuk-Ulam asserisce che, data una funzione continua f da S^n in R^n, esiste una coppia di punti antipodali sulla sfera che vengono mandati da f nello stesso punto. In questa tesi si vede l'equivalenza di sei diverse formulazioni del teorema e se ne dà una dimostrazione nel caso 2-dimensionale, utilizzando spazi di orbite, gruppo fondamentale e rivestimenti. Si studiano alcune sue dirette conseguenze come generalizzazioni di risultati preliminari sulla suddivisione di regioni piane, dandone anche un’interpretazione fisica e si vede come tutto questo si applica al “Ham Sandwich Theorem” in R^3.
Resumo:
Gli eventi sismici che hanno colpito l’Emilia Romagna nel corso del 2012, hanno mostrato come le strutture in muratura qui presenti siano particolarmente sensibili alle azioni di forze dinamiche. Questa vulnerabilità deriva principalmente dal fatto che gran parte del patrimonio edilizio italiano è stato realizzato prima dell’introduzione di apposite normative antisismiche e, in secondo luogo, dalla qualità dei materiali utilizzati e dalle tecniche “artigianali” di realizzazione. La valutazione della vulnerabilità degli edifici è pertanto un punto fondamentale per poterne stimare il livello di sicurezza in caso di terremoto. In particolare, i parametri fondamentali da studiare sono: Resistenza caratteristica a compressione (f_k): parametro importante per la stima della resistenza alla rottura in corrispondenza di variazioni delle forze verticali, per effetto di un’azione sismica; Resistenza a taglio in assenza di sforzo normale (f_vk0): valore che stima la capacità resistente della muratura quando essa è soggetta a sole azioni taglianti. Gli obbiettivi principali di questa tesi sono: Determinare i parametri medi di resistenza sopra descritti per le murature site in Emilia Romagna; Confrontare valori ottenuti mediante prove semi-distruttive e distruttive al fine di verificare la loro affidabilità.
Resumo:
Come ogni campo dell'ingegneria, anche quello inerente allo sviluppo di motori aerei, è in continuo sviluppo, e, di volta in volta, la progettazione richiede nuove soluzioni per rendere sempre più efficienti ed affidabili i velivoli, mantenendo ridotti i costi di produzione e manutenzione. In particolare, si è pensato di porre rimedio a queste molteplici necessità introducendo l'utilizzo di motori diesel di derivazione automobilistica: economici dal punto di vista della manutenzione e della produzione, in quanto largamente diffusi e testati, ben si prestano all'adattamento ad uso aeronautico. Nel caso specifico del progetto che intendo affrontare, si tratta di un motore Audi V12 tdi, elaborato fino a raggiungere i 900 hp e velocità su albero motore 5,000 rpm. Naturalmente, l'adattamento di tale motore implica una riprogettazione del riduttore, affinché si ottenga in uscita una velocità di 1185 rpm. Infatti, la rotazione dell'elica non dovrebbe mai superare i 2700-2800 giri al minuto, in quanto ad una velocità di rotazione superiore, le pale dell'elica raggiungerebbero una velocità prossima a quella del suono, creando rumori insopportabili e fastidiose vibrazioni, nonché la perdita dell'efficacia dell'elica stessa. La mia tesi nasce dal lavoro precedentemente sviluppato da un mio collega, il quale aveva elaborato un riduttore in grado di modificare la potenza in entrata da 600 a 900 hp, riprogettando le ruote dentate e selezionando nuovi cuscinetti, pur mantenendo i carter iniziali, opportunamente modificati. Il mio obiettivo è quello di elaborare ulteriormente il compito da lui svolto, sviluppando un nuovo riduttore in grado di utilizzare sempre la potenza in entrata di un motore da 900 hp ma di rendere il riduttore nel suo insieme, più compatto e leggero possibile.
Resumo:
Per limitare gli effetti tossici delle Ag-NPs, si è pensato che esse possano essere utilizzate in forma di microincapsulati, in quanto le microcapsule possono avere una certa velocità di rilascio sotto specifiche condizioni. Incapsulando quindi le Ag-NPs, posso ottenere un rilascio controllato di esse, in modo da ottenere una concentrazione di esse utile allo scopo per cui vengono impiegate, evitando un sovradosaggio che non porterebbe alcun beneficio ma solo a una maggior probabilità di causare effetti tossici.
Resumo:
Lo scopo di questo studio sperimentale è stato quello di determinare l’effetto dell’aggiunta di piccole quantità (1wt%) di grafene e ossido di grafene al poli(1-trimetilsilil-1-propino) (PTMSP). Il PTMSP è uno dei polimeri più promettenti per la separazione di gas tramite membrane polimeriche grazie al suo elevato volume libero (26%). Sono state studiate sia membrane spesse (60-180 micron) preparate per solvent casting che sottili (2-10 micron) preparate per spin coating supportate su un film poroso di polipropilene commerciale. L’ossido di grafene aumenta la permeabilità del PTMSP, mentre il grafene ha mostrato un comportamento variabile in funzione del protocollo di preparazione che è risultato dipendere fortemente dalla velocità di evaporazione del solvente. Le membrane così ottenute sono state testate al permeometro. È stata osservata una dipendenza della permeabilità in funzione dello spessore del film e del grado di invecchiamento. In particolare, la presenza di nanofiller riduce il grado di invecchiamento dei film di PTMSP. Nel caso specifico della coppia di gas permeanti He/CO2, i campioni hanno mostrato un comportamento intercambiabile di selettività all’He o alla CO2, modulabile in funzione della temperatura tra 30-60°C e del filler utilizzato.
Resumo:
Haematococcus pluvialis è una delle specie microalgali di maggior interesse biotecnologico, poiché rappresenta la maggior fonte naturale del pigmento astaxantina, carotenoide molto ricercato nell’ industria mangimistica, nutraceutica, cosmetica e farmacologica. La produzione massiva di questa specie è ancora caratterizzata da numerose limitazioni allo scale-up; il principale collo di bottiglia della coltivazione è rappresentato dalla crescita lenta e dal relativamente basso numero di cellule finali che vengono raggiunte, traducendosi in una minore quantità di astaxantina prodotta. Lo scopo di questo lavoro è stato quello di provare ad incrementare le velocità di crescita della fase iniziale dello stadio vegetativo dell’alga, utilizzando sostanze di crescita quali fitoormoni, sostanza organica, vitamine e medium formulati con diversi rapporti N/P, in modo tale da ottenere un maggiore numero di cellule che possono essere indotte a produrre astaxantina. Alcune condizioni hanno mostrato effetti sulla crescita, tuttavia la condizione che ha fornito un maggior incremento come numero di cellule è stata quella caratterizzata dall’utilizzo di un basso valore del rapporto N/P, rispetto al valore solitamente utilizzato per questa specie. Nonostante siano necessari ancora diversi sforzi per individuare i fattori biotici e abiotici che regolano la crescita di H. pluvialis nell’ottica di una produzione massiva, il principale collo di bottiglia di questo processo può essere quindi ridotto con l’utilizzo delle sostanze stimolanti la crescita sperimentate in questo lavoro e dalla formulazione di medium di crescita che forniscano un compromesso tra un alto numero di cellule finali e costi di produzione relativamente contenuti.
Resumo:
Questo lavoro di tesi è stato finalizzato allo studio dell’applicabilità e dell’efficacia di una modalità di confezionamento dell’olio extra vergine di oliva (EVO) in grado di raggiungere due obiettivi: - il prolungamento della shelf-life dell’olio d’oliva grazie ad un’azione protettiva del packaging dalla radiazione luminosa; - l’ottenimento di un’estetica accattivante che consenta al consumatore di apprezzare colore e livello del prodotto contenuto. È stata, quindi, testata l’efficacia di un film protettivo trasparente, termoretraibile, stampabile e con effetto barriera contro le radiazioni UV applicato su bottiglie in vetro trasparente, confrontando i risultati ottenuti con quelli raccolti per campioni conservati in bottiglie in vetro scuro e trasparente. Per la realizzazione di questo studio sono stati utilizzati due EVO monovarietali e per ognuno di questi sono state confrontate tre tipologie di confezionamento: vetro scuro, vetro trasparente rivestito con pellicola, vetro trasparente. Per simulare un processo di “invecchiamento accelerato” le bottiglie sono state poste in un termostato (20 °C) all’interno del quale sono state istallate delle lampade in grado di illuminare le bottiglie in continuo e i campioni erano monitorati ad intervalli regolari (5, 10 e 15 settimane). Le determinazioni analitiche svolte (titrimetriche, spettrofotometriche, cromatografiche e sensoriali) hanno riguardato i principali parametri quali-quantitativi correlati allo stato idrolitico (acidità libera, digliceridi) ed ossidativo (numero di perossidi) degli oli d’oliva, nonché relativi alle molecole antiossidanti (contenuto in fenoli totali e tocoferoli) ed agli attributi sensoriali. I risultati ottenuti da queste prove esplorative hanno evidenziato come l’applicazione di sleeve additivate con anti-UV su bottiglie in vetro trasparente possa costituire una valida modalità di confezionamento dell’olio EVO, anche se saranno necessarie ulteriori conferme ed approfondimenti.
Resumo:
L’obiettivo di questa tesi è la valutazione dell’influenza nell’incollaggio di aderendi di alluminio di un tappetino di nanofibre nylon 6.6 utilizzato come carrier della resina, mediante prove DCB. Dopo una prima fase di studio degli argomenti di base, è stato predisposto un piano delle attività comprendente il dimensionamento e la realizzazione dei provini e dell'attrezzatura per l'incollaggio, la produzione dei nanotappetini, la tenacizzazione dell'adesivo, l'incollaggio e infine la realizzazione delle prove DCB. Successivamente sono stati elaborati i dati forniti dalle prove e confrontati i valori della tenacità a frattura dei giunti realizzati con e senza l'inserimento dei nanotappetini.
Resumo:
I Social Network sono una fonte di informazioni di natura spontanea, non guidata, provviste di posizione spaziale e prodotte in tempo reale. Il Social Sensing si basa sull'idea che gruppi di persone possano fornire informazioni, su eventi che accadono nelle loro vicinanze, simili a quelle ottenibili da sensori. La letteratura in merito all’utilizzo dei Social Media per il rilevamento di eventi catastrofici mostra una struttura comune: acquisizione, filtraggio e classificazione dei dati. La piattaforma usata, nella maggior parte dei lavori e da noi, è Twitter. Proponiamo un sistema di rilevamento di eventi per l’Emilia Romagna, tramite l’analisi di tweet geolocalizzati. Per l’acquisizione dei dati abbiamo utilizzato le Twitter API. Abbiamo effettuato due passaggi per il filtraggio dei tweet. Primo, selezione degli account di provenienza dei tweet, se non sono personali è improbabile che siano usati per dare informazioni e non vanno tenuti in considerazione. Secondo, il contenuto dei tweet, vengono scartati se presentano termini scurrili, parole come “buon giorno” e un numero di tag, riferiti ad altri utenti, superiore a quattro. La rilevazione di un valore anomalo rispetto all'insieme delle osservazioni che stiamo considerando (outlier), è il primo indice di un evento eccezionale. Per l’analisi siamo ricorsi all’outlier detection come indice di rilevamento di un evento. Fatta questa prima analisi si controlla che ci sia un effettivo picco di tweet in una zona della regione. Durante il periodo di attività non sono accaduti eventi straordinari, abbiamo quindi simulato un avvenimento per testare l'efficacia del nostro sistema. La maggior difficoltà è che i dati geolocalizzati sono in numero molto esiguo, è quindi difficile l'identificazione dei picchi. Per migliorare il sistema si propone: il passaggio a streaming dei tweet e un aumento della velocità di filtraggio; la automatizzazione dei filtri; l'implementazione di un modulo finale che operi a livello del testo.