1000 resultados para Modellazione,dati sperimentali,Calibrazione,Ottimizzazione


Relevância:

20.00% 20.00%

Publicador:

Resumo:

I documenti cartacei vengono attualmente rimpiazzati dalle loro versioni elettroniche, che contengono anche alcune caratteristiche biometriche; questo ha permesso il controllo automatico, sia quando il documento viene rilasciato, sia quando l'identità della persona deve essere verificata. Per rendere questo possibile è necessario che la fotografia rispetti degli standard di qualità. Lo standard ISO/IEC 19794-5 fornisce alcune guide linea ed esempi di immagini di volto accettabili e non-accettabili. Negli ultimi anni, molte aziende hanno sviluppato SDK con lo scopo di implementare i test proposti dallo standard. La tesi si prefigura il compito di fornire un framework che fornisca buone prestazioni, sia per quanto riguarda i tempi sia per l'accuratezza dei risultati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Coltivazione di pietre ornamentali: ottimizzazione dei parametri di progetto sulla base di indagini in situ

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I crescenti volumi di traffico che interessano le pavimentazioni stradali causano sollecitazioni tensionali di notevole entità che provocano danni permanenti alla sovrastruttura. Tali danni ne riducono la vita utile e comportano elevati costi di manutenzione. Il conglomerato bituminoso è un materiale multifase composto da inerti, bitume e vuoti d'aria. Le proprietà fisiche e le prestazioni della miscela dipendono dalle caratteristiche dell'aggregato, del legante e dalla loro interazione. L’approccio tradizionalmente utilizzato per la modellazione numerica del conglomerato bituminoso si basa su uno studio macroscopico della sua risposta meccanica attraverso modelli costitutivi al continuo che, per loro natura, non considerano la mutua interazione tra le fasi eterogenee che lo compongono ed utilizzano schematizzazioni omogenee equivalenti. Nell’ottica di un’evoluzione di tali metodologie è necessario superare questa semplificazione, considerando il carattere discreto del sistema ed adottando un approccio di tipo microscopico, che consenta di rappresentare i reali processi fisico-meccanici dai quali dipende la risposta macroscopica d’insieme. Nel presente lavoro, dopo una rassegna generale dei principali metodi numerici tradizionalmente impiegati per lo studio del conglomerato bituminoso, viene approfondita la teoria degli Elementi Discreti Particellari (DEM-P), che schematizza il materiale granulare come un insieme di particelle indipendenti che interagiscono tra loro nei punti di reciproco contatto secondo appropriate leggi costitutive. Viene valutata l’influenza della forma e delle dimensioni dell’aggregato sulle caratteristiche macroscopiche (tensione deviatorica massima) e microscopiche (forze di contatto normali e tangenziali, numero di contatti, indice dei vuoti, porosità, addensamento, angolo di attrito interno) della miscela. Ciò è reso possibile dal confronto tra risultati numerici e sperimentali di test triassiali condotti su provini costituiti da tre diverse miscele formate da sfere ed elementi di forma generica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tale tesi si prefigge lo scopo di mettere in evidenza l'importanza dell'introduzione della cartella clinica elettronica dispositivo medico, nel reparto ospedaliero di cardiologia. Essa contiene dati inerenti l'intera cronologia degli eventi caratterizzanti il processo di cura del paziente ed assicura un accesso veloce e sicuro ai record clinici di interesse. Grazie al suo sviluppo, è stato possibile facilitare la cura, la diagnosi e la refertazione degli esami. E' necessario operare l'integrazione fra le diverse modalità di acquisizione, permettendo la comunicazione fra loro e col sistema informativo specifico del reparto, così da poter raccogliere velocemente informazioni coerenti e prive di errori, da inserire nella cartella clinica elettronica cardiologica. Per soddisfare tali esigenze di integrazione, è stato introdotto nell'ambito clinico, l'uso dei diversi profili di integrazione IHE, ognuno riguardante uno specifico settore sanitario. L'iniziativa IHE è volta a migliorare l'efficienza dei flussi di lavoro ospedalieri e della pratica clinica, sviluppando la condivisione delle informazioni e l'integrazione fra i sistemi informativi ospedalieri ed i vari software utilizzati dalle modalità, grazie alla gestione ed uso coordinato di più standard clinici già esistenti (per esempio, DICOM e HL7). Perciò, IHE offre una base solida e comune per l'efficace scambio informativo tra i dispositivi ospedalieri di interesse, sebbene essi parlino linguaggi differenti, assicurando così che le informazioni richieste per le decisioni cliniche, siano prive di errori e contraddizioni e facilmente reperibili dal personale sanitario.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sulla base delle evidenze della letteratura (Fenaux, 2009; Lyons, JCO 2009), a partire da Settembre 2004 nel Nostro Istituto sono stati trattati 57 pazienti affetti da Sindrome Mielodisplastica (MDS) mediante terapia demetilante con 5-Azacitidina. Sono stati utilizzati differenti regimi terapeutici a seconda della classe di rischio IPSS: i pazienti a rischio basso/intermedio-1 hanno ricevuto Azacitidina 75 mg/mq/die sottocute per 5 giorni/mese (schema 5) per 8 cicli; i pazienti a rischio alto/intermedio-2 hanno ricevuto Azacitidina 50 mg/mq/die sottocute per 10 giorni/mese (schema 5+2+5) o Azacitidina 75 mg/mq/die per 7 giorni/mese (schema 7) fino a perdita della risposta. Su una casistica totale di 57 pazienti (15 a rischio basso/int-1; 41 rischio alto/int-2), l’87.7% (50 pazienti) sono risultati valutabili. Tra questi le risposte osservate sono state del 68% (34 pazienti), di cui il 14% (7 pazienti) ha ottenuto una Remissione Completa (CR) ed il 54% (27 pazienti) ha ottenuto un Hematologic Improvement (HI). La valutazione della risposta è stata eseguita secondo i criteri dell’International Working Group 2006 (IWG, Cheeson 2006). Le principali tossicità osservate sono state rappresentate da reazioni cutanee locali nel sito d’iniezione, tossicità gastrointestinale (stipsi e/o diarrea), mielotossicità, neutropenia febbrile, sepsi (3 pazienti). Tra i pazienti trattati abbiamo osservato la presenza di risposta ematologica prolungata (≥ 20 mesi) in 10 pazienti (20% dei pazienti valutabili). Inoltre, grazie alla collaborazione con il Dipartimento di Anatomia Umana dell’Università di Bologna (Prof. L. Cocco, Dott.ssa M.Y. Follo), tutti i pazienti trattati sono stati valutati per i livelli di espressione genica e metilazione del gene della fosfolipasi PI-PLC-beta1. I dati biologici così ottenuti sono stati correlati con quelli clinici, evidenziando la presenza di una correlazione tra i livelli di espressione genica e mutilazione della PI-PLC-beta1 e la risposta alla terapia demetilante con 5-Azacitidina.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ottimizzazione della filiera agro-energetica per la valorizzazione degli scarti da potatura. Un esempio nella provincia di trapani

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ultrasound imaging is widely used in medical diagnostics as it is the fastest, least invasive, and least expensive imaging modality. However, ultrasound images are intrinsically difficult to be interpreted. In this scenario, Computer Aided Detection (CAD) systems can be used to support physicians during diagnosis providing them a second opinion. This thesis discusses efficient ultrasound processing techniques for computer aided medical diagnostics, focusing on two major topics: (i) Ultrasound Tissue Characterization (UTC), aimed at characterizing and differentiating between healthy and diseased tissue; (ii) Ultrasound Image Segmentation (UIS), aimed at detecting the boundaries of anatomical structures to automatically measure organ dimensions and compute clinically relevant functional indices. Research on UTC produced a CAD tool for Prostate Cancer detection to improve the biopsy protocol. In particular, this thesis contributes with: (i) the development of a robust classification system; (ii) the exploitation of parallel computing on GPU for real-time performance; (iii) the introduction of both an innovative Semi-Supervised Learning algorithm and a novel supervised/semi-supervised learning scheme for CAD system training that improve system performance reducing data collection effort and avoiding collected data wasting. The tool provides physicians a risk map highlighting suspect tissue areas, allowing them to perform a lesion-directed biopsy. Clinical validation demonstrated the system validity as a diagnostic support tool and its effectiveness at reducing the number of biopsy cores requested for an accurate diagnosis. For UIS the research developed a heart disease diagnostic tool based on Real-Time 3D Echocardiography. Thesis contributions to this application are: (i) the development of an automated GPU based level-set segmentation framework for 3D images; (ii) the application of this framework to the myocardium segmentation. Experimental results showed the high efficiency and flexibility of the proposed framework. Its effectiveness as a tool for quantitative analysis of 3D cardiac morphology and function was demonstrated through clinical validation.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sviluppo di un modello di ottimizzazione dei tempi di evacuazione da aerei da trasporto mediante disposizione intelligente dei passeggeri effettuata con un algoritmo basato sulla Ant Colony Optimization.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tesi sperimentale, basata sulla configurazione di un sistema wireless per la localizzazione indoor e l'uso di esso per fare misure.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questo lavoro si descrive la realizzazione di un apparato per misure di diffusione Compton da solidi, mostrando in seguito i risultati ottenuti. Nel primo capitolo si introducono alcuni fondamenti sui processi di diffusione di radiazione, affrontati attraverso un approccio di tipo classico. Nel secondo capitolo si descrive la diffusione anelastica di tipo Compton, partendo dal caso dell'elettrone stazionario e spostandosi successivamente sull'elettrone bersaglio in moto; sempre in questo capitolo si introducono cenni su sezione d'urto differenziale non relativistica, regime Compton e profili Compton. Nel terzo capitolo sono riportate le proprietà fondamentali dei rivelatori a semiconduttore, che verranno utilizzati nel corso della prova. Nel quarto capitolo si ha la descrizione dell'apparato sperimentale: partendo da una sorgente di bario, viene riportata la progettazione di un apparato atto a realizzare misure di diffusione Compton a diversi angoli; in particolare, sono descritti i progetti per la produzione dei collimatori per la sorgente e il rivelatore e il procedimento di calibrazione dello stesso. Nel quinto capitolo vengono esposti i risultati sperimentali, realizzando misure di diffusione a diversi angoli e sfruttando campioni differenti; vengono qui verificate alcune proprietà della diffusione Compton, come la dipendenza dall'angolo e dal materiale bersaglio. Nel sesto ed ultimo capitolo, infine, si riportano alcune conclusioni sul lavoro svolto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La presenza di materia oscura nell'universo venne ipotizzata negli anni '30 a seguito di alcune anomalie nei risultati sperimentali ottenuti in astrofisica e cosmologia. La distribuzione di materia ottenuta non concordava infatti con i dati provenienti dalle osservazioni astronomiche e gli scienziati ipotizzarono l'esistenza di un tipo di materia, denominata appunto materia oscura, che interagisse debolmente con la radiazione elettromagnetica e fosse quindi interamente invisibile ai telescopi, sia che fossero a radiofrequenze che operanti nel campo del visibile o con raggi gamma e X, ma che producesse effetti gravitazionali. Nel corso degli anni si sono aggiunte ulteriori evidenze a sostegno dell'esistenza di materia oscura, provenienti anche dallo studio della cosmologia, e numerosi esperimenti (tra cui XENON, IGEX, DAMA/LIBRA) sono stati condotti per cercare di determinare tipo e massa delle particelle o la loro abbondanza (PLANCK). Il lavoro di questa tesi consiste in uno studio delle interazioni dei neutroni con lo xenon per l'esperimento XENON1T. I neutroni costituiscono un fondo particolarmente pericoloso per l'esperimento, in quanto producono uno scattering direttamente sul nucleo allo stesso modo delle particelle di materia oscura. Nel lavoro svolto sono state dapprima analizzate le caratteristiche delle singole interazioni con lo xenon contenuto nella camera, per poi passare ad uno studio più specifico sul comportamento dei neutroni prodotti dai fotomoltiplicatori del rivelatore. In seguito alle analisi svolte è stato possibile caratterizzare il fondo di neutroni in modo più preciso, permettendo di determinare alcuni criteri di selezione per il loro riconoscimento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro di tesi ha riguardato una riformulazione teorica, una modellazione numerica e una serie di applicazioni della Generalized Beam Theory per lo studio dei profili in parete sottile con particolare riguardo ai profili in acciaio formati a freddo. In particolare, in questo lavoro è proposta una riscrittura della cinematica GBT che introduce in una forma originale la deformabilità a taglio della sezione. Tale formulazione consente di conservare il formato della GBT classica e introducendo uno spostamento di warping variabile lungo lo spessore della generica parete della sezione trasversale, garantisce perfetta coerenza tra la componente flessionale e tagliante della trave. E' mostrato, come tale riscrittura consente in maniera agevole di ricondursi alle teorie classiche di trave, anche deformabili a taglio. Inoltre, in tale contesto, è stata messa a punto una procedura di ricostruzione dello sforzo tridimensionale in grado ricostruire la parte reattiva delle componenti di tensioni dovuta al vincolamento interno proprio di un modello a cinematica ridotta. Sulla base di tali strumenti, è stato quindi proposto un approccio progettuale dedicato ai profili in classe 4, definito ESA (Embedded Stability Analysis), in grado di svolgere le verifiche coerentemente con quanto prescritto dalle normative vigenti. Viene infine presentata una procedura numerica per la progettazione di sistemi di copertura formati a freddo. Tale procedura permette di effettuare in pochi semplici passi il progetto dell'arcareccio e dei dettagli costruttivi relativi alla copertura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pistoia rientra a buon diritto, nel quadro della Toscana medievale, in quella rete di centri urbani di antica origine e tradizione diocesana che riuscirono a costruire, nella dialettica fra città e territorio, un organismo politico autonomo, il comune cittadino. La ricerca prende in considerazione i resti materiali delle strutture conservate nel tessuto urbano attuale, in particolare l'edilizia civile, prediligendo la cosiddetta “edilizia minore”, ovvero gli edifici residenziali non monumentali che, proprio per questo motivo, sono generalmente poco conosciuti. Le strutture, censite ed inserite in una piattaforma GIS (Arpenteur), sono analizzate con metodo archeologico al fine di distinguere le diverse fasi costruttive, medievali e post-medievali, con cui sono giunte fino ad oggi. L'analisi stratigrafica, effettuata su rilievi realizzati mediante modellazione 3D (Photomodeler), ha permesso di costruire un primo “atlante” delle tipologie murarie medievali della città: i tipi murari assumono quindi la funzione di indicatori cronologici degli edifici analizzati. I dati stratigrafici, uniti al dato topologico dei complessi architettonici (localizzati prevalentemente nel centro storico, all'interno del circuito murario della metà del XII secolo), hanno fornito informazioni sia per quanto riguarda l'aspetto materiale degli edifici di abitazione (forma, dimensioni, materiali) sia per quanto riguarda temi di topografia storica (viabilità maggiore e minore, formazione dei borghi, orizzonte sociale degli abitanti, distribuzione della proprietà), nel periodo della “parabola” della Pistoia comunale (XII-XIII secolo). In conclusione, la ricerca vuole essere sia uno strumento di analisi per la storia delle trasformazioni delle città nel periodo comunale, sia uno strumento di conoscenza e tutela di un patrimonio storico-archeologico che, per la sua natura non-monumentale spesso sfugge all'attenzione di amministratori ed urbanisti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La città medievale di Leopoli-Cencelle (fondata da Papa Leone IV nell‘854 d.C. non lontano da Civitavecchia) è stata oggetto di studio e di periodiche campagne di scavo a partire dal 1994. Le stratigrafie investigate con metodi tradizionali, hanno portato alla luce le numerose trasformazioni che la città ha subìto nel corso della sua esistenza in vita. Case, torri, botteghe e strati di vissuto, sono stati interpretati sin dall’inizio dello scavo basandosi sulla documentazione tradizionale e bi-dimensionale, legata al dato cartaceo e al disegno. Il presente lavoro intende re-interpretare i dati di scavo con l’ausilio delle tecnologie digitali. Per il progetto sono stati utilizzati un laser scanner, tecniche di Computer Vision e modellazione 3D. I tre metodi sono stati combinati in modo da poter visualizzare tridimensionalmente gli edifici abitativi scavati, con la possibilità di sovrapporre semplici modelli 3D che permettano di formulare ipotesi differenti sulla forma e sull’uso degli spazi. Modellare spazio e tempo offrendo varie possibilità di scelta, permette di combinare i dati reali tridimensionali, acquisiti con un laser scanner, con semplici modelli filologici in 3D e offre l’opportunità di valutare diverse possibili interpretazioni delle caratteristiche dell’edificio in base agli spazi, ai materiali, alle tecniche costruttive. Lo scopo del progetto è andare oltre la Realtà Virtuale, con la possibilità di analizzare i resti e di re-interpretare la funzione di un edificio, sia in fase di scavo che a scavo concluso. Dal punto di vista della ricerca, la possibilità di visualizzare le ipotesi sul campo favorisce una comprensione più profonda del contesto archeologico. Un secondo obiettivo è la comunicazione a un pubblico di “non-archeologi”. Si vuole offrire a normali visitatori la possibilità di comprendere e sperimentare il processo interpretativo, fornendo loro qualcosa in più rispetto a una sola ipotesi definitiva.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il lavoro di questa tesi riguarda principalmente la progettazione, simulazione e test di laboratorio di tre versioni successive di schede VME, chiamate Read Out Driver (ROD), che sono state fabbricate per l'upgrade del 2014 dell'esperimento ATLAS Insertable B-Layer (IBL) al CERN. IBL è un nuovo layer che diverrà parte del Pixel Detector di ATLAS. Questa tesi si compone di una panoramica descrittiva dell'esperimento ATLAS in generale per poi concentrarsi sulla descrizione del layer specifico IBL. Inoltre tratta in dettaglio aspetti fisici e tecnici: specifiche di progetto, percorso realizzativo delle schede e test conseguenti. Le schede sono state dapprima prodotte in due prototipi per testare le prestazioni del sistema. Queste sono state fabbricate al fine di valutare le caratteristiche e prestazioni complessive del sistema di readout. Un secondo lotto di produzione, composto di cinque schede, è stato orientato alla correzione fine delle criticità emerse dai test del primo lotto. Un'indagine fine e approfondita del sistema ha messo a punto le schede per la fabbricazione di un terzo lotto di altre cinque schede. Attualmente la produzione è finita e complessivamente sono state realizzate 20 schede definitive che sono in fase di test. La produzione sarà validata prossimamente e le 20 schede verranno consegnate al CERN per essere inserite nel sistema di acquisizione dati del rivelatore. Al momento, il Dipartimento di Fisica ed Astronomia dell'Università di Bologna è coinvolto in un esperimento a pixel solamente attravers IBL descritto in questa tesi. In conclusione, il lavoro di tesi è stato prevalentemente focalizzato sui test delle schede e sul progetto del firmware necessario per la calibrazione e per la presa dati del rivelatore.