359 resultados para Gruppi finitamente generati liberi
Resumo:
La radioterapia è una tecnica molto impiegata per la cura del cancro. Attualmente la somministrazione avviene principalmente attraverso la intensity modulated radiotherapy (IMRT, sovrapposizione di campi ad intensità modulata), un cui sviluppo recente è la volumetric modulated arc therapy (VMAT, irradiazione continua lungo un arco ininterrotto). La generazione di piani richiede esperienza ed abilità: un dosimetrista seleziona cost functions ed obiettivi ed un TPS ottimizza la disposizione dei segmenti ad intensità modulata. Se il medico giudica il risultato non soddisfacente, il processo riparte da capo (trial-and-error). Una alternativa è la generazione automatica di piani. Erasmus-iCycle, software prodotto presso ErasmusMC (Rotterdam, The Netherlands), è un algoritmo di ottimizzazione multicriteriale di piani radioterapici per ottimizzazione di intensità basato su una wish list. L'output consiste di piani Pareto-ottimali ad intensità modulata. La generazione automatica garantisce maggiore coerenza e qualità più elevata con tempi di lavoro ridotti. Nello studio, una procedura di generazione automatica di piani con modalità VMAT è stata sviluppata e valutata per carcinoma polmonare. Una wish list è stata generata attraverso una procedura iterativa su un gruppo ristretto di pazienti con la collaborazione di fisici medici ed oncologi e poi validata su un gruppo più ampio di pazienti. Nella grande maggioranza dei casi, i piani automatici sono stati giudicati dagli oncologi migliori rispetto ai rispettivi piani IMRT clinici generati manualmente. Solo in pochi casi una rapida calibrazione manuale specifica per il paziente si è resa necessaria per soddisfare tutti i requisiti clinici. Per un sottogruppo di pazienti si è mostrato che la qualità dei piani VMAT automatici era equivalente o superiore rispetto ai piani VMAT generati manualmente da un dosimetrista esperto. Complessivamente, si è dimostrata la possibilità di generare piani radioterapici VMAT ad alta qualità automaticamente, con interazione umana minima. L'introduzione clinica della procedura automatica presso ErasmusMC è iniziata (ottobre 2015).
Resumo:
L'applicazione consente di gestire i piani alimentari forniti dal medico, visualizzare i pasti proposti e scegliere quali gruppi si mangia durante il giorno. La dispensa consente di visualizzare quali cibi sono all'interno del piano alimentare dando la possibilità di selezionarli. Grazie a degli algoritmi e a degli esami in laboratorio è possibile visualizzare la lista dei cibi più consigliati per il proprio organismo così da favorire il consumo di cibi sani.
Resumo:
La fisica delle collisioni ad alte energie è, ad oggi, uno dei campi di ricerca più interessante per la verifica di modelli teorici che spieghino la nascita e la formazione dell'universo in cui viviamo. In quest'ottica lavorano esperimenti presso i più importanti acceleratori di particelle: tra questi anche l'esperimento ALICE, presso il Large Hadron Collider LHC del CERN di Ginevra. Il suo scopo principale è quello di verificare e ampliare l'insieme delle prove sperimentali alla base sull'esistenza di un nuovo stato della materia: il Quark Gluon Plasma. La presenza della transizione di fase della materia adronica ordinaria a QGP era stata teorizzata da diversi studi termodinamici e da calcoli di QCD su reticolo: in particolare si prevedeva l'esistenza di uno stato della materia in cui i quark sono deconfinati. Il QGP è dunque un plasma colorato e densissimo di quark e gluoni, liberi di interagire tra loro. Queste condizioni sarebbero state quelle dell'universo primordiale, circa 1µs dopo il Big Bang: a seguito di una transizione di fase, si sarebbe poi formata tutta la materia adronica ordinaria. Per riprodurre le condizioni necessarie alla formazione del QGP occorrono collisioni ad energie ultrarelativistiche come quelle prodotte, negli ultimi anni, dall'acceleratore LHC. Uno dei principali rivelatori dedicati all'identificazione di particelle in ALICE è il sistema a tempo di volo TOF. Nonostante un attento processo di ottimizzazione della risoluzione delle sue componenti, persistono residui errori strumentali che limitano la qualità (già ottima) del segnale, tutt'oggi oggetto di studio. L'elaborato presentato in questa tesi è suddiviso in tre capitoli: nel primo ripercorriamo gli aspetti teorici del Modello Standard e del Quark Gluon Plasma. Nel secondo descriviamo la struttura di rivelazione di ALICE, analizzando il funzionamento delle singole componenti. Nel terzo, infine, verifichiamo le principali correzioni al TOF ad oggi note, confrontando i dati a nostra disposizione con delle simulazioni Monte Carlo: questo ci permette da un lato di approfondirne la conoscenza, dall'altro di cercarne di migliorare la descrizione del comportamento del rivelatore.
Resumo:
Introduzione: Le capacità coordinative possono essere dedotte dalle performance del movimento e possono subire un momentaneo peggioramento in seguito ad una rapida crescita in soggetti adolescenti. Attualmente la valutazione dei test motori è di tipo qualitativo o semi-quantitativo. Obiettivi: Somministrazione di test di valutazione della coordinazione motoria a soggetti adolescenti, in versione strumentata mediante sensori inerziali ed estrazione di parametri quantitativi. Valutazione della sensibilità di tali parametri ai gruppi di performance e variazione degli stessi in seguito ad uno scatto di crescita. Metodi: Ragazzi e ragazze di primo liceo (età media 15 anni) hanno indossato tre IMUs, posizionate sul tronco e attorno alle caviglie, ed hanno eseguito tre test per la valutazione della coordinazione motoria: il test della cicogna cieca, il test dell’accovacciamento, e una prova di tandem gait. Cinque mesi dopo i ragazzi cresciuti hanno ripetuto la prova di tandem gait. Risultati: I parametri scelti sono risultati sensibili alle differenze tra i gruppi di performance per due delle tre prove proposte (il test della cicogna e l’accovacciamento). Per la prova di tandem gait non sono state riscontrate differenze significative nei valori dei parametri. Conclusione: Dai risultati preliminari è emerso come i sensori inerziali possano essere utili nel guidare l’osservatore verso una valutazione oggettiva dei test motori, in particolare grazie al sensore posizionato sul tronco. Si ritiene necessario condurre prove ulteriori per standardizzare e migliorare i metodi proposti. Per la prova di tandem gait, per la quale non sono stati ottenuti risultati significativi, si suggerisce di continuare a seguire i ragazzi nella crescita, ed eventualmente aggiungere un task cognitivo alla prova.
Resumo:
Tesi rivolta allo studio del comportamento di Google Inc. nel campo delle lobby, in America ed in Europa: quanto investe nell'attività di lobbying, quali leggi vuole far approvare, perché è interessata a quel disegno di legge, differenze tra lobby americane ed europee e difficoltà incontrate in Europa.
Resumo:
L’obiettivo del lavoro esposto nella seguente relazione di tesi ha riguardato lo studio e la simulazione di esperimenti di radar bistatico per missioni di esplorazione planeteria. In particolare, il lavoro si è concentrato sull’uso ed il miglioramento di un simulatore software già realizzato da un consorzio di aziende ed enti di ricerca nell’ambito di uno studio dell’Agenzia Spaziale Europea (European Space Agency – ESA) finanziato nel 2008, e svolto fra il 2009 e 2010. L’azienda spagnola GMV ha coordinato lo studio, al quale presero parte anche gruppi di ricerca dell’Università di Roma “Sapienza” e dell’Università di Bologna. Il lavoro svolto si è incentrato sulla determinazione della causa di alcune inconsistenze negli output relativi alla parte del simulatore, progettato in ambiente MATLAB, finalizzato alla stima delle caratteristiche della superficie di Titano, in particolare la costante dielettrica e la rugosità media della superficie, mediante un esperimento con radar bistatico in modalità downlink eseguito dalla sonda Cassini-Huygens in orbita intorno al Titano stesso. Esperimenti con radar bistatico per lo studio di corpi celesti sono presenti nella storia dell’esplorazione spaziale fin dagli anni ’60, anche se ogni volta le apparecchiature utilizzate e le fasi di missione, durante le quali questi esperimenti erano effettuati, non sono state mai appositamente progettate per lo scopo. Da qui la necessità di progettare un simulatore per studiare varie possibili modalità di esperimenti con radar bistatico in diversi tipi di missione. In una prima fase di approccio al simulatore, il lavoro si è incentrato sullo studio della documentazione in allegato al codice così da avere un’idea generale della sua struttura e funzionamento. È seguita poi una fase di studio dettagliato, determinando lo scopo di ogni linea di codice utilizzata, nonché la verifica in letteratura delle formule e dei modelli utilizzati per la determinazione di diversi parametri. In una seconda fase il lavoro ha previsto l’intervento diretto sul codice con una serie di indagini volte a determinarne la coerenza e l’attendibilità dei risultati. Ogni indagine ha previsto una diminuzione delle ipotesi semplificative imposte al modello utilizzato in modo tale da identificare con maggiore sicurezza la parte del codice responsabile dell’inesattezza degli output del simulatore. I risultati ottenuti hanno permesso la correzione di alcune parti del codice e la determinazione della principale fonte di errore sugli output, circoscrivendo l’oggetto di studio per future indagini mirate.
Resumo:
Definizioni e enunciati riguardo al gruppo fondamentale, alle azioni di gruppo, ai rivestimenti, alle varietà topologiche, differenziabili e riemanniane, alle isometrie e ai gruppi discreti di isometrie. Approfondimento riguardo alle superfici connesse, compatte e orientabili con classificazione topologica, definizione di curvatura gaussiana con classificazione delle superfici in base al valore della curvatura, teorema di Killing-Hopf, teorema di uniformizzazione, enunciato del teorema che verrà dimostrato: la sfera è l'unica superficie connessa, compatta e orientabile ellittica, il toro è l'unica piatta, le somme connesse di g tori (g>1) sono iperboliche. Descrizione del piano euclideo con relativa metrica, descrizione delle sue isometrie, teorema di Chasles con dimostrazione, dimostrazione del toro come unica superficie connessa, compatta e orientabile piatta. Descrizione della sfera con relativa metrica, descrizione delle sue isometrie, dimostrazione della semplicità di SO(3), dimostrazione della sfera come unica superficie connessa, compatta e orientabile ellittica. Descrizione di due modelli del piano iperbolico, descrizione delle sue isometrie, dimostrazione del fatto che le somme connesse di g tori (g>1) sono iperboliche. Definizione di gruppo Fuchsiano e di spazio di Teichmuller.
Resumo:
L'accurata determinazione dei parametri che costituiscono un modello cosmologico è fondamentale per caratterizzare correttamente l'evoluzione globale dell'universo e per spiegare le sue caratteristiche locali. Per quanto riguarda questo lavoro di Tesi abbiamo studiato l'efficienza di un particolare metodo per la stima del parametro di densità della materia detto test di Alcock-Paczynski. Con tale metodo si studiando le distorsioni geometriche che un’errata assunzione dei parametri cosmologici introduce nella funzione di correlazione a due punti bidimensionale. Abbiamo applicato il test a diversi cataloghi prodotti dalla simulazione Magneticum. In particolare abbiamo studiato come l'efficienza del metodo nel riconoscere il corretto valore del parametro di densità dipenda dal tipo di tracciante considerato, dal redshift d'osservazione e dai metodi di modelizzazione delle distorsioni dovute alla dinamica degli oggetti osservati. Si è potuto osservare come l’efficienza del metodo dipenda dalla densità d’oggetti contenuti nel catalogo (rendendo le galassie il tracciante migliore su cui applicare il test) e dall’ampiezza dell’effetto di distorsione geometrica, massimo per redshift vicini a 1. Abbiamo verificato che considerare come indipendenti le misure effettuate sui cataloghi a diversi redshift migliora l’identificazione del corretto valore del parametro di densità. Nella combinazione delle diverse misure, inoltre, si nota che i contributi meno significativi vengono dai redshift estremi dell’intervallo considerato, ma i singoli risultati, per quanto incerti, non intaccano il risultato finale. Infine si è osservato come ridurre il numero di parametri liberi attraverso i quali si introducono nei modelli le distorsioni dinamiche, in particolar modo gli effetti di distorsione a piccole scale, migliora sensibilmente l’efficacia del metodo.
Resumo:
Questo elaborato si concentra sullo studio della trasformata di Fourier e della trasformata Wavelet. Nella prima parte della tesi si analizzano gli aspetti fondamentali della trasformata di Fourier. Si definisce poi la trasformata di Fourier su gruppi abeliani finiti, richiamando opportunamente la struttura di tali gruppi. Si mostra che calcolare la trasformata di Fourier nel quoziente richiede un minor numero di operazioni rispetto a calcolarla direttamente nel gruppo di partenza. L'ultima parte dell'elaborato si occupa dello studio delle Wavelet, dette ondine. Viene presentato quindi il sistema di Haar che permette di definire una funzione come serie di funzioni di Haar in alternativa alla serie di Fourier. Si propone poi un vero e proprio metodo per la costruzione delle ondine e si osserva che tale costruzione è strettamente legata all'analisi multirisoluzione. Un ruolo cruciale viene svolto dall'identità di scala, un'identità algebrica che permette di definire certi coefficienti che determinano completamente le ondine. Interviene poi la trasformata di Fourier che riduce la ricerca dei coefficienti sopra citati, alla ricerca di certe funzioni opportune che determinano esplicitamente le Wavelet. Non tutte le scelte di queste funzioni sono accettabili. Ci sono vari approcci, qui viene presentato l'approccio di Ingrid Daubechies. Le Wavelet costituiscono basi per lo spazio di funzioni a quadrato sommabile e sono particolarmente interessanti per la decomposizione dei segnali. Sono quindi in relazione con l'analisi armonica e sono adottate in un gran numero di applicazioni. Spesso sostituiscono la trasformata di Fourier convenzionale.
Resumo:
Il presente lavoro ha riguardato lo studio della trasformazione one-pot in fase gas di 1,2-propandiolo ad acido propionico, impiegando il pirofosfato di vanadile (VPP), (VO)2P2O7, e due differenti sistemi a base di bronzi di tungsteno con struttura esagonale (HTB), gli ossidi misti W1V0,3 e W1Mo0,5V0,1. Il processo richiede un catalizzatore con due differenti funzionalità: una acida, principalmente di tipo Brønsted, fornita nel VPP dai gruppi P-OH presenti sulla sua superficie, e negli HTB dai gruppi W-OH sulla loro superficie e dagli ioni H+ nei canali esagonali dell’ossido; e una ossidante, fornita nel VPP dal V, e negli HTB da V e Mo incorporati nella struttura esagonale. I risultati delle prove di reattività hanno consentito di dedurre gli aspetti principali dello schema della reazione one-pot di disidratazione-ossidazione dell’1,2-propandiolo ad acido propionico. I catalizzatori provati non possiedono la combinazione ottimale di proprietà acide e redox necessarie per ottenere elevate rese in acido propionico. Le scarse proprietà ossidanti portano a un accumulo di propionaldeide, che reagisce con l’1,2-propandiolo a dare diossolani, e inoltre dà luogo alla formazione di altri sottoprodotti. È perciò necessario incrementare le proprietà ossidanti del catalizzatore, in modo da accelerare la trasformazione della propionaldeide ad acido propionico, ed evitare quindi che le proprietà acide del catalizzatore, necessarie per compiere il primo stadio di disidratazione di 1,2-propandiolo, siano causa di reazioni parassite di trasformazione dell’aldeide stessa.
Resumo:
Negli ultimi anni, la popolazione è stata esposta a vari tipi di campi elettromagnetici generati da strumentazioni elettroniche e dispositivi di telecomunicazione. In questa tesi, si valutano SAR ed effetti termici prodotti da tre antenne patch a radiofrequenza sia su Cheratinociti (cellule dell'epidermide) in vitro che sull'epidermide umana in vivo caratterizzata in un modello multistrato contenente tessuti biologici. Le antenne progettate hanno frequenze di risonanza di 1.8 e 2.4 GHz, tipiche delle bande utilizzate rispettivamente da LTE (Long Term Evolution, la più recente evoluzione degli standard di telefonia mobile cellulare) e dalle moderne tecnologie Wi-Fi, e di 60 GHz, propria delle cosiddette onde millimetriche. Vengono valutati quindi il SAR (Specific Absorption Rate, grandezza che fornisce una misura dell'assorbimento delle onde da parte dei tessuti biologici) e le variazioni di temperatura prodotte dall'applicazione del campo elettromagnetico: ciò viene realizzato attraverso l'equazione del calore stazionaria e, nel caso dell'epidermide in vivo, con la Bioheat Equation, che contempla anche la circolazione sanguigna ed il calore generato nei processi metabolici che avvengono nell'organismo.
Resumo:
Nell'ambito dell'industria di processo, si definisce "effetto domino" la propagazione di un evento incidentale primario dovuta all’accadimento di uno o più incidenti secondari innescati dall’evento primario, con amplificazione dell’area di danno. Un incidente con effetto domino vede infatti la presenza iniziale di uno scenario incidentale primario, solitamente causato dal rilascio di sostanze pericolose e/o dal rilascio di energia tali da determinare effetti dannosi in grado di innescare successivamente degli eventi incidentali secondari, che determinino un'intensificazione delle conseguenze dell'evento iniziale. Gli incidenti con effetto domino possono avere conseguenze all'interno dello stabilimento in cui ha origine lo scenario incidentale primario o all'esterno, eventualmente coinvolgendo, stabilimenti limitrofi: nel primo caso si parla di effetto domino intra-stabilimento, nel secondo di effetto domino inter-stabilimento. Gli ultimi decenni hanno visto un forte aumento della domanda di prodotti dell'industria chimica e dunque del numero di impianti di processo, talvolta raggruppati nei cosiddetti "chemical clusters", ossia aree ad elevata concentrazione di stabilimenti chimici. In queste zone il rischio di effetto domino inter-stabilimento è particolarmente alto, a causa della stretta vicinanza di installazioni che contengono elevati quantitativi di sostanze pericolose in condizioni operative pericolose. È proprio questa consapevolezza, purtroppo confermata dal verificarsi di diversi incidenti con effetto domino, che ha determinato negli ultimi anni un significativo aumento delle ricerche relative all'effetto domino e anche una sua maggiore considerazione nell'ambito della normativa. A riguardo di quest'ultimo aspetto occorre citare la Direttiva Europea 2012/18/UE (comunemente denominata Direttiva Seveso III) e il suo recepimento nella normativa italiana, il Decreto Legislativo del 26 giugno 2015, "Attuazione della direttiva 2012/18/UE relativa al controllo del pericolo di incidenti rilevanti connessi con sostanze pericolose, entrato in vigore il 29 luglio 2015: questo decreto infatti dedica ampio spazio all'effetto domino e introduce nuovi adempimenti per gli stabilimenti a Rischio di Incidente Rilevante presenti sul territorio nazionale. In particolare, l'Allegato E del D. Lgs. 105/2015 propone una metodologia per individuare i Gruppi domino definitivi, ovvero i gruppi di stabilimenti a Rischio di Incidente Rilevante tra i quali è possibile il verificarsi di incidenti con effetto domino inter-stabilimento. Nel presente lavoro di tesi, svolto presso ARPAE (Agenzia Regionale per la Prevenzione, l'Ambiente e l'Energia) dell'Emilia Romagna, è stata effettuata, secondo la metodologia proposta dall'Allegato E del D. Lgs. 105/2015, la valutazione dell'effetto domino inter-stabilimento per gli stabilimenti a Rischio di Incidente Rilevante presenti in Emilia Romagna, al fine di individuare i Gruppi domino definitivi e di valutare l'aggravio delle conseguenze fisiche degli eventi incidentali primari origine di effetto domino.
Resumo:
L’elaborato ha l’obiettivo di analizzare lo sviluppo di un nuovo prodotto destinato al mercato delle macchine utensili ad elevata produttività, dette macchine transfer. Verranno esaminate le varie fasi che consentono la definizione del nuovo prodotto e delle relative specifiche. La tesi è divisa in due parti principali: -Analisi di mercato e design strategico, la quale consiste nell’analisi dei concorrenti e del mercato al fine di comprendere quali funzioni deve avare la macchina per poter essere competitiva. -Progettazione e ingegnerizzazione di una macchina con le caratteristiche precedentemente individuate, con approfondimento sui gruppi più importanti della stessa.
Resumo:
Le macchine automatiche prodotte dall’azienda VIRE Automation di Faenza sono atte al confezionamento di prodotti igienico sanitari del settore baby, femminile e adulto. La macchina può essere suddivisa in due gruppi funzionali, il primo legato al raggruppamento dei prodotti in pile e il secondo dedicato al confezionamento vero e proprio. Il presente elaborato consiste nello studio e nella progettazione del raggruppatore della macchina dedicata ai prodotti femminili; in particolare lo scopo è il corretto funzionamento del gruppo con performance superiori a quelle attuali. Il progetto si è articolato nell’applicazione del metodo della Casa della Qualità come strumento di supporto, per poi passare allo studio della parte logica della macchina e ad un'analisi cinematica e dinamica del gruppo estrattore; infine vengono presentate ulteriori soluzioni tecniche adottate.
Resumo:
Il presente lavoro si prefigge come scopo la validazione e successiva taratura dei modelli di cavitazione di Merkle e Kunz, basati sulla modellazione del trasferimento di massa, implementati nel software OpenFOAM. Lo studio riguarda la fluidodinamica computazionale. L'operazione di taratura e condotta dall'utente variando i parametri liberi dei vari modelli, con lo scopo di avvicinare il risultato computazionale a quello sperimentale.