1000 resultados para Radioterapia, ottimizzazione piani di trattamento, fasci di raggi X, simulazioni
Resumo:
Lo scopo del presente studio è quello di modellare il processo di trattamento delle acque reflue dell’impianto a fanghi attivi Ponte Metauro di Fano. In particolare, si è posta l’attenzione sulle fasi di trattamento secondario, agendo sui parametri che regolano tali processi e simulando il funzionamento ottimale dell’impianto attraverso il programma di modellazione STOAT. Oltre a modellare l’impianto, è stato anche fatto uno studio per cercare di risparmiare i consumi di energia e reagenti. La prima fase quindi è stata incentrata sulla modellazione dell’impianto, soprattutto per i trattamenti secondari, con varie simulazioni per poi arrivare ad avere una rappresentazione corretta del fenomeno che avviene nella realtà. La seconda fase invece è stata incentrata sulla ricerca di un possibile risparmio energetico per ottimizzare i consumi di energia e reagenti all’interno delle vasche.
Resumo:
Gli interventi in campo neurologico richiedono un’elevata accuratezza e si basano generalmente su sistemi invasivi. Lo scopo della seguente trattazione è quello di presentare e validare sistemi innovativi per interventi di chirurgia stereotassica caratterizzati da una bassa invasività e una elevata accuratezza. Lo studio, partito dall’analisi dello stato dell’arte, pone la sua attenzione su nuove proposte e le ottimizza, ne ricava dei protocolli attuabili e li valida sperimentalmente. Due sono i punti salienti dell’elaborato: descrivere la procedura innovativa di intervento e i risultati in termini di affidabilità dello stesso. Gli elementi di novità si concentrano sull’ideazione e la realizzazione del sistema di fissaggio al cranio del paziente, elemento fondamentale per un accurato inserimento dell’utensile chirurgico, e sul metodo di verifica dell’accuratezza del sistema proposto. La qualità di tale sistema viene infine decretata dai risultati dei test sperimentali.
Resumo:
INTRODUZIONE Pochi studi in Letteratura hanno indagato la correlazione tra la sintomatologia dolorosa associata all’interruzione farmacologica di gravidanza (IVG) e i livelli d’ansia pre-trattamento. L’obiettivo primario del nostro studio è stato di valutare la correlazione tra la sintomatologia dolorosa in corso di IVG farmacologica e i livelli d’ansia pre-trattamento. Inoltre, sono stati indagati i fattori predittivi di dolore e la correlazione con l’epoca gestazionale. MATERIALI E METODI È stato condotto uno studio osservazionale, prospettico, multicentrico presso l’Unità Operativa di Ostetricia e Ginecologia dell’Azienda USL e presso l’Unità Operativa di Ginecologia dell’IRCCS Sant’Orsola Malpighi di Bologna. Sono state incluse le pazienti sottoposte a IVG farmacologica tra giugno 2021 e novembre 2021, che rispettassero i criteri di inclusione ed esclusione. Sono stati somministrati 5 questionari (GHQ-12, GAD-7, STAI-6, VAS) e raccolti i dati anamnestici ed ecografici. I potenziali fattori di rischio sono stati, quindi, selezionati per l’inclusione nell'analisi di regressione multivariata. RISULTATI Delle 242 pazienti incluse, il 38,0% ha riferito una sintomatologia dolorosa severa (VAS >70). Dall’analisi di regressione multivariata, la dismenorrea intensa è risultata essere il fattore di rischio più forte per il dolore (OR = 6,30, IC 95% 2,66 – 14,91), seguita da alti livelli di ansia valutati mediante il punteggio del GHQ-12 > 9 (OR = 3,33, IC 95% 1,43 – 7,76). Al contrario, la nostra analisi ha confermato che un precedente parto vaginale rappresentava una caratteristica protettiva contro il dolore (OR 0,26, IC 95% 0,14 – 0,50). CONCLUSIONI Nel nostro studio alti livelli d’ansia pre-trattamento e la dismenorrea sono associati ad intensa sintomatologia dolorosa, mentre il parto vaginale è risultato protettivo. L’IVG farmacologica è una metodica efficace e sicura, ma spesso associata a sintomatologia dolorosa. È quindi fondamentale delineare fattori di predittivi di dolore ed individuare le pazienti a maggior rischio a cui somministrare un’idonea terapia antalgica.
Resumo:
La realtà aumentata (AR) è una nuova tecnologia adottata in chirurgia prostatica con l'obiettivo di migliorare la conservazione dei fasci neurovascolari (NVB) ed evitare i margini chirurgici positivi (PSM). Abbiamo arruolato prospetticamente pazienti con diagnosi di cancro alla prostata (PCa) sul base di biopsia di fusione mirata con mpMRI positiva. Prima dell'intervento, i pazienti arruolati sono stati indirizzati a sottoporsi a ricostruzione del modello virtuale 3D basato su mpMRI preoperatoria immagini. Infine, il chirurgo ha eseguito la RARP con l'ausilio del modello 3D proiettato in AR all'interno della console robotica (RARP guidata AR-3D). I pazienti sottoposti a AR RARP sono stati confrontati con quelli sottoposti a "RARP standard" nello stesso periodo. Nel complesso, i tassi di PSM erano comparabili tra i due gruppi; I PSM a livello della lesione indice erano significativamente più bassi nei pazienti riferiti al gruppo AR-3D (5%) rispetto a quelli nel gruppo di controllo (20%; p = 0,01). La nuova tecnica di guida AR-3D per l'analisi IFS può consentono di ridurre i PSM a livello della lesione dell'indice
Resumo:
Studio e progettazione di una soluzione tecnologica da fissare a una testa di focalizzazione laser movimentata da un braccio robotico. Il fine dello strumento creato è migliorare l'efficienza e l'ergonomia della fase di setting dell'impianto e abbassare il tempo impiegato per misurare la distanza del laser dal pezzo. Nel corpo della tesi sono state analizzate varie opzioni realizzative con i relativi pro e contro e infine vengono mostrate le diverse fasi di prototipazione del prodotto scelto.
Resumo:
Il presente elaborato di tesi è parte di un ampio progetto finalizzato alla realizzazione di uno scarpone da sci ottenuto per il 90% di materiale da riciclo di scarponi da sci a fine vita. L’obiettivo è di realizzare la progettazione del nuovo scarpone, e caratterizzarne le proprietà flessionali avvalendosi ti tecniche di simulazione numerica FEM validata attraverso Correlazione di Immagini Digitale. La caratterizzazione flessionale è realizzata con la prova del Flex Test, che consiste nell’imporre una flessione dorsale ad una protesi di gamba. Le prime simulazioni FEM di questo complesso modello hanno evidenziato delle criticità. La presente ricerca, si pone l’obiettivo di risolvere singolarmente questi problemi. Inizialmente, si è realizzata la blend polimerica dei materiali dello scafo e del gambetto dello scarpone. Si è effettuata la caratterizzazione meccanica del materiale, confrontandolo con il materiale vergine. Si è poi ricercato il modello costitutivo più adeguato di materiale iperelastico per il FEM. Successivamente, si è ottenuto il modello CAD della scarpetta attraverso l’approccio reverse engineering, con la tecnica della scansione 3D, la quale ha consentito di ottenere il file. STEP da aggiungere al modello FEM. La conoscenza della geometria effettiva ha consentito di realizzare il design della nuova scarpetta ottenuta da materiale riciclato. Infine, si è utilizzata la Correlazione di Immagini Digitali per studiare la cinematica della chiusura dei ganci dello scafo, e per studiare lo stato di deformazione residua a chiusura effettuata. Si è valutata l’influenza del piede della protesi, e della scarpetta, durante la chiusura dei ganci. In seguito, si è confrontato quanto ottenuto dalle evidenze sperimentali della DIC, con la simulazione agli elementi finiti. Si tratta di un approccio innovativo, che vede per la prima volta implementata la Correlazione di Immagini Digitali per realizzare la caratterizzazione meccanica di uno scarpone da sci.
Resumo:
L’obbiettivo di questo elaborato è descrivere l'implementazione, attraverso l’uso del programma di calcolo Matlab, di un metodo per ottenere una configurazione di un velivolo dell’aviazione generale che sia rispettosa delle specifiche di progetto e presenti un costo orario minimo. Il metodo utilizzato per progettare l’aeromobile preso come caso di studio è basato sui concetti della progettazione robusta. Con questo metodo di progettazione si cerca di rendere l’aereo il più insensibile possibile alle modifiche di alcuni dei parametri di progetto che possono variare in modo casuale; in particolare ci si è concentrati sul costo orario di una missione, andandone a calcolare la media e la sua deviazione standard. Considerando infine il rapporto segnale-rumore introdotto da Taguchi per la progettazione robusta, viene implementato un metodo di ottimizzazione basato su un algoritmo Particle Swarm Optimization (PSO), attraverso il quale si ottengono i valori più idonei dei parametri di progetto necessari per la realizzazione del futuro velivolo. In dettaglio, i parametri fissati in seguito all’applicazione dell’ottimizzatore sono l’allungamento alare, il carico alare e il rapporto potenza massima motori-peso. A conclusione del lavoro svolto, si può dire che l’ottimizzazione robusta può essere utile in tutti i casi in cui alcuni parametri di progetto non sono definiti in modo univoco, ma possono variare in un modo non prevedibile all’inizio della sviluppo del prodotto.
Resumo:
La quantificazione del benzene ematico è un tema di grande interesse nell'ambito della tossicologia occupazionale. La determinazione dell'analita, estratto nello spazio di testa di un vial, è eseguita mediante l'utilizzo di un gascromatografo con rilevatore a ionizzazione di fiamma (GC-FID). Si è cercato di ottimizzare il processo di estrazione del benzene dal sangue allo spazio di testa ed il successivo trasferimento dell'analita nella colonna cromatografica, mediante l'applicazione di un disegno sperimentale fattoriale a tre fattori e due livelli (DoE). I fattori individuati per impostare il piano sperimentale sono stati: variazione della temperatura di incubazione (A) del vial contenente il campione di sangue, pH del campione (B), modulato mediante aggiunta di una soluzione di H2SO4 e forza ionica (C), regolata mediante una soluzione acquosa di NaCl. I livelli scelti per ciascuna variabile sono stati: per A 40 e 60 °C; per B pH naturale del campione e pH a seguito dell'aggiunta di 1 mL di H2SO4 1.8 M; per C FI naturale del campione e FI dovuta all'aggiunta di una soluzione acquosa di sodio cloruro (5 g/L). Dall'analisi dei risultati forniti dal DoE, si è osservato che A, B e C hanno effetti tra loro contrastanti, per questo motivo non sembra essere vantaggioso combinare variabili differenti. In compenso, sia l'aumento di temperatura che l'aggiunta di acido solforico portano a significativi miglioramenti nell'estrazione di benzene dal sangue. Tra i tre trattamenti risulta essere B quello più efficace, motivo per il quale si ritiene che l'aggiunta di una soluzione acquosa di H2SO4 al campione di sangue porti ad una maggiore sensibilità e risoluzione strumentale. Sicuramente la sensibilità del metodo elaborato non può essere paragonata alle tradizionali determinazioni con spettrometro di massa, ma si ritiene possa essere sufficientemente soddisfacente per valutare l'esposizione a benzene dei lavoratori a rischio e come analisi di screening rapida ed economica.
Resumo:
Negli ultimi anni si è visto un forte segnale di cambiamento culturale indirizzato verso la sostenibilità affermando sempre più efficacemente i concetti di riciclaggio, riduzione e riutilizzo. Finora il design dei prodotti si è concentrato su aspetti che sfavorivano tale approccio e piuttosto si ponevano come specifica quella di definire a priori la vita del prodotto. Infatti, si sono sempre più sviluppate tecniche di accoppiamento delle parti che una volta accoppiate non consentivano più il disassemblaggio di queste. L’obiettivo di tale elaborato è stato quello di definire, nella famiglia di metodologie chiamata Design for X, un criterio che possa valutare e guidare la progettazione in ottica più mirata verso la riparabilità del prodotto “Design for Repair”. Aumentare la riparabilità del prodotto vuol dire poter aumentare la sua longevità, così da non avere la necessità di sostituirlo con un componente nuovo causando un impatto ambientale doppio, ossia la mancata necessità sia di sfruttare risorse per la realizzazione del sostituto sia di non dover occuparsi del processo di smaltimento del prodotto sostituito.
Resumo:
La quantificazione non invasiva delle caratteristiche microstrutturali del cervello, utilizzando la diffusion MRI (dMRI), è diventato un campo sempre più interessante e complesso negli ultimi due decenni. Attualmente la dMRI è l’unica tecnica che permette di sondare le proprietà diffusive dell’acqua, in vivo, grazie alla quale è possibile inferire informazioni su scala mesoscopica, scala in cui si manifestano le prime alterazioni di malattie neurodegenerative, da tale tipo di dettaglio è potenzialmente possibile sviluppare dei biomarcatori specifici per le fasi iniziali di malattie neurodegenerative. L’evoluzione hardware degli scanner clinici, hanno permesso lo sviluppo di modelli di dMRI avanzati basati su acquisizioni multi shell, i quali permettono di ovviare alle limitazioni della Diffusion Tensor Imaging, in particolare tali modelli permettono una migliore ricostruzione trattografica dei fasci di sostanza bianca, grazie ad un’accurata stima della Orientation Distribution Function e la stima quantitativa di parametri che hanno permesso di raggiungere una miglior comprensione della microstruttura della sostanza bianca e delle sue eventuali deviazioni dalla norma. L’identificazione di biomarcatori sensibili alle prime alterazioni microstrutturali delle malattie neurodegenerative è uno degli obbiettivi principali di tali modelli, in quanto consentirebbero una diagnosi precoce e di conseguenza un trattamento terapeutico tempestivo prima di una significante perdità cellulare. La trattazione è suddivisa in una prima parte di descrizione delle nozioni fisiche di base della dMRI, dell’imaging del tensore di diffusione e le relative limitazioni, ed in una seconda parte dove sono analizzati tre modelli avanzati di dMRI: Diffusion Kurtosis Imaging, Neurite Orientation Dispersion and Density Imaging e Multi Shell Multi Tissue Constrained Spherical Deconvolution. L'obiettivo della trattazione è quello di offrire una panoramica sulle potenzialità di tali modelli.
Resumo:
Il seguente elaborato è il frutto del lavoro di tirocinio svolto in Marelli. L'obiettivo del tirocinio è stato il miglioramento del processo di produzione della Pompa Tender. Questa è la pompa di alimentazione benzina per cui Marelli ha vinto la concessione per diventare unico fornitore per tutte le scuderie partecipanti alle gare di formula 1. Il mondo Motorsport rappresenta un ambiente competitivo dove ogni singolo componente delle auto deve garantire le massime prestazioni ed essere affidabile. La massima cura nella produzione è un requisito minimo per diventare fornitori di questa realtà. Per questo Marelli ha deciso di mettere in dubbio il suo processo di fabbricazione cercando un occhio esterno che potesse mettere a nudo eventuali difetti di produzione. Il miglioramento di processo è stato perseguito analizzando ogni operazione in ottica di Lean Manufacturing. Il lavoro è partito con l'analisi del tempo ciclo di produzione accompagnata dalla rilevazione di Muda e verifiche sul corretto approvvigionamento di materiali e accertamenti sulla funzionalità del layout di stabilimento. Dopo le analisi del caso, sono state prese scelte di miglioramento che vanno dal riadattamento del Layout, eliminazione di colli di bottiglia, modifica sulle fasi di processo, riorganizzazione degli strumenti di lavoro sui banchi di assemblaggio ed eliminazione di cause di contaminazione all'interno della pompa. Questo ha permesso di ridurre il tempo ciclo di produzione del componente e di conseguenza diminuire la saturazione dell'operatore. Inoltre, successivamente si è fatto un lavoro di standardizzazione su tutte le pompe dello stesso tipo prodotte nello stabilimento. Grazie a questa standardizzazione si può parlare adesso di famiglia di pompe ed esse non vengono più trattate singolarmente.
Resumo:
Lo scopo di questa tesi è quello di mostrare le potenzialità e le possibili soluzioni dell’Additive Manufacturing per l’ottimizzazione di macchine elettriche in risposta al problema delle terre rare. Nel primo capitolo viene presentato lo stato dell’arte dell’Additive Manufacturing mostrando una rapida panoramica delle sue caratteristiche principali, le potenzialità future e i settori di utilizzo. Il secondo capitolo propone le principali tecniche di Stampa 3D per la realizzazione di oggetti evidenziando di ognuna i pregi e i difetti. All’interno del terzo capitolo, viene illustrata la struttura di una macchina elettrica mostrando le varie componenti e presentando delle possibili ottimizzazioni realizzate tramite Additive Manufacturing. Nel quarto capitolo vengono presentati esempi di macchine elettriche complete realizzate attraverso le tecniche dell’Additive Manufacturing. Nel quinto capitolo vengono confrontati un Interior Permanent Magnets motor e un Synchronous Relectance Machine.
Resumo:
In questa tesi è presentato il lavoro svolto per ottimizzare le selezioni dei decadimenti Λ 0 b → pK− e Λ 0 b → pπ− al fine di misurarne le asimmetrie di CP. Il campione di dati utilizzato corrisponde ad una luminosità integrata di 6 fb−1, raccolto dall'esperimento LHCb in collisioni protone-protone ad un'energia nel centro di massa di 13 TeV. L'ottimizzazione della selezione è di fondamentale importanza nello studio di questi decadimenti, per ottenere la minor incertezza statistica possibile sulle asimmetrie misurate. Il lavoro svolto in questa tesi ha portato ad avere incertezze statistiche sulle singole asimmetrie di CP pari a: σ(A pK CP ) = 0.76%, σ(A pπ CP) = 0.95%, che risultano essere minori di circa un fattore due rispetto ai risultati già pubblicati dalla Collaborazione LHCb. Il lavoro svolto in questa tesi sarà parte della pubblicazione dei risultati ottenuti su rivista internazionale, prevista per il 2023
Resumo:
L'argomento principale discusso in questa tesi riguarda la proposta di un'attività laboratoriale circa la trattazione di problemi di ottimizzazione unidimensionale in una scuola secondaria di secondo grado. Tale argomento rientra, infatti, tra le voci all'interno dei programmi ministeriali stilati per le classi terze dei Licei Scientifici, come applicazione dello studio e dell'analisi della parabola e come preambolo per la trattazione di problemi isoperimetrici e geometrici. Si tratta, dunque, di risolvere dei problemi di massimo e minimo senza utilizzare la derivata, sfruttando solamente la parabola e l'aspetto grafico del problema. Da qui, l'importanza di soffermarsi sulla visualizzazione corretta della situazione problematica, facendo proprie le potenzialità di software didattici, come GeoGebra, che permettono agli studenti di risolvere le proprie difficoltà. Verrà quindi illustrato il percorso didattico progettato: i risultati teorici elaborati e le modalità di ragionamento; lo sviluppo storico che vi è dietro, soffermandosi sugli studi di alcuni matematici importanti; alcune applicazioni reali dell'ottimizzazione, mostrando specialmente qualche legame con la fisica. Viene riportato, anche, lo svolgimento di alcuni esercizi, confrontando sia la modalità più tradizionale che quella incentrata sulla costruzione grafica su GeoGebra. Nell'ultimo Capitolo, infine, viene fornita una analisi dei feedback e dei risultati relativa all'attività laboratoriale, che è stata presentata all'interno di una classe terza di un Liceo Scientifico: verranno esaminati i livelli di competenze raggiunti e gli eventuali vantaggi offerti da una trattazione di questo tipo.
Resumo:
In questa trattazione viene presentato lo studio di un modello a raggi che permette di simulare il comportamento macroscopico delle Superfici Intelligenti. L’ottimizzazione del canale radio, in particolare dell’ambiente di propagazione, si rivela fondamentale per la futura introduzione del 6G. Per la pianificazione della propagazione in ambienti ampi, risulta necessario implementare modelli di simulazione. I modelli a raggi possono essere integrati più facilmente all’interno di algoritmi per le previsioni di campo computazionalmente efficienti, come gli algoritmi di Ray Tracing. Nell’elaborato si è analizzato il comportamento del modello, con riferimento a tre funzioni tipiche realizzate da una Superficie Intelligente: il riflettore anomalo, la lente focalizzante e la lente defocalizzante. Attraverso una griglia di ricevitori è stato calcolato il campo dell’onda nelle varie configurazioni. Infine, si sono confrontati i risultati ottenuti con quelli del modello elettromagnetico.