512 resultados para Ylitalo, Essi
Resumo:
L'adroterapia è una delle tecniche utilizzate ad oggi per trattare i tumori ed è basata sull'utilizzo di fasci di particelle cariche, come protoni e ioni carbonio, accelerati sulla zona da trattare. A differenza dei fotoni, utilizzati in radioterapia, le particelle cariche permettono un rilascio di energia più mirato, danneggiando il DNA delle cellule tumorali fino ad impedirne la duplicazione, senza intaccare i tessuti sani circostanti. Per sfruttare al meglio questa tecnica è necessario conoscere a fondo i processi di frammentazione nucleare che possono avere luogo durante il trattamento, sui quali si hanno ancora insufficienti dati sperimentali, in particolare a proposito della frammentazione del bersaglio. L'esperimento FOOT (FragmentatiOn Of Target) nasce proprio per poter misurare le sezioni d'urto differenziali dei processi di frammentazione nucleare alle tipiche energie dell'adroterapia, dai 60 MeV/u ai 400 MeV/u. Allo stato attuale l'esperimento è dotato di un apparato per la rivelazione di frammenti carichi pesanti e uno per quelli leggeri, mentre non ha un sistema di rivelazione per le particelle neutre. Si sta quindi valutando la possibilità di aggiungere rivelatori di neutroni, per esempio gli scintillatori liquidi BC-501A, i quali permettono di discriminare fotoni da neutroni grazie alla diversa forma del segnale prodotto (Pulse Shape Discrimination). Per studiare le prestazioni di questi rivelatori, essi si stanno attualmente testando alla facility n_TOF del CERN con diverse sorgenti di particelle. In questo lavoro di tesi mi sono occupata di analizzare i segnali raccolti da due BC-501A con una sorgente AmBe di raggi γ e neutroni, con schermo in piombo, e con una sorgente 88Y di soli raggi γ, evidenziando le buone capacità di questi rivelatori di identificare correttamente neutroni e fotoni.
Resumo:
Le criticità sorte in seguito alla diffusione della Pandemia da Covid-19, a partire dal 2020, sono numerose. In tal senso, all’interno della logistica, rivestono un ruolo molto rilevante i numerosi ritardi nelle consegne, che trovano maggiore evidenza nelle spedizioni via mare. Pertanto, l’adozione di strategie volte ad aumentare la resilienza delle catene di approvvigionamento, rendendole in grado di resistere alle criticità del presente e alle possibili evoluzioni del futuro, diventa sempre più importante. L’obiettivo del presente studio è l’individuazione di una strategia che permetta di rispondere alle criticità legate ai ritardi nelle consegne dei materiali, per ridurre i problemi da essi causati. L’azienda in cui questo studio è stato svolto è la Ducati Motor Holding S.p.A., produttrice di motocicli. Infatti, nelle aziende manifatturiere, il ritardo nell’arrivo dei componenti determina delle conseguenze nella produzione ed eventuali ritardi nella consegna del prodotto finito. Per fronteggiare queste difficoltà, il metodo individuato consiste nell’analisi dei dati storici relativi ai ritardi rilevati e nella previsione dei ritardi futuri, utilizzando le tecniche di previsione basate sulle serie storiche. L’individuazione del numero di giorni di ritardo previsti viene utilizzata per determinare ogni mese il margine di copertura ottimale con cui effettuare gli ordini ai fornitori, in modo da evitare problemi nella produzione. Questo margine di copertura è definito dinamico, poiché non è fissato tutto l’anno per un medesimo materiale, ma varia ogni mese in base alle previsioni effettuate, garantendo così la flessibilità necessaria per rispondere alle contingenze esterne. In questo modo, riducendo i ritardi nelle consegne e, di conseguenza, i ritardi nella produzione, si ottiene un risparmio economico in termini di costi da sostenere, considerando i costi di stoccaggio e i costi di recupero delle moto incomplete.
Resumo:
Lo studio che verrà presentato in questo lavoro di tesi riguarda la caratterizzazione di Silicon PhotoMultiplier (SiPM): essi sono sensori a semiconduttore che sono stati proposti per la realizzazione del layer Time-Of-Flight (TOF) del nuovo esperimento proposto ad LHC, ALICE 3. Sono stati testati sensori diversi, sia in termini di casa di fabbricazione (FBK o HPK), sia in termini di struttura; in particolare, i modelli a disposizione di produzione FBK sono singoli SPAD, singoli SiPM e mini-array di SiPM, mentre i modelli HPK sono tutti singoli SiPM. La caratterizzazione è avvenuta mediante misure di corrente e capacità del sensore al variare della tensione (curve IV e curve CV); l'obiettivo primario è studiare e confrontare tali andamenti, in modo da poter selezionare i sensori con caratteristiche simili per la costruzione del layer del TOF. Si è osservato che sensori della stessa casa produttrice e con la stessa struttura interna esibiscono comportamenti quasi sovrapponibili, dimostrando in generale una ottima uniformità.
Resumo:
Il presente elaborato di tesi è stato realizzato coerentemente con quanto osservato in Cefla s.c., azienda italiana composta attualmente da 4 Business Unit che operano a livello internazionale in settori distinti. I temi trattati riguardano nel dettaglio la Business Unit Medical Equipment, la quale realizza prodotti a supporto del professionista sanitario in tutte le fasi della sua attività, comprendendo riuniti odontoiatrici, apparecchiature per l’imaging e radiologia digitale e sistemi di sterilizzazione. L’obiettivo di questo elaborato è quello di descrivere l’attuale processo di Sales & Operations Planning all’interno di questa divisione dell’azienda e contribuire alla progettazione del piano per la sua strutturazione, reso necessario dalla situazione di forte criticità che Cefla s.c. è stata costretta ad affrontare. Vengono quindi descritte le problematiche che caratterizzano i processi interni all’azienda allo stato attuale, la cui valutazione è stata supportata da consulenti esterni, al fine di evidenziare gli aspetti più critici ed elaborare proposte di miglioramento. Queste ultime sono distinte in funzione delle diverse figure coinvolte che hanno contribuito alla loro realizzazione e ai sottoprocessi interessati e che costituiscono il Sales & Operations Planning: Sales Forecasting, Demand Planning e Supply Planning. In particolare, vengono approfonditi i processi che riguardano la previsione della domanda, in quanto per essi è stato possibile collaborare nell’elaborazione di proposte di miglioramento mirate. Visti i tempi medio lunghi che caratterizzano le soluzioni proposte all’azienda si è cercato di contribuire con la progettazione di proposte quick-win in ambito di Sales Forecasting e Demand Planning. Infine, si è tentato di quantificare i costi sostenuti da Cefla s.c. per far fronte alla situazione di criticità affrontata tramite valutazioni economiche e KPI, potendo così stimare l’impatto dato dall’implementazione di proposte di miglioramento.
Resumo:
L’architettura è costituita da molteplici aspetti e fenomeni, che compaiono durante il processo di elaborazione sfociando poi nello spazio costruito, suo elemento tangibile. Un processo complesso che inizia dal disegno, dal veloce schizzo che riassume quasi sempre l’intenzione ultima che vede luce e realizzazione solo attraverso la combinazione e giustapposizione di elementi architettonici. Il processo successivamente diviene realtà, cosa che richiede sia una formulazione materica che progettuale, poiché ognuno di essi aprono le porte di un mondo pieno di visioni ricche e profonde. La seguente tesi curriculare è una rilettura del mio percorso di studio che interpreta questo processo con particolare attenzione ai temi di disegno, costruzione e progetto.
Resumo:
La Materia Oscura (Dark Matter, DM) deve il suo nome al fatto che non interagisce elettromagneticamente, ma solo gravitazionalmente e debolmente (proprietà che ne complica particolarmente la rivelazione). Molti sforzi, sia sperimentali che teorici, sono stati dedicati alla sua ricerca a tal punto da essere considerata uno dei più grandi misteri della fisica moderna. I candidati più promettenti a costituire la materia oscura sono da ricercarsi in teorie oltre il Modello Standard e fra essi figurano le WIMPs (Weakly Interacting Massive Particles). Poiché le particelle di DM sono caratterizzate da sezioni d’urto molto piccole, per poterle osservare si necessita di grandi rivelatori, ultrapuri e situati in ambienti a bassa radioattività. XENONnT è attualmente uno degli esperimenti più sensibili al mondo per la ricerca diretta di WIMPs, grazie all’utilizzo di una camera di proiezione temporale (TPC) a doppia fase (liquido-gas) che presenta una massa bersaglio di 5.9 t di xenon liquido (LXe). XENONnT mira a rilevare lo scattering di WIMPs contro i nuclei bersaglio, sfruttando i segnali osservabili di luce e carica prodotti dai rinculi nel LXe. Per raggiungere tale risultato sono fondamentali il sistema di veto di neutroni (Neutron Veto, NV) ed il sistema di veto di muoni (Muon Veto, MV): il NV ha lo scopo di rivelare i neutroni radiogenici provenienti dai materiali dell’esperimento mentre il MV (già impiegato in XENON1T) ha la finalità di eliminare il rumore di fondo dovuto ai raggi cosmici. L'obiettivo di questa tesi è lo studio degli eventi muone osservati dal MV ed il NV di XENONnT; misurarne il rate e verificare la congruenza dei risultati ottenuti con quanto atteso da simulazioni Monte Carlo. Questa prova ha costituito un'ulteriore verifica del corretto funzionamento dei sistemi di veto, ed ha permesso di approfondire la conoscenza sulla risposta del Neutron Veto al passaggio di un muone all’interno del suo volume attivo.
Resumo:
Esposizione problemi di Sturm-Liouville regolari 1D e di un metodo di risoluzione per essi, ovvero il metodo della funzione di Green. Definizione di autovalori e autofunzioni per tali problemi e proprietà legate ad essi sfruttando anche le proprietà della funzione di Green, in particolare il risultato più importante sarà quello che le autofunzioni costituiscono una base ortonormale in L^2(I) dove I è un intervallo.
Resumo:
Studio della teoria dei processi di semi-Markov nella modellizzazione a tempo discreto. Introduzione delle catene di rinnovo di Markov, del nucleo di semi-Markov e delle catene di semi-Markov, risultati ad essi relativi. Analisi delle equazioni di rinnovo di Markov, caratterizzazione degli stati di una catena di semi-Markov, teorema di esistenza e unicità dell'equazione di rinnovo di Markov. Un esempio concreto.
Resumo:
La financial literacy viene definita dall’Ocse come il processo per mezzo del quale i cittadini migliorano la loro comprensione su prodotti finanziari, i concetti ad essi correlati e i rischi associati e, attraverso l’informazione, l’istruzione e consigli oggettivi, sviluppano le capacità e la fiducia nella propria consapevolezza dei rischi e delle opportunità finanziarie, di sapere dove chiedere aiuto, e intraprendere altre azioni efficaci per migliorare il proprio benessere economico. Attraverso una contestualizzazione sociale, scolastica e metodologica, il lavoro di tesi si propone di indagare i livelli di financial literacy tra gli studenti di quattro classi superiori di diverso grado. Una prima indagine avviene attraverso un pre-test sulle conoscenze finanziarie, cultura e rapporto affettivo con il mondo finanziario. Successivamente viene proposto un percorso composto da tre attività originali riguardanti il “gioco in borsa”, la pianificazione e il futuro, e le leggi finanziarie. Si analizzano: l’applicazione di conoscenze matematiche, i ragionamenti e gli atteggiamenti degli studenti nelle quattro classi.
Resumo:
In questa tesi viene trattata la problematica di determinare le migliori K soluzioni per due problemi di ottimizzazione, il Knapsack Problem 0-1 e lo Shortest Path Problem. Tali soluzioni possono essere impiegate all'interno di metodi di column generation per la risoluzione di problemi reali, ad esempio Bin Packing Problems e problemi di scheduling di veicoli ed equipaggi. Sono stati implementati, per verificarne sperimentalmente le prestazioni, nuovi algoritmi di programmazione dinamica, sviluppati nell’ambito di un programma di ricerca. Inizialmente, per entrambi i problemi, è stato descritto un algoritmo che determinasse le migliori K soluzioni per ogni possibile sottoproblema; partendo da uno zaino con capacità nulla, nel caso del Knapsack Problem 0-1, e dalla determinazione di un cammino dal vertice sorgente in se stesso per lo Shortest Path Problem, l’algoritmo determina le migliori soluzioni di sottoproblemi via via sempre più grandi, utilizzando le soluzioni costruite per gli stati precedenti, fino a ottenere le migliori soluzioni del problema globale. Successivamente, è stato definito un algoritmo basato su un approccio di ricorsione backward; in questo caso si utilizza una funzione ricorsiva che, chiamata a partire dallo stato corrispondente al problema globale, viene richiamata solo sugli stati intermedi strettamente necessari, e per ognuno di essi non vengono determinate soluzioni superflue.
Resumo:
Level Design, materia necessaria per la creazione dei livelli, degli ambienti e delle architetture presenti nei giochi digitali. Creare un ambiente di gioco ottimale sviluppando spazi efficaci che siano in grado di comunicare al giocatore per far sì che possa provare esperienze significanti. In questa tesi verrà argomentata la disciplina del Level Design e come essa si applica per creare dei livelli di gioco. Verrà spiegato cosa è il Level Design e quali sono i suoi elementi principali e come essi si legano con tutti gli altri elementi ludici.
Resumo:
Introduzione: In seguito ad una distorsione di caviglia, circa il 40% dei soggetti tende a sviluppare sintomi ricorrenti e persistenti, come dolore, gonfiore, alterazione della percezione o recidive, che a lungo termine potrebbero portare ad una instabilità cronica di caviglia. Questa problematica potrebbe limitare i soggetti nelle varie attività della vita quotidiana e nelle attività sportive, riducendo la loro qualità della vita. Solitamente, il trattamento in seguito ad una distorsione o in soggetti affetti da instabilità cronica di caviglia è il training propriocettivo. Obiettivi: Confrontare gli studi raccolti e i risultati ottenuti da essi e valutare se il training propriocettivo potrebbe essere efficace o meno nei soggetti che presentano l’instabilità cronica di caviglia. Metodi di ricerca: Le ricerche per questa revisione sistematica sono state fatte sulle banche dati “PubMed”, “PEDro” e “Cochrane Library”. Le parole chiave utilizzate sono “ankle sprains”, “chronic ankle instability”, “ankle injuries”, “proprioceptive training”, “proprioception”, “pain”, “disability” e “quality of life”. Sono stati inclusi soltanto RCTs inerenti al quesito di ricerca (PICOS) e conformi ai criteri di eleggibilità. Risultati: In questa revisione sistematica sono stati inclusi 4 RCTs, che mettono a confronto il training propriocettivo con altre metodiche riabilitative. Si sono osservati miglioramenti per quanto riguarda la disabilità, la qualità di vita, l’equilibrio dinamico, l’equilibrio statico e gli outcome riportati dai partecipanti. Conclusioni: Il training propriocettivo risulta essere efficace nel migliorare la sintomatologia data dall’instabilità cronica di caviglia e anche la stabilità e propriocezione dell’articolazione. Si dovrebbero eseguire ulteriori studi per approfondire l'efficacia di questo trattamento sul dolore e anche la sua efficacia a lungo termine.
Resumo:
La perfusione ex-vivo, ossia dopo il prelievo e prima del trapianto, degli organi si afferma come una delle possibili strategie per superare il divario esistente tra il numero dei pazienti in lista d’attesa e il numero degli organi disponibili e idonei al trapianto. Questo divario ha portato alla necessità di includere tra i donatori anche quelli marginali (anziani, con comorbidità, con cause di morte come l’arresto cardiaco e tempi di ischemia), fino ad oggi considerati non trapiantabili. L’utilizzo di questi organi ha messo in evidenza alcuni limiti di quella che, ad oggi, è stata considerata la tecnica di riferimento per la preservazione ex-vivo degli organi: la conservazione statica ipotermica che risulta, infatti, efficace per gli organi ottimali, mentre per quelli più compromessi, sembra accentuare di più il danno d’organo e incrementare il rischio di fallimento o di complicazioni. Si sono, perciò, affermate tecniche di conservazione dinamica per poter conservare gli organi in un ambiente simil-fisiologico, limitando i tempi di ischemia, valutandone la funzionalità ed eventualmente applicando dei trattamenti terapeutici. I diversi protocolli di perfusione sono stati implementati in numerosi sistemi per l’esecuzione dei trattamenti di perfusione ex-vivo. Essi differiscono principalmentente per la modalità termica eseguita: ipotermia (4-12°C), midtermia (13-24°C), subnormotermia (25-35°C), normotermia (35-37°C) o modalità combinate: tanto più la temperatura si avvicina a quella del corpo, tanto più occorre ricreare un ambiente fisiologico per l’organo. L’analisi delle unità termiche costituenti i sistemi di perfusione dei reni e fegati disponibili ha messo in evidenza i principali limiti e vantaggi di ogni soluzione adottata. Risulta evidente che una gestione ideale della termoregolazione constente di coprire i più vasti intervalli di temperatura, di combinare le diverse modalità, senza complicazioni esecutive e con limitati interventi da parte dell’operatore.
Resumo:
L'insufficienza cardiaca è una delle malattie cardiovascolari più comuni, nonché quella con maggiori tassi di riospedalizzazione. Nonostante numerosi pazienti siano sottoposti a impianto di defibrillatori cardiaci, come pacemaker e ICD, questo non è sufficiente a diminuire i casi di ricovero. L'innovazione tecnologica dei dispositivi impiantabili li ha resi compatibili con l'utilizzo del monitoraggio remoto che avviene attraverso la trasmissione di un enorme quantità di dati eterogenei, noti come Big Data. Questi offrono la possibilità di rilevare numerosi parametri da cui è possibile valutare il funzionamento del dispositivo e implementare algoritmi di medicina predittiva. In questo elaborato sono analizzati quattro casi studio (cardioMEMS, TRIAGE-HF, SELENE HF, multiSENSE), con lo scopo di confrontare gli algoritmi predittivi in essi sviluppati. Da questi studi, condotti su un insieme ristretto di campioni, è emerso che lo scompenso è predetto correttamente, ma con una previsione di riospedalizzazione a seguito di intervento che differisce in ogni studio clinico. Nello studio MultiSENSE, l'algoritmo ha previsto il 70% delle ospedalizzazioni, con un tempo medio di rilevamento di 34 giorni e 1,47 allarmi inspiegabili per anno-paziente. Questo rispetto al 65,5% e a un tempo medio di 42 giorni e rispetto a 0,63 allarmi inspiegabili per anno-paziente, nel SELENE HF. Nel caso del Triage-HF il tasso di ospedalizzazione è dello 0,2% per anno-paziente, in quanto lo studio è basato sull'associazione tra l'algoritmo e i sintomi che caratterizzano lo scompenso. Al contrario degli altri studi, lo studio cardioMEMS si è occupato di sviluppare una nuova tecnologia: un dispositivo wireless impiantabile; infatti, risulta l'unico studio con un monitoraggio remoto invasivo. Considerando la presenza di numerosi gradi di peggioramento dello scompenso e di differenti dispositivi impiantabili cardiaci è difficile creare un unico algoritmo che includa tutte le tipologie di pazienti.
Resumo:
I sistemi di trasporto dell’energia elettrica per lunghe distanze possono dimostrarsi convenienti attraverso l’utilizzo di cavi in corrente continua ad alta tensione (HVDC). Essi possono essere installati seguendo la classica configurazione aerea, oppure interrati, dove le difficili condizioni ambientali, possono portare alla degradazione dei materiali. I materiali polimerici che costituiscono l’isolamento del cavo sono soggetti ad invecchiamento, diventando sempre più fragili e poco affidabili sia a seguito delle condizioni ambientali che dall’applicazione dell’alta tensione, che comporta un forte campo elettrico fra la superficie del conduttore e l’isolante esterno. Per determinare l’integrità e le caratteristiche dei materiali polimerici si utilizzano tecniche diagnostiche. Molte tecniche prevedono però la distruzione del materiale, quindi se ne cercano altre non distruttive. Questa tesi studia gli effetti dell’aggiunta di un additivo alla matrice polimerica del materiale isolante, utilizzando la tecnica di spettroscopia dielettrica, la misura di conducibilità e il metodo dell’impulso elettroacustico. I provini testati sono costituiti da una matrice di polipropilene e polipropilene additivato con nitruro di boro, testati alle temperature di 20, 40, 70°C. In particolare, il primo capitolo introduce i sistemi HVDC, per poi presentare le caratteristiche e le proprietà dei materiali nanodielettrici. Nella terza parte si descrive il set sperimentale utilizzato nelle prove condotte. Nei capitoli 4 e 5 sono riportati i risultati ottenuti e la loro discussione.