154 resultados para 617.9 Tecnica operatoria e campi speciali della chirurgia
Resumo:
Con lo sviluppo di nuovi sistemi di telecomunicazione e con i progressi nelle applicazioni mediche ed industriali, l’uomo è sempre più esposto a campi elettromagnetici. Sorge quindi la volontà di indagare sui loro potenziali effetti nocivi, manifestatasi nel corso di diversi decenni di ricerca. Risultano di particolare interesse sanitario i campi elettromagnetici ad alta frequenza (HF-EMF) prodotti dai telefoni cellulari, in quanto il loro utilizzo implica il posizionamento dell’apparecchio in prossimità dell’orecchio, e quindi del cervello. Nel 2011 l’Agenzia Internazionale dell'OMS per la Ricerca sul Cancro (IARC), ha classificato gli HF-EMF come “possibilmente cancerogeni”, in quanto l’evidenza epidemiologica è stata giudicata “limitata”. Successivamente l’OMS si è espressa in favore di ulteriori ricerche giustificate dal crescente uso di telefoni cellulari, mentre non è stata richiesta l’adozione di misure precauzionali di limitazione al loro utilizzo. Emerge dunque la necessità di proseguire gli studi, che con questa tesi abbiamo indirizzato all’enzima acetilcolinesterasi (AChE). L’AChE svolge un ruolo importante nella trasmissione sinaptica in quanto catalizza l’idrolisi dell’acetilcolina (ACh), importante neurotrasmettitore nel sistema nervoso umano e animale. Lo studio dell’attività dell’AChE presenta una rilevante importanza dal punto di vista sanitario considerando che il deterioramento progressivo delle cellule neuronali, riscontrato nel Morbo di Alzheimer, è attribuito ad una diminuzione del livello del neurotrasmettitore ACh (Lane et al. 2005). A partire dagli anni 80, sono stati svolti studi sull’attività dell’enzima a seguito di esposizioni a EMF, i quali hanno evidenziato nella maggior parte dei casi un cambiamento dell’attività stessa. Il presente lavoro si avvale di un valido sistema di irraggiamento ad alta frequenza che simula l’esposizione ai segnali GSM; lo studio è stato svolto sulla linea cellulare PC12, cellule tumorali derivanti da feocromocitoma di ratto capaci di secernere e immagazzinare ACh e AChE. Sono state valutate in particolare l’attività enzimatica e l’espressione genica dell’AChE nelle cellule PC12 esposte ad una frequenza portante di 1,8 GHz con frequenza di modulazione di 217 Hz, condizioni alle quali lavorano comunemente gli apparati di telefonia mobile in modalità GSM, per un periodo di 24 h. I risultati ottenuti mostrano un aumento dell’attività dell’enzima AChE dei campioni irraggiati rispetto ai controlli, con variazione della Vmax ma non della Km, mentre non è stata rilevata alcuna variazione significativa dell’espressione genica, analizzata mediante PCR real-time. Nelle cellule PC12, si aveva una maggiore attività ed espressione genica dell’enzima in cellule trattate con forskolin e dbcAMP, impiegati come stimoli positivi. Questi risultati suggeriscono il coinvolgimento del sistema AMPc–dipendente nel controllo dell’espressione genica dell’enzima. L’AMPc, pur agendo tipicamente come secondo messaggero nella trasduzione del segnale chimico, in molte cellule di diversi organismi sembra essere aumentato anche in condizioni di stress. In particolare l’effetto si esplicava infatti sulla isoforma AChER, indotta in condizioni di stress. Il fatto che l’aumento dell’attività enzimatica di AChE indotto da HF-EMF non sia associato né all’aumento dell’affinità per il substrato, né all’aumento del numero di molecole, suggerisce l’ipotesi che i campi elettromagnetici ad alta frequenza agiscano sul microambiente di membrana che circonda l’enzima, per esempio determinando cambiamenti delle condizioni all’interno della matrice lipidica, influenzando fortemente la sua attività. Sarà interessante valutare in futuro come l’aumento della Vmax di reazione venga indotto in assenza di aumento dei trascritti genici. In conclusione il presente lavoro non fornisce risposte circa gli effetti del segnale GSM sulla salute umana, ma consente di affermare l’esistenza di un’interazione dei campi elettromagnetici con il modello biologico da noi utilizzato, richiamando l’attenzione sull’attività di questo enzima come possibile “indicatore” dell’interazione cellulare con tali segnali. Tale “indicatore”, ricercato da molti anni, non è mai stato individuato.
Resumo:
La carbamazepina fu commercializzata a partire dagli anni Sessanta; è un analgesico anticonvulsivante e specifico per la nevralgia del trigemino ed è uno dei principali farmaci usati nel trattamento dell’epilessia. La sua azione più nota a livello del sistema nervoso è quella di rallentare il recupero dei canali al sodio, sebbene abbia anche effetti metabolici importanti interferendo con il ciclo degli inositoli e con la GSK-3 (glicogeno sintasi-chinasi 3). Tale sostanza è sotto la lente d’ingrandimento sia per le sue caratteristiche chimico-fisiche (vedi la sua alta persistenza in ambiente) sia per la sua alta tossicità per la salute umana. Le sue proprietà terapeutiche spesso sono accompagnate da effetti collaterali sia nei pazienti che assumono direttamente il medicinale, sia negli organismi non-bersaglio che vengono a contatto con i residui ed i metaboliti del farmaco in ambiente. Le principali fonti di contaminazione dell’ambiente sono rappresentate dagli scarichi domestici, urbani, ospedalieri ed industriali e dagli effluenti di impianti di depurazione. Inoltre, l’uso irriguo di acque contenenti residui del farmaco oppure fenomeni di esondazione di corpi idrici contaminati contribuiscono ampiamente alla distribuzione di questo composto nei suoli. La matrice suolo ha avuto relativamente poca attenzione per quanto riguarda gli effetti dell’inquinamento sugli organismi in generale, ed in particolare non vi sono studi sui farmaci. Il presupposto di questo studio dunque è stato quello di mettere a punto una metodologia volta a valutare gli effetti all’esposizione del farmaco carbamazepina su organismi bioindicatori, i lombrichi della specie Eisenia andrei. Il seguente progetto è durato da Maggio 2012 a Febbraio 2013, periodo in cui sono stati effettuati saggi sub cronici per valutare l’effetto di suoli sperimentalmente contaminati con il farmaco sui parametri del ciclo vitale del lombrico (accrescimento, mortalità e riproduzione) e su una serie di biomarker cellulari (neutral red retention assay, accumulo lisosomiale di lipofuscine, accumulo lisosomiale di lipidi neutri insaturi, attività dell’enzima acetilcolinsterasi, attività dell’enzima catalasi, attività dell’ enzima glutatione-S-transferasi e concentrazione di malondialdeide). I risultati ottenuti mostrano che la carbamazepina non ha effetti sui parametri del ciclo vitale. Per quanto riguarda i parametri fisiologici si notano tuttavia dei risultati diversi. L’accumulo lisosomiale di lipofuscine e lipidi neutri indica che il metabolismo dei vermi risulta in qualche modo alterato dall’esposizione alla carbamazepina alle concentrazioni saggiate. Queste alterazioni potrebbero essere spiegate da un effetto di tipo ossidante; infatti i due biomarker oltre a rappresentare un segnale di alterazione metabolica rappresentano anche un indicazione di perossidazione lipidica. Queste osservazioni meritano di essere approfondite studiando il bioaccumulo e la degradazione della carbamazepina nei suoli, che potrebbero essere alla base della diversità di risultati rispetto alla tossicità evidenziata negli organismi acquatici. A fronte della consapevolezza dei rischi potenziali dovuti alla presenza di farmaci nelle acque e nel suolo, molto resta da fare per ampliare le conoscenze su questa tipologia di contaminazione, in particolare nei campi del monitoraggio e del comportamento ambientale, degli studi ecotossicologici e delle procedure e tecnologie idonee a limitare la loro immissione nell’ambiente.
Resumo:
Scopo principale della tesi è quello di presentare alcuni aspetti quantistici di un siste- ma fisico intermedio fra la buca infinita di potenziale e l’oscillatore armonico: una buca di potenziale con le pareti elastiche. Per questo tipo di potenziale si determinano le autofunzioni dell’energia attraverso l’u- tilizzo di equazioni differenziali di Kummer, Whittaker o Weber. Si determina inoltre lo spettro energetico di tale sistema sotto forma di un’equazione trascendente, e ne si analizza il comportamento sotto determinati limiti, dapprima in approssimazione zero e successivamente in prima approssimazione. Segue una breve trattazione sul propagatore quantistico e sulla sua forma in approssi- mazione semiclassica fornita dalla formula di Pauli - van Vleck - Morette, completa di alcuni esempi di calcolo esplicito relativo a semplici potenziali che presentano analogie con il potenziale in oggetto, e di confronti fra le forme esatte di tali propagatori e le loro approssimazioni semiclassiche. È calcolato infine anche il propagatore quantistico per la buca di potenziale con pareti elastiche, nella sua forma semiclassica
Resumo:
In questa tesi abbiamo studiato la quantizzazione di una teoria di gauge di forme differenziali su spazi complessi dotati di una metrica di Kaehler. La particolarità di queste teorie risiede nel fatto che esse presentano invarianze di gauge riducibili, in altre parole non indipendenti tra loro. L'invarianza sotto trasformazioni di gauge rappresenta uno dei pilastri della moderna comprensione del mondo fisico. La caratteristica principale di tali teorie è che non tutte le variabili sono effettivamente presenti nella dinamica e alcune risultano essere ausiliarie. Il motivo per cui si preferisce adottare questo punto di vista è spesso il fatto che tali teorie risultano essere manifestamente covarianti sotto importanti gruppi di simmetria come il gruppo di Lorentz. Uno dei metodi più usati nella quantizzazione delle teorie di campo con simmetrie di gauge, richiede l'introduzione di campi non fisici detti ghosts e di una simmetria globale e fermionica che sostituisce l'iniziale invarianza locale di gauge, la simmetria BRST. Nella presente tesi abbiamo scelto di utilizzare uno dei più moderni formalismi per il trattamento delle teorie di gauge: il formalismo BRST Lagrangiano di Batalin-Vilkovisky. Questo metodo prevede l'introduzione di ghosts per ogni grado di riducibilità delle trasformazioni di gauge e di opportuni “antifields" associati a ogni campo precedentemente introdotto. Questo formalismo ci ha permesso di arrivare direttamente a una completa formulazione in termini di path integral della teoria quantistica delle (p,0)-forme. In particolare esso permette di dedurre correttamente la struttura dei ghost della teoria e la simmetria BRST associata. Per ottenere questa struttura è richiesta necessariamente una procedura di gauge fixing per eliminare completamente l'invarianza sotto trasformazioni di gauge. Tale procedura prevede l'eliminazione degli antifields in favore dei campi originali e dei ghosts e permette di implementare, direttamente nel path integral condizioni di gauge fixing covarianti necessari per definire correttamente i propagatori della teoria. Nell'ultima parte abbiamo presentato un’espansione dell’azione efficace (euclidea) che permette di studiare le divergenze della teoria. In particolare abbiamo calcolato i primi coefficienti di tale espansione (coefficienti di Seeley-DeWitt) tramite la tecnica dell'heat kernel. Questo calcolo ha tenuto conto dell'eventuale accoppiamento a una metrica di background cosi come di un possibile ulteriore accoppiamento alla traccia della connessione associata alla metrica.
Resumo:
In questo studio si esamina la ricostruzione di Porta Aurea a Ravenna, edificio di epoca romana ormai scomparsa ma di cui rimangono molti documenti sia a livello di tradizione storica locale che per quanto riguarda disegni di illustri architetti come Andrea Palladio. Il processo di ricostruzione si articola sull’uso di materiale distintamente catalogato a seconda di diversi gradi di incertezza. Per giungere alla costruzione sono state effettuate anche due campagne di rilievo con la tecnica di acquisizione del Laser Scanner Leica C10 all-in-one. La prima presso il Museo Nazionale di Ravenna, dove sono tutt’oggi conservati alcuni frammenti architettonici di pregio provenienti da Porta Aurea. Una seconda indagine di rilievo è stata invece effettuata presso le mura di Ravenna in Via di Porta Aurea ove rimangono i resti delle porzioni di mura o meglio torrioni verticali che incorniciavano il monumento ravennate. Sintesi finale di questo lavoro è il raggiungimento di un modello “possibile” ma comunque ideale desunto dall’intreccio di diverse fonti iconografiche al fine di una possibile fruizione museale presso lo stesso Museo Nazionale di Ravenna.
Resumo:
Numerosi incidenti verificatisi negli ultimi dieci anni in campo chimico e petrolchimico sono dovuti all’innesco di sostanze infiammabili rilasciate accidentalmente: per questo motivo gli scenari incidentali legati ad incendi esterni rivestono oggigiorno un interesse crescente, in particolar modo nell’industria di processo, in quanto possono essere causa di ingenti danni sia ai lavoratori ed alla popolazione, sia alle strutture. Gli incendi, come mostrato da alcuni studi, sono uno dei più frequenti scenari incidentali nell’industria di processo, secondi solo alla perdita di contenimento di sostanze pericolose. Questi eventi primari possono, a loro volta, determinare eventi secondari, con conseguenze catastrofiche dovute alla propagazione delle fiamme ad apparecchiature e tubazioni non direttamente coinvolte nell’incidente primario; tale fenomeno prende il nome di effetto domino. La necessità di ridurre le probabilità di effetto domino rende la mitigazione delle conseguenze un aspetto fondamentale nella progettazione dell’impianto. A questo scopo si impiegano i materiali per la protezione passiva da fuoco (Passive Fire Protection o PFP); essi sono sistemi isolanti impiegati per proteggere efficacemente apparecchiature e tubazioni industriali da scenari di incendio esterno. L’applicazione dei materiali per PFP limita l’incremento di temperatura degli elementi protetti; questo scopo viene raggiunto tramite l’impiego di differenti tipologie di prodotti e materiali. Tuttavia l’applicazione dei suddetti materiali fireproofing non può prescindere da una caratterizzazione delle proprietà termiche, in particolar modo della conducibilità termica, in condizioni che simulino l’esposizione a fuoco. Nel presente elaborato di tesi si è scelto di analizzare tre materiali coibenti, tutti appartenenti, pur con diversità di composizione e struttura, alla classe dei materiali inorganici fibrosi: Fibercon Silica Needled Blanket 1200, Pyrogel®XT, Rockwool Marine Firebatt 100. I tre materiali sono costituiti da una fase solida inorganica, differente per ciascuno di essi e da una fase gassosa, preponderante come frazione volumetrica. I materiali inorganici fibrosi rivestono una notevole importanza rispetto ad altri materiali fireproofing in quanto possono resistere a temperature estremamente elevate, talvolta superiori a 1000 °C, senza particolari modifiche chimico-fisiche. Questo vantaggio, unito alla versatilità ed alla semplicità di applicazione, li rende leader a livello europeo nei materiali isolanti, con una fetta di mercato pari circa al 60%. Nonostante l’impiego dei suddetti materiali sia ormai una realtà consolidata nell’industria di processo, allo stato attuale sono disponibili pochi studi relativi alle loro proprietà termiche, in particolare in condizioni di fuoco. L’analisi sperimentale svolta ha consentito di identificare e modellare il comportamento termico di tali materiali in caso di esposizione a fuoco, impiegando nei test, a pressione atmosferica, un campo di temperatura compreso tra 20°C e 700°C, di interesse per applicazioni fireproofing. Per lo studio delle caratteristiche e la valutazione delle proprietà termiche dei tre materiali è stata impiegata principalmente la tecnica Transient Plane Source (TPS), che ha consentito la determinazione non solo della conducibilità termica, ma anche della diffusività termica e della capacità termica volumetrica, seppure con un grado di accuratezza inferiore. I test sono stati svolti su scala di laboratorio, creando un set-up sperimentale che integrasse opportunamente lo strumento Hot Disk Thermal Constants Analyzer TPS 1500 con una fornace a camera ed un sistema di acquisizione dati. Sono state realizzate alcune prove preliminari a temperatura ambiente sui tre materiali in esame, per individuare i parametri operativi (dimensione sensori, tempi di acquisizione, etc.) maggiormente idonei alla misura della conducibilità termica. Le informazioni acquisite sono state utilizzate per lo sviluppo di adeguati protocolli sperimentali e per effettuare prove ad alta temperatura. Ulteriori significative informazioni circa la morfologia, la porosità e la densità dei tre materiali sono state ottenute attraverso stereo-microscopia e picnometria a liquido. La porosità, o grado di vuoto, assume nei tre materiali un ruolo fondamentale, in quanto presenta valori compresi tra 85% e 95%, mentre la frazione solida ne costituisce la restante parte. Inoltre i risultati sperimentali hanno consentito di valutare, con prove a temperatura ambiente, l’isotropia rispetto alla trasmissione del calore per la classe di materiali coibenti analizzati, l’effetto della temperatura e della variazione del grado di vuoto (nel caso di materiali che durante l’applicazione possano essere soggetti a fenomeni di “schiacciamento”, ovvero riduzione del grado di vuoto) sulla conducibilità termica effettiva dei tre materiali analizzati. Analoghi risultati, seppure con grado di accuratezza lievemente inferiore, sono stati ottenuti per la diffusività termica e la capacità termica volumetrica. Poiché è nota la densità apparente di ciascun materiale si è scelto di calcolarne anche il calore specifico in funzione della temperatura, di cui si è proposto una correlazione empirica. I risultati sperimentali, concordi per i tre materiali in esame, hanno mostrato un incremento della conducibilità termica con la temperatura, da valori largamente inferiori a 0,1 W/(m∙K) a temperatura ambiente, fino a 0,3÷0,4 W/(m∙K) a 700°C. La sostanziale similitudine delle proprietà termiche tra i tre materiali, appartenenti alla medesima categoria di materiali isolanti, è stata riscontrata anche per la diffusività termica, la capacità termica volumetrica ed il calore specifico. Queste considerazioni hanno giustificato l’applicazione a tutti i tre materiali in esame dei medesimi modelli per descrivere la conducibilità termica effettiva, ritenuta, tra le proprietà fisiche determinate sperimentalmente, la più significativa nel caso di esposizione a fuoco. Lo sviluppo di un modello per la conducibilità termica effettiva si è reso necessario in quanto i risultati sperimentali ottenuti tramite la tecnica Transient Plane Source non forniscono alcuna informazione sui contributi offerti da ciascun meccanismo di scambio termico al termine complessivo e, pertanto, non consentono una facile generalizzazione della proprietà in funzione delle condizioni di impiego del materiale. La conducibilità termica dei materiali coibenti fibrosi e in generale dei materiali bi-fasici tiene infatti conto in un unico valore di vari contributi dipendenti dai diversi meccanismi di scambio termico presenti: conduzione nella fase gassosa e nel solido, irraggiamento nelle superfici delle cavità del solido e, talvolta, convezione; inoltre essa dipende fortemente dalla temperatura e dalla porosità. Pertanto, a partire dal confronto con i risultati sperimentali, tra cui densità e grado di vuoto, l’obiettivo centrale della seconda fase del progetto è stata la scelta, tra i numerosi modelli a disposizione in letteratura per materiali bi-fasici, di cui si è presentata una rassegna, dei più adatti a descrivere la conducibilità termica effettiva nei materiali in esame e nell’intervallo di temperatura di interesse, fornendo al contempo un significato fisico ai contributi apportati al termine complessivo. Inizialmente la scelta è ricaduta su cinque modelli, chiamati comunemente “modelli strutturali di base” (Serie, Parallelo, Maxwell-Eucken 1, Maxwell-Eucken 2, Effective Medium Theory) [1] per la loro semplicità e versatilità di applicazione. Tali modelli, puramente teorici, hanno mostrato al raffronto con i risultati sperimentali numerosi limiti, in particolar modo nella previsione del termine di irraggiamento, ovvero per temperature superiori a 400°C. Pertanto si è deciso di adottare un approccio semi-empirico: è stato applicato il modello di Krischer [2], ovvero una media pesata su un parametro empirico (f, da determinare) dei modelli Serie e Parallelo, precedentemente applicati. Anch’esso si è rivelato non idoneo alla descrizione dei materiali isolanti fibrosi in esame, per ragioni analoghe. Cercando di impiegare modelli caratterizzati da forte fondamento fisico e grado di complessità limitato, la scelta è caduta sui due recenti modelli, proposti rispettivamente da Karamanos, Papadopoulos, Anastasellos [3] e Daryabeigi, Cunnington, Knutson [4] [5]. Entrambi presentavano il vantaggio di essere stati utilizzati con successo per materiali isolanti fibrosi. Inizialmente i due modelli sono stati applicati con i valori dei parametri e le correlazioni proposte dagli Autori. Visti gli incoraggianti risultati, a questo primo approccio è seguita l’ottimizzazione dei parametri e l’applicazione di correlazioni maggiormente idonee ai materiali in esame, che ha mostrato l’efficacia dei modelli proposti da Karamanos, Papadopoulos, Anastasellos e Daryabeigi, Cunnington, Knutson per i tre materiali analizzati. Pertanto l’obiettivo finale del lavoro è stato raggiunto con successo in quanto sono stati applicati modelli di conducibilità termica con forte fondamento fisico e grado di complessità limitato che, con buon accordo ai risultati sperimentali ottenuti, consentono di ricavare equazioni predittive per la stima del comportamento, durante l’esposizione a fuoco, dei materiali fireproofing in esame. Bologna, Luglio 2013 Riferimenti bibliografici: [1] Wang J., Carson J.K., North M.F., Cleland D.J., A new approach to modelling the effective thermal conductivity of heterogeneous materials. International Journal of Heat and Mass Transfer 49 (2006) 3075-3083. [2] Krischer O., Die wissenschaftlichen Grundlagen der Trocknungstechnik (The Scientific Fundamentals of Drying Technology), Springer-Verlag, Berlino, 1963. [3] Karamanos A., Papadopoulos A., Anastasellos D., Heat Transfer phenomena in fibrous insulating materials. (2004) Geolan.gr http://www.geolan.gr/sappek/docs/publications/article_6.pdf Ultimo accesso: 1 Luglio 2013. [4] Daryabeigi K., Cunnington G. R., and Knutson J. R., Combined Heat Transfer in High-Porosity High-Temperature Fibrous Insulation: Theory and Experimental Validation. Journal of Thermophysics and Heat Transfer 25 (2011) 536-546. [5] Daryabeigi K., Cunnington G.R., Knutson J.R., Heat Transfer Modeling for Rigid High-Temperature Fibrous Insulation. Journal of Thermophysics and Heat Transfer. AIAA Early Edition/1 (2012).
Resumo:
La tesi presenta il nuovo sistema di raccolta rifiuti domiciliare integrale, con predisposizione alla tariffazione puntuale, avviato nel Comune di Casalecchio di Reno, in provincia di Bologna. Oltre alla descrizione tecnica ed organizzativa del nuovo servizio, sono stati confrontati i dati di tre periodi temporali con i relativi grafici di comparazione
Resumo:
Il presente lavoro è stato svolto presso la struttura di Fisica Medica dell'Azienda Ospedaliera IRCCS "Arcispedale S. Maria Nuova" di Reggio Emilia e consiste nello sviluppo di un sistema per l'ottimizzazione della dose in Radioterapia tramite dose-painting basato sui voxel. Il dose painting è una tecnica di pianificazione del trattamento di radioterapia che si basa sull'assegnazione o ridistribuzione della dose secondo le informazioni biologiche e metaboliche che i moderni sistemi di imaging sono in grado di fornire. La realizzazione del modulo di calcolo BioOPT è stata possibile grazie all'utilizzo dei due software open-source Plastimatch e CERR, specifici per l'elaborazione e la registrazione di immagini mediche di diversi tipi e formati e per la gestione, la modifica e il salvataggio di piani di trattamento di radioterapia creati con la maggior parte dei software commerciali ed accademici. Il sistema sviluppato è in grado di registrare le immagini relative ad un paziente, in generale ottenute da diverse tipologie di imaging e acquisite in tempi diversi ed estrarre le informazioni biologiche relative ad una certa struttura. Tali informazioni verranno poi utilizzate per calcolare le distribuzioni di dose "ottimale" che massimizzano il valore delle funzioni radiobiologiche utilizzate per guidare il processo di redistribuzione della dose a livello dei voxel (dose-painting). In questo lavoro il modulo è stato utilizzato principalmente per l'ottimizzazione della dose in pazienti affetti da Glioblastoma, un tumore cerebrale maligno tra i più diffusi e mortali. L'ottimizzatore voxel-based, infatti, è stato sviluppato per essere utilizzabile all'interno di un progetto di ricerca finanziato dal Ministero della Salute per la valutazione di un programma di terapia che include l'uso di un innovativo acceleratore lineare ad alto rateo di dose per la cura di tumori cerebrali in fase avanzata. Al fine di migliorare il trattamento radiante, inoltre, lo studio include la somministrazione della dose tramite dose-painting con lo scopo di verificarne l'efficacia. I risultati ottenuti mostrano che tramite il modulo sviluppato è possibile ottenere distribuzioni di dose eterogenee che tengono conto delle caratteristiche biologiche intratumore stimate a partire dalle immagini multimodali. Inoltre il sistema sviluppato, grazie alla sua natura 'open', è altamente personalizzabile a scopi di ricerca e consente di simulare distribuzioni di dose basate sui voxel e di confrontarle con quelle ottenute con i sistemi commerciali ad uso clinico, che non consentono questo tipo di ottimizzazioni.
Resumo:
Il lavoro riguarda la caratterizzazione fluidodinamica di un reattore agitato meccanicamente utilizzato per la produzione di biogas. Lo studio è stato possibile attraverso l’impiego della PIV (Particle Image Velocimetry), tecnica di diagnostica ottica non invasiva adatta a fornire misure quantitative dei campi di velocità delle fasi all’interno del reattore. La caratterizzazione è stata preceduta da una fase di messa a punto della tecnica, in modo da definire principalmente l’influenza dello spessore del fascio laser e dell’intervallo di tempo tra gli impulsi laser sui campi di moto ottenuti. In seguito, il reattore è stato esaminato in due configurazioni: con albero in posizione centrata e con albero in posizione eccentrica. Entrambe le geometrie sono state inoltre analizzate in condizione monofase e solido-liquido. Le prove in monofase con albero centrato hanno permesso di identificare un particolare regime transitorio del fluido nei primi minuti dopo la messa in funzione del sistema di agitazione, caratterizzato da una buona efficienza di miscelazione in tutta la sezione di analisi. In condizioni di regime stazionario, dopo circa 1 ora di agitazione, è stato invece osservato che il fluido nella zona vicino alla parete è essenzialmente stagnante. Sempre con albero centrato, le acquisizioni in condizione bifase hanno permesso di osservare la forte influenza che la presenza di particelle di solido ha sui campi di moto della fase liquida. Per l’assetto con albero in posizione eccentrica, in condizione monofase e regime di moto stazionario, è stata evidenziata una significativa influenza del livello di liquido all’interno del reattore sui campi di moto ottenuti: aumentando il livello scalato rispetto a quello usato nella pratica industriale è stato osservato un miglioramento dell’efficienza di miscelazione grazie al maggior lavoro svolto dal sistema di agitazione. In questa configurazione, inoltre, è stato effettuato un confronto tra i campi di moto indotti da due tipologie di giranti aventi stesso diametro, ma diversa geometria. Passando alla condizione bifase con albero eccentrico, i risultati hanno evidenziato la forte asimmetria del reattore: è stato evidenziato, infatti, come il sistema raggiunga regimi stazionari differenti a seconda delle velocità di rotazione e delle condizioni adottate per il raggiungimento della stabilità. Grazie alle prove su piani orizzontali del reattore in configurazione eccentrica e condizioni bifase, è stato concluso che i sistemi in uso inducano un campo di moto prettamente tangenziale, non ottimizzato però per la sospensione della fase solida necessaria in questa tipologia di processi.
Resumo:
L'elaborato ha come scopo l'analisi delle tecniche di Text Mining e la loro applicazione all'interno di processi per l'auto-organizzazione della conoscenza. La prima parte della tesi si concentra sul concetto del Text Mining. Viene fornita la sua definizione, i possibili campi di utilizzo, il processo di sviluppo che lo riguarda e vengono esposte le diverse tecniche di Text Mining. Si analizzano poi alcuni tools per il Text Mining e infine vengono presentati alcuni esempi pratici di utilizzo. Il macro-argomento che viene esposto successivamente riguarda TuCSoN, una infrastruttura per la coordinazione di processi: autonomi, distribuiti e intelligenti, come ad esempio gli agenti. Si descrivono innanzi tutto le entità sulle quali il modello si basa, vengono introdotte le metodologie di interazione fra di essi e successivamente, gli strumenti di programmazione che l'infrastruttura mette a disposizione. La tesi, in un secondo momento, presenta MoK, un modello di coordinazione basato sulla biochimica studiato per l'auto-organizzazione della conoscenza. Anche per MoK, come per TuCSoN, vengono introdotte le entità alla base del modello. Avvalendosi MoK dell'infrastruttura TuCSoN, viene mostrato come le entità del primo vengano mappate su quelle del secondo. A conclusione dell'argomento viene mostrata un'applicazione per l'auto-organizzazione di news che si avvale del modello. Il capitolo successivo si occupa di analizzare i possibili utilizzi delle tecniche di Text Mining all'interno di infrastrutture per l'auto-organizzazione, come MoK. Nell'elaborato vengono poi presentati gli esperimenti effettuati sfruttando tecniche di Text Mining. Tutti gli esperimenti svolti hanno come scopo la clusterizzazione di articoli scientifici in base al loro contenuto, vengono quindi analizzati i risultati ottenuti. L'elaborato di tesi si conclude mettendo in evidenza alcune considerazioni finali su quanto svolto.
Resumo:
E stata risolta l'equazione d'onda per la radiazione elettromagnetica ed è stata trovata l'espressione (in forma di integrale) per un impulso monocromatico di frequenza angolare fissata e per un impulso di durata finita, imponendo che nello spazione dei vettori d'onda (k_x,k_y) l'impulso sia rappresentato da una funzione Gaussiana nella forma exp[-w_0^2(k_x^2+k_y^2)/4], dove w_0 rappresenta il waist trasverso. Per avere un'espressione analitica dell'impulso monocromatico e dell'impulso di durata finita si sono rese necessarie rispettivamente l'approssimazione parassiale e un'approssimazione di "fattorizzazione". Sono state analizzate, sia analiticamente sia numericamente, i limiti entro i quali queste approssimazioni possono essere considerate accurate. Le soluzioni esatte e le soluzioni approssimate sono state confrontate graficamente. Nel capitolo finale è stato analizzato il moto di una particella carica che interagisce con un pacchetto d'onda unidimensionale, mettendo in luce la fondamentale differenza tra il moto di questa particella nel vuoto e il moto della stessa in un plasma carico. Infatti, in accordo con il teorema di Lawson-Woodward, nel vuoto la particella non può essere accelerata per interazione diretta con il pacchetto d'onda, mentre nel plasma, a seguito del passaggio del pacchetto, la particella può aver acquistato energia.
Resumo:
I sistemi di raccomandazione per come li conosciamo nascono alla fine del XX secolo, e si sono evoluti fino ai giorni nostri approcciandosi a numerosi campi, tra i quali analizzeremo l’ingegneria del software, la medicina, la gestione delle reti aziendali e infine, come argomento focale della tesi, l’e-Learning. Dopo una rapida panoramica sullo stato dell’arte dei sistemi di raccomandazione al giorno d’oggi, discorrendo velocemente tra metodi puri e metodi ibridi ottenuti come combinazione dei primi, analizzeremo varie applicazioni pratiche per dare un’idea al lettore di quanto possano essere vari i settori di utilizzo di questi software. Tratteremo nello specifico il funzionamento di varie tecniche per la raccomandazione in ambito e-Learning, analizzando tutte le problematiche che distinguono questo settore da tutti gli altri. Nello specifico, dedicheremo un’intera sezione alla descrizione della psicologia dello studente, e su come capire il suo profilo cognitivo aiuti a suggerire al meglio la giusta risorsa da apprendere nel modo più corretto. È doveroso, infine, parlare di privacy: come vedremo nel primo capitolo, i sistemi di raccomandazione utilizzano al massimo dati sensibili degli utenti al fine di fornire un suggerimento il più accurato possibile. Ma come possiamo tutelarli contro intrusioni e quindi contro violazioni della privacy? L’obiettivo di questa tesi è quindi quello di presentare al meglio lo stato attuale dei sistemi di raccomandazione in ambito e-Learning e non solo, in modo da costituire un riferimento chiaro, semplice ma completo per chiunque si volesse affacciare a questo straordinario ed affascinante mondo della raccomandazione on line.
Resumo:
Negli ultimi decenni sono stati studiati sul mar Mediterraneo dei fenomeni con caratteristiche comuni a quelle dei cicloni tropicali, chiamati medicane. L'obiettivo principale di questa tesi è quello di migliorare le attuali conoscenze sui medicane utilizzando un approccio di tipo satellitare per ottenere un algoritmo di detection. Per tale ragione sono stati integrati dati di diverse tipologie di sensori satellitari e del modello numerico WRF. Il sensore SEVIRI ha fornito misure di TB a 10.8μm e informazioni sulla distribuzione del vapor d’acqua atmosferico attraverso i due canali a 6.2 e 7.3 μm. I sensori AMSU–B/MHS hanno fornito informazioni sulle proprietà delle nubi e sulla distribuzione verticale del vapor d’acqua atmosferico attraverso le frequenze nelle microonde nell’intervallo 90-190 GHz. I canali a 183.31 GHz, sono stati utilizzati per alimentare gli algoritmi 183-WSL, per la stima delle precipitazioni, e MWCC, per la classificazione del tipo di nubi. Infine, le simulazioni tramite modello WRF hanno fornito i dati necessari per l’analisi dei campi di vento e di vorticità nella zona interessata dal ciclone. Lo schema computazione a soglie di sensibilità dell’algoritmo di detection è stato realizzato basandosi sui dati del medicane “Rolf” che, nel novembre 2011, ha interessato la zona del Mediterraneo occidentale. Sono stati, inoltre, utilizzati i dati di fulminazione della rete WWLLN, allo scopo di identificare meglio la fase di innesco del ciclone da quella matura. La validità dell’algoritmo è stata successivamente verificata su due casi studio: un medicane che nel settembre 2006 ha interessato la Puglia e un MCS sviluppatosi sulla Sicilia orientale nell'ottobre 2009. I risultati di questo lavoro di tesi da un lato hanno apportato un miglioramento delle conoscenze scientifiche sui cicloni mediterranei simil-tropicali, mentre dall’altro hanno prodotto una solida base fisica per il futuro sviluppo di un algoritmo automatico di riconoscimento per sistemi di tipo medicane.
Resumo:
Lo scopo della tesi è quello di studiare una delle applicazioni della teoria dei campi finiti: il segnale GPS. A questo scopo si descrivono i registri a scorrimento a retroazione lineare (linear feedback shift register, LFSR), dispositivi utili in applicazioni che richiedono la generazione molto rapida di numeri pseudo-casuali. I ricevitori GPS sfruttano il determinismo di questi dispositivi per identificare il satellite da cui proviene il segnale e per sincronizzarsi con esso. Si inizia con una breve introduzione al funzionamento del GPS, poi si studiano i campi finiti: sottocampi, estensioni di campo, gruppo moltiplicativo e costruzione attraverso la riduzione modulo un polinomio irriducibile, fattorizzazione di polinomi, formula per il numero e metodi per la determinazione di polinomi irriducibili, radici di polinomi irriducibili, coniugati, teoria di Galois (automorfismo ed orbite di Frobenius, gruppo e corrispondenza di Galois), traccia, polinomio caratteristico, formula per il numero e metodi per la determinazione di polinomi primitivi. Successivamente si introducono e si esaminano sequenze ricorrenti lineari, loro periodicità, la sequenza risposta impulsiva, il polinomio caratteristico associato ad una sequenza e la sequenza di periodo massimo. Infine, si studiano i registri a scorrimento che generano uno dei segnali GPS. In particolare si esamina la correlazione tra due sequenze. Si mostra che ogni polinomio di grado n-1 a coefficienti nel campo di Galois di ordine 2 può essere rappresentato univocamente in n bit; la somma tra polinomi può essere eseguita come XOR bit-a-bit; la moltiplicazione per piccoli coefficienti richiede al massimo uno shift ed uno XOR. Si conclude con la dimostrazione di un importante risultato: è possibile inizializzare un registro in modo tale da fargli generare una sequenza di periodo massimo poco correlata con ogni traslazione di se stessa.
Resumo:
Questa tesi di laurea è stata redatta presso l’azienda Sacmi Imola S.C. ed in particolare all’interno della divisione Closures, che si occupa della progettazione e della realizzazione di linee per la produzione di varie tipologie di capsule. Lo scopo dell’elaborato è descrivere lo sviluppo di un sistema di tracciabilità di prodotto; sistemi di questo tipo, adottati inizialmente nel settore alimentare, stanno acquisendo sempre maggiore importanza anche in altri campi produttivi, poiché rivestono un ruolo strategico al fine della realizzazione di prodotti caratterizzati da livelli elevati di performance e di qualità, capaci di emergere nel mercato moderno caratterizzato da una concorrenza estesa a livello mondiale e molto attento alle esigenze dei clienti. Nel caso specifico di Sacmi il sistema di tracciabilità si rivolge ad una pressa, la CCM (Continuous Compression Moulder), realizzata dall’azienda per la produzione di capsule in materiale termoplastico tramite la tecnologia dello stampaggio a compressione. In particolare il sistema si concentra sugli stampi della macchina CCM, i quali ne rappresentano gli elementi critici dal punto di vista sia tecnico che economico. A livello generale, un sistema di tracciabilità è costituito da due componenti fondamentali: il primo è un sistema di identificazione che permetta di rendere distinguibili ed individuabili le unità da tracciare, mentre il secondo è un sistema di raccolta dati in grado di raccogliere le informazioni desiderate. Queste sono poi archiviate in un apposito database ed attribuite alle entità corrispondenti sfruttando le proprietà del sistema di identificazione. Il primo passo da compiere quando si intende sviluppare un sistema di tracciabilità all’interno di un contesto produttivo già consolidato è la ricostruzione del processo produttivo presente in azienda: si tratta di individuare tutti gli enti aziendali che concorrono al processo e che saranno interessati dall’introduzione del nuovo sistema. Una volta definiti gli attori, è necessario anche capire come questi siano collegati dai flussi di materiale e di informazioni. Il processo produttivo di Sacmi era caratterizzato dalla quasi totale assenza di un flusso strutturato di informazioni a supporto di quello di materiale, ed il sistema di tracciabilità ha provveduto a colmare proprio questa mancanza. Il sistema deve essere in grado di integrarsi perfettamente nel contesto produttivo aziendale: è necessario trovare il giusto compromesso per quanto riguarda la quantità di informazioni da raccogliere, che devono garantire una corretta copertura di tutto il processo senza però appesantirlo eccessivamente. E’ bene che la raccolta dati sia basata su procedure standard che assicurino la ripetibilità delle operazioni di prelievo delle informazioni. Come è logico immaginarsi, l’introduzione di numerose novità nell’ambito di un contesto già strutturato ha fatto emergere un certo numero di problematiche, come ad esempio difficoltà nello stoccaggio e ritardi di produzione; queste devono essere risolte chiedendo uno sforzo aggiuntivo agli enti interessati o, nel medio/lungo periodo, evolvendo ed affinando il sistema con soluzioni più snelle.