379 resultados para STATA
Resumo:
Oggetto della presente tesi di Laurea è lo studio delle nuove tecnologie disponibili per l’immunorivelazione di marcatori proteici in fase solida. Particolare attenzione è stata rivolta alle problematiche e alle esigenze tecniche nella quantificazione del complesso proteico in esame a seguito della rivelazione di un segnale, testimone proporzionale della grandezza biologica in esame. In altre parole l’identificazione e la quantificazione di proteine di interesse avviene a valle di un processo, chiamato “western blotting”, che genera un segnale (colore, luce, fluorescenza) al quale riferire la sostanza molecolare della misura. L’accuratezza della quantificazione, a seguito degli errori sperimentali dovuti alla tecnologia, rappresenta un problema complesso nella pratica biochimica e nello studio dei fenomeni di variazione dell’espressione genica, ovvero del fenotipo, in un organismo. Il primo capitolo si apre con la descrizione del processo di discriminazione delle proteine in base al loro rapporto carica/massa molecolare tramite elettroforesi su gel. Il capitolo prosegue con la disamina della tecnologia di ultima generazione per la visualizzazione delle proteine risolte e la loro eventuale quantificazione, paragonandone le prestazioni rispetto ai sistemi di visualizzazione e quantificazione classici. Argomenti del secondo capitolo sono lo studio delle prestazioni delle nuove tecnologie per l’esecuzione del “blotting” su supporto solido e per l’incubazione delle proteine con immunoglobuline. Seguono, rispettivamente nei capitoli terzo e quarto, l’analisi delle tecnologie analogiche e digitali per la rivelazione del segnale e la quantificazione tramite opportuni software.
Resumo:
In questa tesi viene presa in esame una classe di materiali semiconduttori caratterizzata dalla presenza di una struttura nanoporosa in superficie. L’analisi è stata svolta tramite surface photovoltage spectroscopy (SPS) su cinque film di Ge realizzati in condizioni diverse, sfruttando due tecniche di impiantazione ionica (MBE e Sputtering). Valutando il valore in energia e l’ampiezza del picco della curva SPV che si ottiene, sarà possibile studiare come vengono modificate alcune proprietà elettriche e strutturali del Ge al variare della geometria e della disposizione dei nanopori. I risultati ottenuti mettono in risalto le potenzialità di questo nuovo tipo di materiale per realizzare e migliorare applicazioni come sensori, catalizzatori e pannelli fotovoltaici.
Resumo:
Questo lavoro costituisce un'interfaccia tra la fisica dei materiali e la biologia; sfruttando le particolari proprietà del polimero conduttore poli(3,4-etilenediossitiofene) drogato con poli(stirene sulfonato) (PSS), o PEDOT:PSS, sono stati sviluppati e realizzati substrati per colture cellulari. Tale composto è infatti un polimero organico biocompatibile, caratterizzato da proprietà fisiche che ben si prestano ad applicazioni in campo biologico. Vengono inizialmente descritte le caratteristiche generali e gli schemi di classificazione dei polimeri, per analizzare quindi in dettaglio i polimeri conduttori e la loro modalità di drogaggio. Si presenta quindi il PEDOT:PSS, del quale vengono descritte le proprietà, in particolare ci si sofferma sulle quelle termiche, meccaniche ed elettriche. Il primo capitolo si conclude con la presentazione delle applicazioni bioelettroniche del PEDOT:PSS, illustrando le principali applicazioni nella ricerca biologica e descrivendo le caratteristiche che ne hanno fatto uno dei composti più utilizzati per questo tipo di applicazioni. Nel secondo capitolo, per la parte sperimentale, sono stati descritti approfonditamente gli strumenti e i materiali utilizzati; in particolare vengono spiegati dettagliatamente il procedimento di spin-coating per la produzione di film sottili e le tecniche AFM (Atomic Force Microscopy) per l'analisi della morfologia superficiale. Nel terzo capitolo vengono esposte le tecniche sperimentali impiegate: è stata sviluppata una procedura di produzione ripetibile, grazie alla quale sono stati realizzati dei campioni, per i quali poi è stata misurata la rugosità. I risultati conseguiti sono stati infine correlati con l'analisi della proliferazione cellulare, illustrata chiaramente dalle immagini ottenute al microscopio ottico, che rivelano l'adesione e la moltiplicazione cellulare sui substrati di PEDOT:PSS.
Resumo:
In questo elaborato sono descritti la progettazione e lo sviluppo di un sistema tomografico con sorgente di raggi X da 300 kV per analisi nel campo dei Beni Culturali; in particolare sono stati effettuati test preliminari sia per verificare le prestazioni del tubo a raggi X e dello schermo scintillatore sia per avere indicazioni utili alla progettazione (e conseguente costruzione) del box di rivelazione. Il collaudo della sorgente di raggi X è stato eseguito con lo studio dell'andamento della dose integrale e/o del rateo di dose in funzione della tensione, della corrente e del tempo d'irraggiamento. La caratterizzazione dello schermo scintillatore di CsI(Tl) è basata sul confronto delle sue caratteristiche con uno schermo analogo di spessore differente nelle stesse condizioni sperimentali, attraverso lo studio dei parametri standard dei dispositivi per imaging, quali la curva di risposta, il rapporto segnale-rumore e la risoluzione spaziale. Inoltre, come ulteriore test, lo schermo scintillatore è stato utilizzato per l’indagine tomografica di alcuni pani di terra contenenti olle di epoca villanoviana. Per la progettazione del box rivelatore sono state invece svolte misure di tipo ottico. I vari test svolti in laboratorio hanno dato risultati positivi e hanno dimostrato la validità dei componenti scelti per il nuovo sistema tomografico, il cui assemblaggio verrà completato a breve, essendo stata ultimata proprio in queste settimane la costruzione del box di rivelazione.
Resumo:
L’acceleratore di protoni e ioni pesanti LHC costruito presso i laboratori del CERN di Ginevra permette sviluppi straordinari nel campo della fisica delle particelle alle alte energie. Tra le diverse linee di ricerca attualmente operative lo studio del quark top riveste un ruolo di particolare rilevanza. Infatti, l’elevata energia accessibile alla macchina rende possibile la raccolta di campioni di elevata statistica necessari per uno studio dettagliato delle proprietà del quark top, la particella più pesante fino ad oggi nota. In particolare in questa tesi viene studiato, e confrontato con l'analisi standard, un nuovo metodo, chiamato “template overlap method”, per la selezione di quark top prodotti ad alta energia. L'obiettivo è valutare se questo nuovo metodo permetterà una migliore precisione nella misura della sezione d'urto differenziale di produzione di coppie tt nelle prossime prese dati dove l'energia nel centro di massa raggiungerà i 13 TeV. L'analisi, per ora, è stata svolta su dati montecarlo simulati per l'esperimento ATLAS ad una energia del centro di massa di 8 TeV. I risultati ottenuti sono incoraggianti perchè mostrano un'alta efficienza di selezione all'aumentare dell'energia dei prodotti di decadimento del top.
Resumo:
E stata risolta l'equazione d'onda per la radiazione elettromagnetica ed è stata trovata l'espressione (in forma di integrale) per un impulso monocromatico di frequenza angolare fissata e per un impulso di durata finita, imponendo che nello spazione dei vettori d'onda (k_x,k_y) l'impulso sia rappresentato da una funzione Gaussiana nella forma exp[-w_0^2(k_x^2+k_y^2)/4], dove w_0 rappresenta il waist trasverso. Per avere un'espressione analitica dell'impulso monocromatico e dell'impulso di durata finita si sono rese necessarie rispettivamente l'approssimazione parassiale e un'approssimazione di "fattorizzazione". Sono state analizzate, sia analiticamente sia numericamente, i limiti entro i quali queste approssimazioni possono essere considerate accurate. Le soluzioni esatte e le soluzioni approssimate sono state confrontate graficamente. Nel capitolo finale è stato analizzato il moto di una particella carica che interagisce con un pacchetto d'onda unidimensionale, mettendo in luce la fondamentale differenza tra il moto di questa particella nel vuoto e il moto della stessa in un plasma carico. Infatti, in accordo con il teorema di Lawson-Woodward, nel vuoto la particella non può essere accelerata per interazione diretta con il pacchetto d'onda, mentre nel plasma, a seguito del passaggio del pacchetto, la particella può aver acquistato energia.
Resumo:
Questa tesi di laurea tratta delle partizioni di un intero positivo. La tesi viene suddivisa in tre capitoli: nel primo capitolo definirò cosa significa scomporre additivamente un intero positivo e come si può rappresentare una partizione cioè utilizzando diagrammi, chiamati \textit{diagrammi di Ferrers}, o tabelle, chiamate \textit{tableau di Young}, si possono rappresentare graficamente partizioni. In seguito, in questo capitolo, verrà definita la funzione di partizione e, infine, tratterò delle partizioni ordinate. Il secondo capitolo ha carattere storico: infatti, mostra come cinque famosi matematici, Eulero, Ramanujan e Hardy, Hans Rademacher e Ken Ono, nel tempo abbiano affrontato il problema di trovare una formula matematica che meglio rappresenti la funzione di partizione. Il terzo ed ultimo capitolo riguarda le applicazioni delle partizioni, cioè come esse abbiano una relazione con le classi di coniugio nel gruppo simmetrico $S_{n}$ e con le classificazioni dei gruppi abeliani di ordine $p^{n}$, con p un numero primo. Di alcune affermazioni ( o teoremi ) nei capitoli seguenti non è stata riportata la dimostrazione; in questi casi si rimanda direttamente alle corrispondenti citazioni bibliografiche.
Resumo:
Il primo scopo di questo progetto sperimentale è stato quello di valutare la qualità chimica e sensoriale di oli vergini d’oliva ottenuti da olive conservate per tempi diversi prima della loro lavorazione. Spesso, infatti, quando le olive arrivano in frantoio, la loro trasformazione può essere ritardata a causa della ridotta capacità di lavorazione degli impianti rispetto alla quantità di prodotto da lavorare. Il tempo e le modalità di conservazione delle drupe risultano fattori molto importanti ai fini della qualità organolettica dell’olio prodotto. Per questa finalità sono state acquistate olive di due diverse varietà (Correggiolo e Canino) e divise in due aliquote. La prima aliquota di ogni partita di olive è stata franta al momento della consegna (tempo 0), la seconda invece è stata stoccata in condizioni non ideali di conservazione ed umidità per 7 giorni (varietà Correggiolo) e 15 giorni (varietà Canino), quindi franta. Per tutti i campioni sono stati valutati i parametri di qualità stabiliti dal Reg. CEE n. 2568/91 e successive modifiche: acidità libera e numero di perossidi con valutazioni titrimetriche, estinzioni specifiche nell'ultravioletto mediante spettrofotometria, determinazione gascromatografica degli alchil esteri degli acidi grassi ed analisi sensoriale secondo “Panel test”. Sono stati inoltre valutati parametri compositivi che attualmente non sono contemplati nei regolamenti ufficiali: il profilo qualitativo e quantitativo gascromatografico in digliceridi e quello in componenti volatili (SPME). I risultati ottenuti per i campioni ottenuti da olive “fresche” e da olive conservate per tempi diversi sono stati comparati con i limiti di legge che definiscono l'appartenenza alle categorie merceologiche degli oli di oliva vergini (extravergine, vergine o lampante) e, per i parametri non normati, sono state valutate le principali differenze in relazione alla qualità del prodotto. Il secondo scopo del progetto è stato quello di valutare la possibilità di una rapida discriminazione di oli d’oliva caratterizzati da differenti concentrazioni di alchil esteri degli acidi grassi mediante Riflettometria nel Dominio del Tempo (TDR, Time Domain Reflectometry). Il metodo chimico proposto dal Reg. UE n. 61/2011 risulta, infatti, lungo e dispendioso prevedendo una separazione preparativa seguita da analisi gascromatografica. La TDR si presenta, invece, come un metodo alternativo rapido, economico e non distruttivo per la valutazione e discriminazione degli oli d’oliva sulla base di questo parametro qualitativo.
Resumo:
La tesi tratta del miglioramento di una simulazione VoIP in ambiente OmNet++. La simulazione è stata resa più realistica grazie all'introduzione di molteplici host mobili che si muovono attraverso un percorso casuale all'interno di uno scenario cittadino.
Resumo:
I grafi sono molto utilizzati per la rappresentazione di dati, sopratutto in quelle aree dove l’informazione sull’interconnettività e la topologia dei dati è importante tanto quanto i dati stessi, se non addirittura di più. Ogni area di applicazione ha delle proprie necessità, sia in termini del modello che rappresenta i dati, sia in termini del linguaggio capace di fornire la necessaria espressività per poter fare interrogazione e trasformazione dei dati. È sempre più frequente che si richieda di analizzare dati provenienti da diversi sistemi, oppure che si richieda di analizzare caratteristiche dello stesso sistema osservandolo a granularità differenti, in tempi differenti oppure considerando relazioni differenti. Il nostro scopo è stato quindi quello di creare un modello, che riesca a rappresentare in maniera semplice ed efficace i dati, in tutte queste situazioni. Entrando più nei dettagli, il modello permette non solo di analizzare la singola rete, ma di analizzare più reti, relazionandole tra loro. Il nostro scopo si è anche esteso nel definire un’algebra, che, tramite ai suoi operatori, permette di compiere delle interrogazioni su questo modello. La definizione del modello e degli operatori sono stati maggiormente guidati dal caso di studio dei social network, non tralasciando comunque di rimanere generali per fare altri tipi di analisi. In seguito abbiamo approfondito lo studio degli operatori, individuando delle proprietà utili per fare delle ottimizzazioni, ragionando sui dettagli implementativi, e fornendo degli algoritmi di alto livello. Per rendere più concreta la definizione del modello e degli operatori, in modo da non lasciare spazio ad ambiguità, è stata fatta anche un’implementazione, e in questo elaborato ne forniremo la descrizione.
Resumo:
Viene sviluppata in XCSurf, un pacchetto di XCModel, una struttura dati chiamata B-Rep il cui scopo è quello di poter accogliere sia geometrie mesh che nurbs. La struttura B-Rep è stata progettata nel lavoro di tesi di F.Pelosi a seguito del riscontro di diverse analogie fra la struttura winged-edge (per mesh) e la struttura B-Rep (per nurbs). In questa tesi viene sviluppata ed integrata ulteriormente. Il punto di arrivo è la possibilità di attaccare due modelli qualsiasi (Nurbs + Nurbs, Mesh + Nurbs, Mesh + Mesh), deformando opportunamente le parti da attaccare, ma mantenendo tutte le informazioni in un'unica struttura.
Resumo:
Le lesioni cerebrali possono generare danni permanenti e richiedono trattamenti immediati e a lungo termine. L’ipotermia cerebrale di 1 o 2°C inibisce il rilascio di aminoacidi neuro eccitatori e interrompe la risposta infiammatoria. L'effetto è maggiore se il raffreddamento viene eseguito immediatamente dopo il trauma. Oggi il raffreddamento viene effettuato in ospedale, raramente sul luogo dell’incidente (con ghiaccio). Tale soluzione è ostacolata dall’applicazione dei collari cervicali ed è condizionata dagli effetti a breve termine del ghiaccio. In questo studio è stata effettuata un’analisi di fattibilità di un dispositivo che, alle tecnologie per l’immobilizzazione cervicale, associ l'induzione terapeutica controllata e prolungata di una lieve ipotermia cerebrale (2-3°C), tramite raffreddamento transcutaneo del sangue nelle arterie carotidee. Il lavoro è suddiviso in due fasi: 1) modellizzazione teorica del fenomeno in esame; 2) verifica dei modelli teorici mediante test in vitro. Mediante i modelli numerici, sono state calcolate le temperature e i tempi per produrre un raffreddamento di 3°C. Considerando lo scambio di calore attraverso il collo, i vasi sanguigni e i tessuti cerebrali è stato calcolato un tempo minimo di circa 50 minuti per produrre il ΔT richiesto, con l’applicazione all’esterno del collo di un dispositivo che mantenga la temperatura a 5°C. Per la verifica è stata utilizzata una carotide sintetica ed una in tessuto biologico: queste sono state immerse in un contenitore isolato contenente acqua e connesse ad un simulatore dell’apparato circolatorio. Mantenendo costante la temperatura dell’acqua circolante mediante un termostato, sono stati misurati gli abbassamenti di temperatura nel vaso in funzione di quella esterna applicata. Il raffreddamento dei tessuti è stato realizzato con una cella di Peltier. La verifica dei modelli ha evidenziato un ΔT di -2°C. Il valore è inferiore a quello ipotizzato ma può ritenersi già efficace in ambito clinico e può essere migliorato ottimizzando il sistema di raffreddamento.
Resumo:
Studio di fattibilità sull'utilizzo della tecnologia radar Ultra Wideband per il controllo non distruttivo di manufatti in materiale composito in fibra di carbonio. La tecnologia radar UWB permette, a differenza dei radar convenzionali, una maggiore risoluzione e un maggior quantitativo di informazioni estraibili dal segnale ricevuto come eco. Nella prima parte del lavoro ci si è concentrati sulla individuazione dell'eventuale presenza del difetto in lastre di materiale composito di differenti dimensioni. Le lastre vengono "illuminate" da un fascio di onde radar UWB dal cui eco si estraggono le informazioni necessarie per determinare la presenza o meno del difetto. Lo scopo è progettare le basi di un algoritmo che, qualora la lastra in esame presenti una certa difettologia, informi l'utente della presenza dell'anomalia. Nella seconda parte si è passati a scansionare la lastra con un radar UWB in modo tale da costruire un'immagine della stessa grazie alle informazioni ricevute dai segnali eco. Per fare questo è stata necessaria dapprima la costruzione di un movimentatore ad hoc in grado di muovere il radar lungo due dimensioni (per permetterne la scansione del piano della lastra). Il movimentatore, autocostruito, è gestibile da Matlab attraverso cavo USB. L'algoritmo di controllo gestisce sia la movimentazione che l'acquisizione dei segnali ricevuti e quindi la creazione del database, punto di partenza per la creazione dell'immagine della lastra. Rispetto alla prima fase del lavoro dove si cercava di sapere se ci fosse o meno il difetto, ora, si è in grado di determinare dimensione e posizione dello stesso.
Resumo:
Con l’avvento di Internet, potentissimo strumento tecnologico di diffusione di informazioni e di comunicazione a distanza, anche le modalità di apprendimento sono cambiate: persino nelle scuole si tende a non utilizzare più i classici libri di testo, ma ad utilizzare dispositivi dai quali scaricare in formato elettronico, libri, dispense, test, video ed ogni altro genere di materiale di apprendimento, dando vita a un vero e proprio nuovo modo di apprendere chiamato E-learning, più veloce, comodo e ricco di alternative rispetto al vecchio modello offline che si presentava sottoforma di floppy inizialmente e poi di CD-ROM. E-learning significa, electronic based learning, ed è appunto una vera e propria metodologia di didattica che sfrutta e viene facilitata da risorse e servizi disponibili e accessibili virtualmente in rete. Al momento vi sono numerose piattaforme di E-learning, una delle quali è il nucleo di questa tesi, ovvero il tool autore AContent. Questo documento di tesi, infatti, raccoglie la descrizione della progettazione e della fase implementativa della gestione delle politiche di copyright per il tool AContent. L’obbiettivo è quello di rendere possibile l’assegnazione di un copyright a qualsiasi tipo di materiale didattico venga creato, caricato e/o condiviso sulla piattaforma in questione. Pertanto l’idea è stata quella di dare la possibilità di scegliere fra più copyright preimpostati, utilizzando degli standard di licenze riguardanti i diritti d’autore, lasciando anche l’opportunità di inserire la propria politica.
Resumo:
Negli ultimi decenni sono stati studiati sul mar Mediterraneo dei fenomeni con caratteristiche comuni a quelle dei cicloni tropicali, chiamati medicane. L'obiettivo principale di questa tesi è quello di migliorare le attuali conoscenze sui medicane utilizzando un approccio di tipo satellitare per ottenere un algoritmo di detection. Per tale ragione sono stati integrati dati di diverse tipologie di sensori satellitari e del modello numerico WRF. Il sensore SEVIRI ha fornito misure di TB a 10.8μm e informazioni sulla distribuzione del vapor d’acqua atmosferico attraverso i due canali a 6.2 e 7.3 μm. I sensori AMSU–B/MHS hanno fornito informazioni sulle proprietà delle nubi e sulla distribuzione verticale del vapor d’acqua atmosferico attraverso le frequenze nelle microonde nell’intervallo 90-190 GHz. I canali a 183.31 GHz, sono stati utilizzati per alimentare gli algoritmi 183-WSL, per la stima delle precipitazioni, e MWCC, per la classificazione del tipo di nubi. Infine, le simulazioni tramite modello WRF hanno fornito i dati necessari per l’analisi dei campi di vento e di vorticità nella zona interessata dal ciclone. Lo schema computazione a soglie di sensibilità dell’algoritmo di detection è stato realizzato basandosi sui dati del medicane “Rolf” che, nel novembre 2011, ha interessato la zona del Mediterraneo occidentale. Sono stati, inoltre, utilizzati i dati di fulminazione della rete WWLLN, allo scopo di identificare meglio la fase di innesco del ciclone da quella matura. La validità dell’algoritmo è stata successivamente verificata su due casi studio: un medicane che nel settembre 2006 ha interessato la Puglia e un MCS sviluppatosi sulla Sicilia orientale nell'ottobre 2009. I risultati di questo lavoro di tesi da un lato hanno apportato un miglioramento delle conoscenze scientifiche sui cicloni mediterranei simil-tropicali, mentre dall’altro hanno prodotto una solida base fisica per il futuro sviluppo di un algoritmo automatico di riconoscimento per sistemi di tipo medicane.