971 resultados para Nubi di Magellano, ammassi globulari, sistemi binari, profili di densità, isocrone
Resumo:
Il presente lavoro intende analizzare il tema del turista lento che nell’ultimo decennio si è diffuso nel dibattito scientifico e culturale connesso al tema della sostenibilità e della qualità della vita e nel contesto dell’approccio teorico strutturato intorno alle nuove tendenze dello Slow Tourism. In una prima parte la tesi delinea il framework della sostenibilità con particolare attenzione al recente dibattito in corso sulla “decrescita” e l’“a-crescita” come concetti alternativi al paradigma della crescita. Successivamente viene evidenziato il modo in cui le idee di base ed i principi dello sviluppo sostenibile sono stati applicati al turismo e indagato il legame tra sostenibilità e responsabilità e come questo configura l’emergere di un turismo “responsustable”. In tale contesto viene analizzata la relazione tra turismo e lentezza in cui a filosofia slow non deve essere interpretata come un fenomeno del momento o un innovativo prodotto turistico, ma come una filosofia di vita, un movimento sociale e globale che negli ultimi anni ha caratterizzato i diversi ambiti socio-economici delle comunità locali. Successivamente attraverso una review della letteratura nazionale ed internazionale sul tema, la pluralità di prospettive teoriche vengono sistematizzate in tre ipotesi di lettura riconducibili a tre paradigmi: sostenibilità- slow tourism- territorio; benessere – slow tourism – qualità della vita; esperienza – slow tourism – consumo. Nella seconda parte del lavoro viene presentata l’indagine empirica a partire dall’analisi di contesto del territorio in cui si è svolta l’attività di ricerca, i nove comuni del Comprensorio Turistico della Valnerina in Umbria, con particolare riferimento all’analisi dell’offerta e della domanda turistica. Successivamente sono presentati i risultati di un questionario somministrato a 620 turisti attraverso il quale viene analizzato il profilo motivazionale, le esperienze di fruizione turistica e la percezione della qualità territoriale da parte del turista e delineato il profilo del turista slow in Valnerina.
Resumo:
Gli stress abiotici determinando modificazioni a livello fisiologico, biochimico e molecolare delle piante, costituiscono una delle principali limitazioni per la produzione agricola mondiale. Nel 2007 la FAO ha stimato come solamente il 3,5% della superficie mondiale non sia sottoposta a stress abiotici. Il modello agro-industriale degli ultimi cinquant'anni, oltre ad avere contribuito allo sviluppo economico dell'Europa, è stato anche causa di inquinamento di acqua, aria e suolo, mediante uno sfruttamento indiscriminato delle risorse naturali. L'arsenico in particolare, naturalmente presente nell'ambiente e rilasciato dalle attività antropiche, desta particolare preoccupazione a causa dell'ampia distribuzione come contaminante ambientale e per gli effetti di fitotossicità provocati. In tale contesto, la diffusione di sistemi agricoli a basso impatto rappresenta una importante risorsa per rispondere all'emergenza del cambiamento climatico che negli anni a venire sottoporrà una superficie agricola sempre maggiore a stress di natura abiotica. Nello studio condotto è stato utilizzato uno stabile modello di crescita in vitro per valutare l'efficacia di preparati ultra diluiti (PUD), che non contenendo molecole chimiche di sintesi ben si adattano a sistemi agricoli sostenibili, su semi di frumento preventivamente sottoposti a stress sub-letale da arsenico. Sono state quindi condotte valutazioni sia a livello morfometrico (germinazione, lunghezza di germogli e radici) che molecolare (espressione genica valutata mediante analisi microarray, con validazione tramite Real-Time PCR) arricchendo la letteratura esistente di interessanti risultati. In particolare è stato osservato come lo stress da arsenico, determini una minore vigoria di coleptile e radici e a livello molecolare induca l'attivazione di pathways metabolici per proteggere e difendere le cellule vegetali dai danni derivanti dallo stress; mentre il PUD in esame (As 45x), nel sistema stressato ha indotto un recupero nella vigoria di germoglio e radici e livelli di espressione genica simili a quelli riscontrati nel controllo suggerendo un effetto "riequilibrante" del metabolismo vegetale.
Resumo:
I sistemi di navigazione inerziale, denominati INS, e quelli di navigazione inerziale assistita, ovvero che sfruttano anche sensori di tipo non inerziale come ad esempio il GPS, denominati in questo caso INS/GPS, hanno visto un forte incremento del loro utilizzo soprattutto negli ultimi anni. I filtri complementari sfruttano segnali in ingresso che presentano caratteristiche complementari in termine di banda. Con questo lavoro di tesi mi sono inserito nel contesto del progetto SHERPA (Smart collaboration between Humans and ground-aErial Robots for imProving rescuing activities in Alpine environments), un progetto europeo, coordinato dall'Università di Bologna, che prevede di mettere a punto una piattaforma robotica in grado di aiutare i soccorritori che operano in ambienti ostili, come quelli del soccorso alpino, le guardie forestali, la protezione civile. In particolare è prevista la possibilità di lanciare i droni direttamente da un elicottero di supporto, per cui potrebbe essere necessario effettuare l'avvio del sistema in volo. Ciò comporta che il sistema di navigazione dovrà essere in grado di convergere allo stato reale del sistema partendo da un grande errore iniziale, dal momento che la fase di inizializzazione funziona bene solo in condizioni di velivolo fermo. Si sono quindi ricercati, in special modo, schemi che garantissero la convergenza globale. Gli algoritmi implementati sono alla base della navigazione inerziale, assistita da GPS ed Optical Flow, della prima piattaforma aerea sviluppata per il progetto SHERPA, soprannominata DreamDroneOne, che include una grande varietà di hardware appositamente studiati per il progetto, come il laser scanner, la camera termica, ecc. Dopo una panoramica dell'architettura del sistema di Guida, Navigazione e Controllo (GNC) in cui mi sono inserito, si danno alcuni cenni sulle diverse terne di riferimento e trasformazioni, si descrivono i diversi sensori utilizzati per la navigazione, si introducono gli AHRS (Attitude Heading Rference System), per la determinazione del solo assetto sfruttando la IMU ed i magnetometri, si analizza l'AHRS basato su Extended Kalman Filter. Si analizzano, di seguito, un algoritmo non lineare per la stima dell'assetto molto recente, e il sistema INS/GPS basato su EKF, si presenta un filtro complementare molto recente per la stima di posizione ed assetto, si presenta un filtro complementare per la stima di posizione e velocità, si analizza inoltre l'uso di un predittore GPS. Infine viene presentata la piattaforma hardware utilizzata per l'implementazione e la validazione, si descrive il processo di prototipazione software nelle sue fasi e si mostrano i risultati sperimentali.
Resumo:
Il lavoro di tesi si propone di analizzare l'evoluzione dinamica di una faglia caratterizzata da due asperità complanari contraddistinte da diverso attrito (modello asimmetrico) e da accoppiamento viscoelastico. Il modello reologico assunto per la crosta terrestre è di tipo Maxwelliano: lo sforzo trasferito da un'asperità all'altra in occasione degli scorrimenti delle asperità stesse subisce parziale rilassamento durante il periodo intersismico, con conseguente anticipo o ritardo degli eventi sismici successivi. Lo studio del sistema viene condotto tramite un modello di faglia discreto, in cui lo stato della faglia è determinato da tre variabili che rappresentano i deficit di scorrimento delle asperità e il loro accoppiamento viscoelastico. Scopo principale della tesi è quello di caratterizzare i differenti modi dinamici del sistema, determinando equazioni del moto e orbite nello spazio delle fasi e confrontando i risultati ottenuti con i modelli precedentemente sviluppati, con particolare riferimento al caso simmetrico (asperità caratterizzate dallo stesso attrito) studiato in [Amendola e Dragoni (2013)] e al caso di accoppiamento puramente elastico analizzato in [Dragoni e Santini (2012)]. Segue l'applicazione del modello all'evento sismico verificatosi in Alaska nel 1964, generato dallo scorrimento delle asperità di Kodiak Island e Prince William Sound: lo studio verte in particolare sulla valutazione dello stato di sforzo sulla faglia prima e dopo il terremoto, la determinazione della funzione sorgente (moment rate) a esso associata e la caratterizzazione della possibile evoluzione futura del sistema. Riferimenti bibliografici Amendola, A. & Dragoni, M., “Dynamics of a two-fault system with viscoelastic coupling”. Nonlinear Processes in Geophysics, 20, 1–10, 2013. Dragoni, M. & Santini, S., “Long-term dynamics of a fault with two asperities of different strengths”. Geophysical Journal International, 191, 1457–1467, 2012.
Resumo:
La natura distribuita del Cloud Computing, che comporta un'elevata condivisione delle risorse e una moltitudine di accessi ai sistemi informatici, permette agli intrusi di sfruttare questa tecnologia a scopi malevoli. Per contrastare le intrusioni e gli attacchi ai dati sensibili degli utenti, vengono implementati sistemi di rilevamento delle intrusioni e metodi di difesa in ambiente virtualizzato, allo scopo di garantire una sicurezza globale fondata sia sul concetto di prevenzione, sia su quello di cura: un efficace sistema di sicurezza deve infatti rilevare eventuali intrusioni e pericoli imminenti, fornendo una prima fase difensiva a priori, e, al contempo, evitare fallimenti totali, pur avendo subito danni, e mantenere alta la qualità del servizio, garantendo una seconda fase difensiva, a posteriori. Questa tesi illustra i molteplici metodi di funzionamento degli attacchi distribuiti e dell'hacking malevolo, con particolare riferimento ai pericoli di ultima generazione, e definisce le principali strategie e tecniche atte a garantire sicurezza, protezione e integrità dei dati all'interno di un sistema Cloud.
Resumo:
Le biomasse sono attualmente la più promettente alternativa ai combustibili fossili per la produzione di sostanze chimiche e fuels. A causa di problematiche di natura etica la ricerca oggi si sta muovendo verso l'uso delle biomasse che sfruttano terreni non coltivabili e materie prime non commestibili, quali la lignocellulosa. Attualmente sono state identificate diverse molecole piattaforma derivanti da biomasse lignocellulosiche. Tra queste ha suscitato grande interesse la 2-furaldeide o furfurale (FU). Tale molecola può essere ottenuta mediante disidratazione di monosaccaridi pentosi e possiede elevate potenzialità; è infatti considerata un intermedio chiave per la sintesi di un’ampia varietà di combustibili alternativi come il metilfurano (MFU) e prodotti ad elevato valore aggiunto per l’industria polimerica e la chimica fine come l’alcol furfurilico (FAL). In letteratura tali prodotti vengono principalmente ottenuti in processi condotti in fase liquida mediante l’utilizzo di catalizzatori eterogenei a base di metalli nobili come: Ni-Co-Ru-Pd, Pt/C o Pt/Al2O3, NiMoB/γ-Al2O3, in presenza di idrogeno molecolare come agente riducente. La riduzione del gruppo carbonilico mediante l’utilizzo di alcoli come fonti di idrogeno e catalizzatori a base di metalli non nobili tramite la reazione di Meerwein–Ponndorf–Verley (MPV), rappresenta un approccio alternativo che limita il consumo di H2 e permette di utilizzare bio-alcoli come donatori di idrogeno. Lo scopo di questo lavoro di tesi è stato quello di mettere a punto un processo continuo, in fase gas, di riduzione della FU a FAL e MFU, utilizzando metanolo come fonte di idrogeno tramite un meccanismo di H-transfer. In dettaglio il lavoro svolto può essere così riassunto: Sintesi dei sistemi catalitici MgO e Mg/Fe/O e loro caratterizzazione mediante analisi XRD, BET, TGA/DTA, spettroscopia RAMAN. Studio dell’attività catalitica dei catalizzatori preparati nella reazione di riduzione in fase gas di FU a FAL e MFU utilizzando metanolo come fonte di idrogeno.
Resumo:
Lo scopo del lavoro di tesi, svolto presso gli stabilimenti della Ditan Color Srl di Palazzolo Acreide (SR), è stato quello di realizzare un rivestimento colorato a base acquosa per il settore edile avente uno spessore medio del film essiccato di circa 150 micron, rivestimento definito a “basso spessore”, da applicare con sistemi tradizionali (rullo, spray, pennello) su intonaci “civili”, a base di calce e/o cemento, rasature cementizie e su pitture minerali esistenti. La caratteristica peculiare di questa pittura è la presenza di un sistema sinergico di “leganti” costituito da resine acriliche, silossaniche e da silice colloidale a dimensioni nanometriche. La presenza di PV con leganti acrilici, acril/silossanici, minerali a base di calce aerea o silicato di potassio è una realtà da tempo consolidata. Il mercato offre moltissime soluzioni legate alle caratteristiche delle superfici da trattare, alle esigenze dei clienti o semplicemente alle aree geografiche. Con questo progetto si è valutata la possibilità di includere tra i leganti un nuovo componente, il gel di silice a dimensioni nanometriche (diametro delle particelle < 100 nm) e di monitorare le proprietà del prodotto finito. Le caratteristiche fondamentali per classificare il PV sono: l’adesione della pittura ai supporti, intesa come misurazione dell’aderenza per trazione diretta; la traspirabilità del film essiccato – con conseguente ruolo attivo del PV nello scambio tra ambiente interno ed esterno - intesa come determinazione del grado di trasmissione del vapore acqueo secondo la norma UNI EN ISO 7783; la resistenza all’acqua meteorica - con conseguente protezione dello stato e della salubrità delle murature - intesa come determinazione del grado di trasmissione dell’acqua liquida secondo la UNI EN 1062-3. Lo studio è iniziato con la messa a punto del tipo di sistema disperdente/bagnante e del suo dosaggio, quindi del dosaggio di pigmento TiO2. Successivamente è stato valutato il comportamento di una serie di sistemi leganti contenenti vari tipi di polimeri e l’effetto della presenza di silice colloidale. Infine, sulle formulazioni ottimizzate, sono state condotte prove di adesione al supporto, traspirabilità e resistenza all’acqua meteorica.
Resumo:
Sviluppo di un prodotto per la misurazione di parametri ambientali legati alla qualità dell’ambiente in cui viviamo. Il dispositivo si struttura in moduli: una base comune comprendente tutti i componenti di elaborazione, visualizzazione, trasmissione e memorizzazione, unito a vari moduli sensore da collegare in base ai parametri che si vogliono monitorare.
Resumo:
Questa tesi ha l’obiettivo di comprendere e valutare se l’approccio al paradigma SDN, che verrà spiegato nel capitolo 1, può essere utilizzato efficacemente per implementare dei sistemi atti alla protezione e alla sicurezza di una rete più o meno estesa. Oltre ad introdurre il paradigma SDN con i relativi componenti basilari, si introduce il protocollo fondamentale OpenFlow, per la gestione dei vari componenti. Per ottenere l’obiettivo prestabilito, si sono seguiti alcuni passaggi preliminari. Primo tra tutti si è studiato cos’è l’SDN. Esso introduce una potenziale innovazione nell’utilizzo della rete. La combinazione tra la visione globale di tutta la rete e la programmabilità di essa, rende la gestione del traffico di rete un processo abbastanza complicato in termini di livello applicativo, ma con un risultato alquanto performante in termini di flessibilità. Le alterazioni all’architettura di rete introdotte da SDN devono essere valutate per garantire che la sicurezza di rete sia mantenuta. Le Software Defined Network (come vedremo nei primi capitoli) sono in grado di interagire attraverso tutti i livelli del modello ISO/OSI e questa loro caratteristica può creare problemi. Nelle reti odierne, quando si agisce in un ambiente “confinato”, è facile sia prevedere cosa potrebbe accadere, che riuscire a tracciare gli eventi meno facilmente rilevabili. Invece, quando si gestiscono più livelli, la situazione diventa molto più complessa perché si hanno più fattori da gestire, la variabilità dei casi possibili aumenta fortemente e diventa più complicato anche distinguere i casi leciti da quelli illeciti. Sulla base di queste complicazioni, ci si è chiesto se SDN abbia delle problematiche di sicurezza e come potrebbe essere usato per la sicurezza. Per rispondere a questo interrogativo si è fatta una revisione della letteratura a riguardo, indicando, nel capitolo 3, alcune delle soluzioni che sono state studiate. Successivamente si sono chiariti gli strumenti che vengono utilizzati per la creazione e la gestione di queste reti (capitolo 4) ed infine (capitolo 5) si è provato ad implementare un caso di studio per capire quali sono i problemi da affrontare a livello pratico. Successivamente verranno descritti tutti i passaggi individuati in maniera dettagliata ed alla fine si terranno alcune conclusioni sulla base dell’esperienza svolta.
Resumo:
Il sempre crescente numero di applicazioni di reti di sensori, robot cooperanti e formazioni di veicoli, ha fatto sì che le problematiche legate al coordinamento di sistemi multi-agente (MAS) diventassero tra le più studiate nell’ambito della teoria dei controlli. Esistono numerosi approcci per affrontare il problema, spesso profondamente diversi tra loro. La strategia studiata in questa tesi è basata sulla Teoria del Consenso, che ha una natura distribuita e completamente leader-less; inoltre il contenuto informativo scambiato tra gli agenti è ridotto al minimo. I primi 3 capitoli introducono ed analizzano le leggi di interazione (Protocolli di Consenso) che permettono di coordinare un Network di sistemi dinamici. Nel capitolo 4 si pensa all'applicazione della teoria al problema del "loitering" circolare di più robot volanti attorno ad un obiettivo in movimento. Si sviluppa a tale scopo una simulazione in ambiente Matlab/Simulink, che genera le traiettorie di riferimento di raggio e centro impostabili, a partire da qualunque posizione iniziale degli agenti. Tale simulazione è stata utilizzata presso il “Center for Research on Complex Automated Systems” (CASY-DEI Università di Bologna) per implementare il loitering di una rete di quadrirotori "CrazyFlie". I risultati ed il setup di laboratorio sono riportati nel capitolo 5. Sviluppi futuri si concentreranno su algoritmi locali che permettano agli agenti di evitare collisioni durante i transitori: il controllo di collision-avoidance dovrà essere completamente indipendente da quello di consenso, per non snaturare il protocollo di Consenso stesso.
Resumo:
L’elaborato si occupa di fare il punto in materia di indagini difensive a tre lustri dall’entrata in vigore della legge n. 397/2000, epilogo di un lungo processo evolutivo che ha visto da un lato, una gestazione faticosa e travagliata, dall’altro, un prodotto normativo accolto dagli operatori in un contesto di scetticismo generale. In un panorama normativo e giurisprudenziale in continua evoluzione, i paradigmi dettati dagli artt. 24 e 111 della Costituzione, in tema di diritto alla difesa e di formazione della prova penale secondo il principio del contraddittorio tra le parti, in condizioni di parità, richiedono che il sistema giustizia offra sia all’indagato che all’imputato sufficienti strumenti difensivi. Tenuto conto delle diversità che caratterizzano naturalmente i ruoli dell’accusa e della difesa che impongono asimmetrie genetiche inevitabili, l’obiettivo della ricerca consiste nella disamina degli strumenti idonei a garantire il diritto alla prova della difesa in ogni stato e grado del procedimento, nel tentativo di realizzare compiutamente il principio di parità accusa - difesa nel processo penale. La ricerca si dipana attraverso tre direttrici: l’analisi dello statuto sulle investigazioni difensive nella sua evoluzione storica sino ai giorni nostri, lo studio della prova penale nel sistema americano e, infine, in alcune considerazioni finali espresse in chiave comparatistica. Le suggestioni proposte sono caratterizzate da un denominatore comune, ovvero dal presupposto che per contraddire è necessario conoscere e che solo per tale via sia possibile, finalmente, riconoscere il diritto di difendersi indagando.
Resumo:
Il continuo sviluppo negli ultimi anni di diverse declinazioni della spettroscopia d'assorbimento a raggi X (XAS) con radiazione di sincrotrone ha permesso la determinazione della struttura locale di campioni di ogni tipo, dagli elementi puri, ai più moderni materiali, indagando e approfondendo la conoscenza di quei meccanismi che conferiscono a questi ultimi delle proprietà innovative e, a volte, rivoluzionarie. Il vantaggio di questa tecnica è quello di poter ottenere informazioni sulla struttura del campione soprattutto a livello locale, rendendo relativamente agevole l'analisi di sistemi senza ordine a lungo raggio, quali per esempio i film molecolari. Nell'elaborato verrà preliminarmente illustrata la fenomenologia della XAS e l’interpretazione teorica dell'origine della struttura fine. Saranno successivamente descritte le innovative tecniche di misura che permettono di studiare i cambiamenti della struttura locale indotti dall'illuminazione con luce visibile, inclusi gli esperimenti di tipo pump probe. Un capitolo della tesi è interamente dedicato alla descrizione dei campioni studiati, di cui sono stati analizzati alcuni dati acquisiti in condizioni statiche. Quest'analisi è stata compiuta sfruttando anche dei cammini di multiplo scattering dedicando particolare attenzione alla trattazione del fattore di Debye Waller. Nella parte principale della tesi verranno descritti la progettazione ed il test di un apparato sperimentale per l'acquisizione di spettri differenziali da utilizzare alla beamline BM08 dell'European Synchrotron Radiation Facility di Grenoble. Saranno presentate principalmente le modifiche apportate al software d'acquisizione della linea e la progettazione di un sistema ottico d'eccitazione da montare nella camera sperimentale. Nella fase di studio dell'ottica è stato creato in LabView un simulatore basato sul metodo Monte Carlo, capace di prevedere il comportamento del sistema di lenti.
Resumo:
L'elaborato si pone l'obiettivo di sviluppare un controllo sensorless di posizione per un attuatore tubolare pentafase anisotropo a magneti permanenti. Le peculiarità degli attuatori tubolari sono molteplici: assenza di organi di trasmissione del moto; compattezza; elevate densità di forza e prestazioni nella dinamica, con una più ampia banda passante per il sistema di controllo; maggiore precisione, risoluzione, ripetibilità ed affidabilità. Tale tipologia di macchina è pertanto molto interessante in diverse applicazioni quali robotica, automazione, packaging, sistemi di posizionamento ecc., ed è altresì promettente nei settori aerospaziale e automotive. L'azionamento in studio è inoltre di tipo multifase. In tal caso si ottengono diversi vantaggi: possibilità di suddividere la potenza su un numero elevato di rami del convertitore; capacità di lavorare in condizioni di guasto; incremento della densità di coppia della macchina; possibilità di controllare in modo indipendente e con un solo inverter più macchine collegate in serie. Prestazioni migliori della macchina si possono ottenere con un opportuno sistema di controllo. Nel caso di azionamenti a magneti permanenti risulta particolarmente attraente il controllo di tipo sensorless della posizione rotorica, in alternativa ad un encoder o un resolver. Questo aumenta l'affidabilità, riduce i costi e diminuisce l'ingombro complessivo dell'azionamento. Appare molto interessante l'utilizzo di un azionamento tubolare di tipo multifase, e ancor più lo sviluppo di un apposito controllo di posizione di tipo sensorless. L’algoritmo sensorless di stima della posizione dell’attuatore può essere sviluppato partendo dall’anisotropia di macchina, sfruttando la possibilità peculiare delle macchine multifase di estrarre informazioni sullo stato attraverso i molteplici gradi di libertà presenti. Nel caso in questione si tratta del controllo della terza armonica spaziale del campo magnetico al traferro. Fondamentale è la definizione di un modello matematico in grado di rappresentare in modo opportuno l’anisotropia di macchina. In letteratura non sono ancora presenti modelli adatti a descrivere il dispositivo in questione; pertanto una parte essenziale della tesi è stata dedicata a definire tale modello e a verificarne la validità. Partendo dal modello è possibile dunque sviluppare un appropriato algoritmo di controllo sensorless e rappresentare in simulink l'intero azionamento. Nella parte conclusiva del lavoro di tesi vengono presentate le prove sperimentali, finalizzate alla determinazione dei parametri di macchina e alla verifica del funzionamento del sistema di controllo. Infine sono confrontati i risultati ottenuti rispetto a quelli realizzati con controlli di tipo tradizionale.
Resumo:
Il presente lavoro di tesi si inserisce nell’ambito della classificazione di dati ad alta dimensionalità, sviluppando un algoritmo basato sul metodo della Discriminant Analysis. Esso classifica i campioni attraverso le variabili prese a coppie formando un network a partire da quelle che hanno una performance sufficientemente elevata. Successivamente, l’algoritmo si avvale di proprietà topologiche dei network (in particolare la ricerca di subnetwork e misure di centralità di singoli nodi) per ottenere varie signature (sottoinsiemi delle variabili iniziali) con performance ottimali di classificazione e caratterizzate da una bassa dimensionalità (dell’ordine di 101, inferiore di almeno un fattore 103 rispetto alle variabili di partenza nei problemi trattati). Per fare ciò, l’algoritmo comprende una parte di definizione del network e un’altra di selezione e riduzione della signature, calcolando ad ogni passaggio la nuova capacità di classificazione operando test di cross-validazione (k-fold o leave- one-out). Considerato l’alto numero di variabili coinvolte nei problemi trattati – dell’ordine di 104 – l’algoritmo è stato necessariamente implementato su High-Performance Computer, con lo sviluppo in parallelo delle parti più onerose del codice C++, nella fattispecie il calcolo vero e proprio del di- scriminante e il sorting finale dei risultati. L’applicazione qui studiata è a dati high-throughput in ambito genetico, riguardanti l’espressione genica a livello cellulare, settore in cui i database frequentemente sono costituiti da un numero elevato di variabili (104 −105) a fronte di un basso numero di campioni (101 −102). In campo medico-clinico, la determinazione di signature a bassa dimensionalità per la discriminazione e classificazione di campioni (e.g. sano/malato, responder/not-responder, ecc.) è un problema di fondamentale importanza, ad esempio per la messa a punto di strategie terapeutiche personalizzate per specifici sottogruppi di pazienti attraverso la realizzazione di kit diagnostici per l’analisi di profili di espressione applicabili su larga scala. L’analisi effettuata in questa tesi su vari tipi di dati reali mostra che il metodo proposto, anche in confronto ad altri metodi esistenti basati o me- no sull’approccio a network, fornisce performance ottime, tenendo conto del fatto che il metodo produce signature con elevate performance di classifica- zione e contemporaneamente mantenendo molto ridotto il numero di variabili utilizzate per questo scopo.
Resumo:
In questo lavoro di tesi si sono sviluppati un modello molecolare ed una metodologia Molecular Dynamics in grado di simulare il comportamento di particelle attive, alimentate da un motore molecolare, in matrici liquido-cristalline. In particolare, abbiamo sviluppato un metodo di calcolo della temperatura traslazionale ed un algoritmo di termalizzazione compatibili con le condizioni di non-equilibrio del sistema. Dall’analisi delle prove condotte sono emerse variazioni significative nei comportamenti collettivi dei campioni quali segregazioni e flussi coerenti caratterizzati da un alto grado di ordine nematico. Il modello proposto, pur nella nella sua semplicità, può costituire una base per future e più specifiche simulazioni.