911 resultados para riflessione ondosa, rete neurale, Matlab, database, analisi di sensibilità
Resumo:
Il lavoro svolto in questa tesi si colloca nell’area della robotica aerea e della visione artificiale attraverso l’integrazione di algoritmi di visione per il controllo di un velivolo senza pilota. Questo lavoro intende dare un contributo al progetto europeo SHERPA (Smart collaboration between Humans and ground-aErial Robots for imProving rescuing activities in Alpine environments), coordinato dall’università di Bologna e con la compartecipazione delle università di Brema, Zurigo, Twente, Leuven, Linkopings, del CREATE (Consorzio di Ricerca per l’Energia e le Applicazioni Tecnologiche dell’Elettromagnetismo), di alcune piccole e medie imprese e del club alpino italiano, che consiste nel realizzare un team di robots eterogenei in grado di collaborare con l’uomo per soccorrere i dispersi nell’ambiente alpino. L’obiettivo di SHERPA consiste nel progettare e integrare l’autopilota all’interno del team. In tale contesto andranno gestiti problemi di grande complessità, come il controllo della stabilità del velivolo a fronte di incertezze dovute alla presenza di vento, l’individuazione di ostacoli presenti nella traiettoria di volo, la gestione del volo in prossimità di ostacoli, ecc. Inoltre tutte queste operazioni devono essere svolte in tempo reale. La tesi è stata svolta presso il CASY (Center for Research on Complex Automated Systems) dell’università di Bologna, utilizzando per le prove sperimentali una PX4FLOW Smart Camera. Inizialmente è stato studiato un autopilota, il PIXHAWK, sul quale è possibile interfacciare la PX4FLOW, in seguito sono stati studiati e simulati in MATLAB alcuni algoritmi di visione basati su flusso ottico. Infine è stata studiata la PX4FLOW Smart Camera, con la quale sono state svolte le prove sperimentali. La PX4FLOW viene utilizzata come interfaccia alla PIXHAWK, in modo da eseguire il controllo del velivolo con la massima efficienza. E’ composta da una telecamera per la ripresa della scena, un giroscopio per la misura della velocità angolare, e da un sonar per le misure di distanza. E’ in grado di fornire la velocità di traslazione del velivolo, e quest’ultima, integrata, consente di ricostruire la traiettoria percorsa dal velivolo.
Resumo:
Il progresso tecnologico nel campo della biologia molecolare, pone la comunità scientifica di fronte all’esigenza di dare un’interpretazione all’enormità di sequenze biologiche che a mano a mano vanno a costituire le banche dati, siano esse proteine o acidi nucleici. In questo contesto la bioinformatica gioca un ruolo di primaria importanza. Un nuovo livello di possibilità conoscitive è stato introdotto con le tecnologie di Next Generation Sequencing (NGS), per mezzo delle quali è possibile ottenere interi genomi o trascrittomi in poco tempo e con bassi costi. Tra le applicazioni del NGS più rilevanti ci sono senza dubbio quelle oncologiche che prevedono la caratterizzazione genomica di tessuti tumorali e lo sviluppo di nuovi approcci diagnostici e terapeutici per il trattamento del cancro. Con l’analisi NGS è possibile individuare il set completo di variazioni che esistono nel genoma tumorale come varianti a singolo nucleotide, riarrangiamenti cromosomici, inserzioni e delezioni. Va però sottolineato che le variazioni trovate nei geni vanno in ultima battuta osservate dal punto di vista degli effetti a livello delle proteine in quanto esse sono le responsabili più dirette dei fenotipi alterati riscontrabili nella cellula tumorale. L’expertise bioinformatica va quindi collocata sia a livello dell’analisi del dato prodotto per mezzo di NGS ma anche nelle fasi successive ove è necessario effettuare l’annotazione dei geni contenuti nel genoma sequenziato e delle relative strutture proteiche che da esso sono espresse, o, come nel caso dello studio mutazionale, la valutazione dell’effetto della variazione genomica. È in questo contesto che si colloca il lavoro presentato: da un lato lo sviluppo di metodologie computazionali per l’annotazione di sequenze proteiche e dall’altro la messa a punto di una pipeline di analisi di dati prodotti con tecnologie NGS in applicazioni oncologiche avente come scopo finale quello della individuazione e caratterizzazione delle mutazioni genetiche tumorali a livello proteico.
Resumo:
La simulazione realistica del movimento di pedoni riveste una notevole importanza nei mondi dell'architettonica e della sicurezza (si pensi ad esempio all'evacuazione di ambienti), nell'industria dell'entertainment e in molti altri ambiti, importanza che è aumentata negli ultimi anni. Obiettivo di questo lavoro è l'analisi di un modello di pedone esistente e l'applicazione ad esso di algoritmi di guida, l'implementazione di un modello più realistico e la realizzazione di simulazioni con particolare attenzione alla scalabilità. Per la simulazione è stato utilizzato il framework Alchemist, sviluppato all'interno del laboratorio di ricerca APICe, realizzando inoltre alcune estensioni che potranno essere inglobate nel pacchetto di distribuzione del sistema stesso. I test effettuati sugli algoritmi presi in esame evidenziano un buon guadagno in termini di tempo in ambienti affollati e il nuovo modello di pedone risulta avere un maggiore realismo rispetto a quello già esistente, oltre a superarne alcuni limiti evidenziati durante i test e ad essere facilmente estensibile.
Resumo:
In questa tesi ho voluto descrivere il Timing Attack al sistema crittografico RSA, il suo funzionamento, la teoria su cui si basa, i suoi punti di forza e i punti deboli. Questo particolare tipo di attacco informatico fu presentato per la prima volta da Paul C. Kocher nel 1996 all’“RSA Data Security and CRYPTO conferences”. Nel suo articolo “Timing Attacks on Implementations of Diffie-Hellman, RSA, DSS, and Other Systems” l’autore svela una nuova possibile falla nel sistema RSA, che non dipende da debolezze del crittosistema puramente matematiche, ma da un aspetto su cui nessuno prima di allora si era mai soffermato: il tempo di esecuzione delle operazioni crittografiche. Il concetto è tanto semplice quanto geniale: ogni operazione in un computer ha una certa durata. Le variazioni dei tempi impiegati per svolgere le operazioni dal computer infatti, necessariamente dipendono dal tipo di algoritmo e quindi dalle chiavi private e dal particolare input che si è fornito. In questo modo, misurando le variazioni di tempo e usando solamente strumenti statistici, Kocher mostra che è possibile ottenere informazioni sull’implementazione del crittosistema e quindi forzare RSA e altri sistemi di sicurezza, senza neppure andare a toccare l’aspetto matematico dell’algoritmo. Di centrale importanza per questa teoria diventa quindi la statistica. Questo perché entrano in gioco molte variabili che possono influire sul tempo di calcolo nella fase di decifrazione: - La progettazione del sistema crittografico - Quanto impiega la CPU ad eseguire il processo - L’algoritmo utilizzato e il tipo di implementazione - La precisione delle misurazioni - Ecc. Per avere più possibilità di successo nell’attaccare il sistema occorre quindi fare prove ripetute utilizzando la stessa chiave e input differenti per effettuare analisi di correlazione statistica delle informazioni di temporizzazione, fino al punto di recuperare completamente la chiave privata. Ecco cosa asserisce Kocher: “Against a vulnerable system, the attack is computationally inexpensive and often requires only known ciphertext.”, cioè, contro sistemi vulnerabili, l’attacco è computazionalmente poco costoso e spesso richiede solo di conoscere testi cifrati e di ottenere i tempi necessari per la loro decifrazione.
Resumo:
Implementazione di uno strumento in Matlab in grado di analizzare i tracciati di potenziali d'azione cardiaci e di valutarne dei potenziali d'azione in risposta a variazioni di parametri del modello cardiaco della corrente di ripolarizzazione rapida di potassio.
Resumo:
La sonnolenza durante la guida è un problema di notevole entità e rappresenta la causa di numerosi incidenti stradali. Rilevare i segnali che precedono la sonnolenza è molto importante in quanto, é possibile mettere in guardia i conducenti dei mezzi adottando misure correttive e prevenendo gli incidenti. Attualmente non esiste una metodica efficace in grado di misurare la sonnolenza in maniera affidabile, e che risulti di facile applicazione. La si potrebbe riconoscere da mutazioni di tipo comportamentale del soggetto come: presenza di sbadigli, chiusura degli occhi o movimenti di caduta della testa. I soggetti in stato di sonnolenza presentano dei deficit nelle loro capacità cognitive e psicomotorie. Lo stesso vale per i conducenti i quali, quando sono mentalmente affaticati non sono in grado di mantenere un elevato livello di attenzione. I tempi di reazione si allungano e la capacità decisionale si riduce. Ciò è associato a cambiamenti delle attività delta, theta e alfa di un tracciato EEG. Tramite lo studio dei segnali EEG è possibile ricavare informazioni utili sullo stato di veglia e sull'insorgenza del sonno. Come strumento di classificazione per elaborare e interpretare tali segnali, in questo studio di tesi sono state utilizzate le support vector machines(SVM). Le SVM rappresentano un insieme di metodi di apprendimento che permettono la classicazione di determinati pattern. Necessitano di un set di dati di training per creare un modello che viene testato su un diverso insieme di dati per valutarne le prestazioni. L'obiettivo è quello di classicare in modo corretto i dati di input. Una caratteristica delle SVM è una buona capacità di generalizzare indipendentemente dalla dimensione dello spazio di input. Questo le rende particolarmente adatte per l'analisi di dati biomedici come le registrazioni EEG multicanale caratterizzate da una certa ridondanza intrinseca dei dati. Nonostante sia abbastanza semplice distinguere lo stato di veglia dallo stato di sonno, i criteri per valutarne la transizione non sono ancora stati standardizzati. Sicuramente l'attività elettro-oculografica (EOG) riesce a dare informazioni utili riguardo l'insorgenza del sonno, in quanto essa è caratterizzata dalla presenza di movimenti oculari lenti rotatori (Slow Eye Movements, SEM) tipici della transizione dalla veglia alla sonno. L'attività SEM inizia prima dello stadio 1 del sonno, continua lungo tutta la durata dello stesso stadio 1, declinando progressivamente nei primi minuti dello stadio 2 del sonno fino a completa cessazione. In questo studio, per analizzare l'insorgere della sonnolenza nei conducenti di mezzi, sono state utilizzate registrazioni provenienti da un solo canale EEG e da due canali EOG. Utilizzare un solo canale EEG impedisce una definizione affidabile dell'ipnogramma da parte dei clinici. Quindi l'obiettivo che ci si propone, in primo luogo, è quello di realizzare un classificatore del sonno abbastanza affidabile, a partire da un solo canale EEG, al fine di verificare come si dispongono i SEM a cavallo dell'addormentamento. Quello che ci si aspetta è che effettivamente l'insorgere della sonnolenza sia caratterizzata da una massiccia presenza di SEM.
Resumo:
Analisi strutturale dell’ala di un UAV (velivolo senza pilota a bordo), sviluppata usando varie metodologie: misurazioni sperimentali statiche e dinamiche, e simulazioni numeriche con l’utilizzo di programmi agli elementi finiti. L’analisi statica è stata a sua volta portata avanti seguendo due differenti metodi: la classica e diretta determinazione degli spostamenti mediante l’utilizzo di un catetometro e un metodo visivo, basato sull’elaborazione di immagini e sviluppato appositamente a tale scopo in ambiente Matlab. Oltre a ciò è stata svolta anche una analisi FEM volta a valutare l’errore che si ottiene affrontando il problema con uno studio numerico. Su tale modello FEM è stata svolta anche una analisi di tipo dinamico con lo scopo di confrontare tali dati con i dati derivanti da un test dinamico sperimentale per ottenere informazioni utili per una seguente possibile analisi aeroelastica.
Resumo:
Il bisogno di creare dei metodi per l’identificazione delle performance e strumenti di diagnosi è sempre maggiore nelle turbomacchine. Le case costruttrici di motori, in generale, sono guidate dalle richieste del mercato e da normative sempre più severe, e ricercano quindi da un lato, sempre migliori prestazioni come ad esempio la diminuzione dei consumi e, dall’altro, l’abbattimento degli agenti inquinanti. In ambito industriale si ha l’esigenza di rendere più rapidi i tempi di progettazione e sviluppo dei motori per l’abbattimento dei costi di progettazione e per minimizzare il tempo di commercializzazione. Ecco perché entra in gioco, ed assume importanza, l’uso della simulazione numerica che fornisce informazioni utili sia in fase di verifica, che in fase di progetto di tutti i componenti del motore, anche quelli che sarebbero difficilmente accessibili per misure sperimentali. Al contempo i calcolatori moderni diventano facilmente e rapidamente sempre più potenti riducendo così i tempi di calcolo, e ciò ha consentito l’uso di tecniche numeriche che prima sarebbero risultate impensabili da utilizzare. Per mezzo dell’uso di codici di tipo bi o tri-dimensionale è possibile conoscere e valutare i valori delle grandezze termodinamiche del fluido che attraversa il motore punto per punto. Questi metodi presentano un elevata accuratezza ma hanno anche lo svantaggio di richiedere un elevato costo computazionale con conseguente aumento dei tempi di calcolo. In più hanno bisogno di molti dati di input per il modello matematico, e dipendono fortemente dalle condizioni iniziali e dalle condizioni al contorno. Nasce quindi l'esigenza di un ambiente di sviluppo che consenta una modellazione semplificata degli elementi costituenti il motore, ed un rapido interfacciamento con modelli locali più sofisticati. Inoltre, se si vogliono ottimizzare dei parametri relativi all’impianto globale oppure se si desidera avere un quadro generale delle prestazioni del motore è sufficiente usare modelli 0-D e 1-D per i vari componenti del motore. Sono stati svolti molti studi concentrati sullo sviluppo di strumenti capaci di supportare operazioni di pianificazione e/o per validare analisi di diagnosi.
Resumo:
Studio dell’impacchettamento di un propellente solido tramite un codice realizzato in ambiente Matlab nel laboratorio di propulsione e macchine della Scuola di ingegneria e architettura con sede a Forlì. Tale studio è stato realizzato in quanto l’impacchettamento di materiale solido risulta essere di fondamentale importanza in molti settori dell’industria odierna, come il settore spaziale, minerario, farmaceutico e altri ancora. L’obiettivo è quello di riuscire a ottimizzare il volume occupato, in questo caso dal propellente, all’interno di un predeterminato dominio di controllo. Poter massimizzare lo spazio a disposizione permette di avere vantaggi sia in termini economici che di prestazione (ad esempio permette di avere a parità di volume una maggiore quantità di propellente a disposizione).
Resumo:
Analisi di campi di moto e temperatura in micro condotti al variare delle condizioni operative e della geometria. Dopo una breve introduzione al settore della microfluidica, si presentano, dal punto di vista teorico, le condizioni operative che caratterizzano il moto in presenza di rarefazione, sottolineando come il modello matematico di base per la fluidodinamica debba essere modificato per tenerne conto. Segue una breve parentesi dedicata all’illustrazione delle tecnologie e dei procedimenti di fabbricazione dei moderni microcanali utilizzati in questa recente branca della termofluidodinamica. Si vedrà, successivamente, il comportamento termoidraulico di questi ultimi al variare di parametri geometrici come il fattore di forma ed il raggio di curvatura degli spigoli della sezione attraverso simulazioni effettuate tramite FlexPDE: il software in questione lascia poi all’utente la gestione del post-processing.
Resumo:
L’elaborato utilizza un modello neurale, sviluppato nel lavoro di ricerca del prof. Ursino (2010) e successivamente modificato (2011 e 2012), al fine di analizzare alcuni meccanismi alla base della memoria semantica e lessicale. In particolare, la tesi si riferisce alla versione più recente del modello da cui ne deriva uno più semplificato come possibile modalità con cui l’uomo apprende i concetti, li immagazzina in opportune aree cerebrali e collega tali concetti alla parola corrispondente.
Resumo:
Obiettivo Analisi di consumi e costi degli antibiotici sistemici negli ospedali dell’Emilia-Romagna dal 2004 al 2011, con attenzione alla variabilità interaziendale e al significato, in termini di resistenza batterica, dell’aumento di alcuni gruppi terapeutici; Sottoanalisi nei reparti pediatrici, individuando i gruppi terapeutici critici, e valutazione delle reazioni avverse pediatriche da antibiotici segnalate, per il periodo in esame. Metodi I dati di consumo e spesa degli antibiotici sistemici per il periodo 2004-2011 sono stati ottenuti dal database regionale AFO e le giornate di degenza per ogni reparto dal database regionale di dimissione ospedaliera SDO. Le segnalazioni di sospette reazioni avverse da antibiotici tra gennaio 2004 e dicembre 2011 sono state estratte dal database nazionale VigiSegn. Risultati Negli otto anni, il consumo di antibiotici negli ospedali dell’Emilia-Romagna è aumentato del 27% e la spesa del 3%. Il consumo è apparso nettamente superiore nei reparti chirurgici che medici. La prima classe per consumo e spesa sono le penicilline/inibitori delle beta lattamasi. Nei reparti pediatrici, sono stati utilizzati 65 principi attivi diversi e amoxicillina/acido clavulanico è stato il più usato (26% del totale del 2011). Tra gli antibiotici critici, le cefalosporine di terza generazione sono state le più consumate in tutti i reparti pediatrici nel 2011. Tra le molecole il cui uso ospedaliero è vincolato, spiccano il linezolid e la teicoplanina che, comunque, hanno inciso più di tutte nella spesa del 2011 (18% e 15%, rispettivamente). Per la farmacovigilanza, i bambini (3-13 anni) sono stati coinvolti in 23 casi, mentre gli infanti (≤2 anni) solo in 4. L’associazione amoxicillina/acido clavulanico è stata più frequentemente segnalata (n=7), e soltanto 2 casi erano gravi. Conclusioni I risultati mostrano un quadro critico sul massiccio uso delle cefalosporine di terza generazione e sull’incremento del linezolid, da approfondire se per inappropriatezza d’uso oppure per aumento delle resistenze batteriche.
Resumo:
Questa tesi nasce innanzitutto dalla mia esperienza di tirocinio curriculare, durante la quale ho sottotitolato un cortometraggio irlandese di animazione narrato in rima (oltre che dalla mia passione antica per il cinema in lingua originale e più recente per il doppiaggio). La tesi si compone di tre capitoli. Inizia con l'analisi di una parte della teoria del sottotitolaggio, poi presenta il filmato, alcuni suoi autori, il testo originale e i miei sottotitoli, e si conclude con la spiegazione del metodo usato per realizzare concretamente l'adattamento.
Resumo:
Il carcinoma squamoso orale (CSO) è spesso preceduto da lesioni definite potenzialmente maligne tra cui la leucoplachia e il lichen ma una diagnosi precoce avviene ancora oggi in meno della metà dei casi. Inoltre spesso un paziente trattato per CSO svilupperà secondi tumori. Scopo del lavoro di ricerca è stato: 1) Studiare, mediante metodica di next generation sequencing, lo stato di metilazione di un gruppo di geni a partire da prelievi brushing del cavo orale al fine di identificare CSO o lesioni ad alto rischio di trasformazione maligna. 2) Valurare la relazione esistente tra sovraespressione di p16INK4A e presenza di HPV in 35 pazienti affetti da lichen 3) Valutare la presenza di marker istopatologici predittivi di comparsa di seconde manifestazioni tumorali 4) valutare la relazione clonale tra tumore primitivo e metastasi linfonodale in 8 pazienti mediante 2 metodiche di clonalità differenti: l’analisi di mtDNA e delle mutazioni del gene TP53. I risultati hanno mostrato: 1) i geni ZAP70 e GP1BB hanno presentato un alterato stato di metilazione rispettivamente nel 100% e nel 90,9% di CSO e lesioni ad alto rischio, mentre non sono risultati metilati nei controlli sani; ipotizzando un ruolo come potenziali marcatori per la diagnosi precoce nel CSO. 2)Una sovraespressione di p16INK4A è risultata in 26/35 pazienti affetti da lichen ma HPV-DNA è stato identificato in soli 4 campioni. Nessuna relazione sembra essere tra sovraespressione di p16INK4A e virus HPV. 3)L’invasione perineurale è risultato un marker predittivo della comparsa di recidiva locale e metastasi linfonodale, mentre lo stato dei margini chirurgici si è rilevato un fattore predittivo per la comparsa di secondi tumori primitivi 4) Un totale accordo nei risultati c’è stato tra analisi di mtDNA e analisi di TP53 e le due metodiche hanno identificato la presenza di 4 metastasi linfonodali non clonalmente correlate al tumore primitivo.
Resumo:
Il seguente elaborato si propone di fornire un esempio di traduzione del film Brat 2 di Aleksej Balabanov, che possa fungere da base per un eventuale sottotitolaggio. Il lavoro è suddiviso in quattro sezioni: in primo luogo, una breve nota alla traduzione, pensata per favorire una lettura diretta delle battute, in cui ci si soffermerà su alcuni aspetti della lingua e della cultura russe. Le linee orizzontali demarcano i cambi di scena, ovvero il passaggio da un ambiente ad un altro. La seconda sezione si concentra in parte sull'analisi di alcuni temi e caratteristiche del film in questione (anche in relazione con il suo antecedente Brat), in parte sul regista e sull'attore protagonista Sergej Badrov. La terza sezione fornirà invece una breve delucidazione riguardo la traduzione audiovisiva. Infine, la quarta sezione è composta da una tabella a due colonne, all'interno della quale sono inserite le battute tradotte con testo a fronte. La scelta è ricaduta sull'opera in questione data la sua rilevanza all'interno del panorama cinematografico russo, ma soprattutto, data la sua originalità. Brat 2 [Fratello 2] ha la capacità di mostrare, con poche ed efficaci pennellate, le immagini di un'America diversa da quella che si è soliti rappresentare sugli schermi occidentali.