500 resultados para GPGPU RaspberryPi OpenGL Algoritmi Paralleli SeamCarving StreamProcessing


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alcune patologie dell’occhio come la retinopatia diabetica, il pucker maculare, il distacco della retina possono essere curate con un intervento di vitrectomia. I rischi associati all’intervento potrebbero essere superati ricorrendo alla vitrectomia enzimatica con plasmina in associazione o in sostituzione della vitrectomia convenzionale. Inoltre, l’uso di plasmina autologa eviterebbe problemi di rigetto. La plasmina si ottiene attivando il plasminogeno con enzimi quali l’attivatore tissutale (tPA) e l’urochinasi ( uPA ) . La purificazione del plasminogeno dal sangue avviene normalmente attraverso cromatografia di affinità con resina. Tuttavia, le membrane di affinità costituiscono un supporto ideale per questa applicazione poiché possono essere facilmente impaccate prima dell’intervento, permettendo la realizzazione di un dispositivo monouso che fornisce un processo rapido ed economico. Obiettivo di questo lavoro è la preparazione di membrane di affinità per la purificazione del plasminogeno utilizzando L-lisina come ligando di affinità. Per questo scopo sono state usate membrane in cellulosa rigenerata ad attivazione epossidica, modificate con due diversi protocolli per l’immobilizzazione di L-lisina. La densità ligando è stata misurata mediante un saggio colorimetrico che usa l’acido arancio 7 come indicatore. La resa di immobilizzazione è stata studiata in funzione del tempo di reazione e della concentrazione di L-lisina. Le membrane ottimizzate sono state caratterizzate con esperimenti dinamici usando siero bovino e umano, i risultati sono stati confrontati con quelli ottenuti in esperimenti paralleli condotti con una resina commerciale di affinità con L-lisina. Durante gli esperimenti con siero, le frazioni provenienti da ogni fase cromatografica sono state raccolte e analizzate con HPLC ed elettroforesi SDS-PAGE. In particolare, l’elettroforesi dei campioni eluiti presenta una banda del plasminogeno ben definita indicando che le membrane di affinità con L-lisina sono adatte alla purificazione del plasminogeno. Inoltre, è emerso che le membrane hanno maggiore produttività della resina commerciale di riferimento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi si effettua uno studio sulla capacità degli algoritmi di apprendimento per rinforzo di profilare un utente Web unicamente attraverso l'osservazione del suo comportamento durante la navigazione

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La disintegrazione dei nuclei atomici si traduce in una emissione di vari tipi di radiazioni e particelle tra cui neutroni e raggi gamma. La rivelazione dei neutroni comporta l’utilizzo di rivelatori a scintillazione e tecniche di analisi per poter identificare e ottenere informazioni sull’energia dei neutroni. Il processo di scintillazione per la rivelazione dei neutroni consiste nell’interazione con i nuclei del materiale e successiva emissione luminosa dovuta a ionizzazione degli atomi del rivelatore. La luce e in seguito convertita in impulsi elettrici, i quali possono essere analizzati con opportune tecniche. L’emissione di neutroni `e accompagnata da emissione di raggi gamma e quindi `e necessario identificare i neutroni. Rivelatori basati su scintillatori organici vengono spesso impiegati nella spettrometria neutronica ad energie superiori di 0.5 MeV ed in una vasta gamma di applicazioni come la medicina, l’industria e la radioprotezione. La rilevazione dei neutroni `e molto importante nello studio delle reazioni nucleari di bassa energia e nello studio della materia nucleare lontano dalla valle di stabilita. In questo lavoro abbiamo studiato tre algoritmi: Zero Crossing, Charge Comparison e Pulse Gradient Analysis. Questi algoritmi sono stati in seguito applicati all’analisi di un insieme di dati provenienti dalla reazione nucleare 7Li(p,n)7Be. E stato utilizzato uno scintillatore organico liquido BC501. Si `e effettuato un confronto tra le varie tecniche utilizzate per determinare il grado di discriminazione ottenuto con ognuna di esse. I risultati ottenuti permettono di decidere in seguito quale algoritmo si presta ad essere utilizzato anche in altri esperimenti futuri. Il metodo Pulse Gradient Analysis `e risultato il piu` prometente, essendo anche possibile l’utilizzo on-line.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

questa tesi propone una prospettiva completa sull'accelerometro, descrivendone le caratteristiche le tipologie, gli utilizzi che se ne possono fare e gli ambiti di applicazione. Sviluppa anche argomenti che riguardano interfacce e piattaforme per l'interazione con il sensore e algoritmi machine learning.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abbiamo analizzato il comportamento di dispositivi mobili allo scopo di acquisire, ricostruire ed analizzare dati rotazionali da veicoli in movimento. E' possibile ricostruire solo l'urto iniziale di un incidente tra automobili attraverso segnale GPS e accelerometri interni ai veicoli, non è possibile ricostruire l'intera dinamica dell'incidente poiché si perde la rotazione assunta dai mezzi di trasporto dopo l'urto. Per questo scopo abbiamo studiato il comportamento di un dispositivo mobile capace di percepire movimenti rotatori. Abbiamo creato un'architettura software per ricostruire graficamente ed analizzare le rotazioni di una piattaforma Arduino, ovvero un prototipo dotato di accelerometro e giroscopio. Per studiare le rotazioni è stata applicata la matematica dei quaternioni. Abbiamo trovato algoritmi che ricavano le rotazioni attraverso le velocità angolari fornite dalla piattaforma, ed anche attraverso componenti hardware specializzati in rotazioni. Entrambe le soluzioni riescono ad interpretare correttamente la rotazioni del dispositivo nell'intervallo di tempo in cui si può sviluppare un incidente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo studio ci siamo proposti di investigare i sistemi di modulazione automatica della dose sui sistemi TC Multislice (Automatic Exposure Control – AEC) da tre diversi produttori, aventi differenti indicatori di qualità delle immagini. Il presente lavoro è stato svolto presso il Servizio di Fisica Sanitaria dell’Azienda Ospedaliera Universitaria - Policlinico Sant’Orsola-Malpighi di Bologna e consiste in un’analisi quantitativa della dose impiegata durante esami di Tomografia Computerizzata Multi-Slice (TCMS) e delle rispettive immagini radiologiche. Le immagini sono state acquisite con : GE LightSpeed VCT 64 e GE LightSpeed 16 (AEC AutomA 3D longitudinale e angolare), Siemens Sensation 16 (AEC CARE Dose 4D combinato), Philips Brilliance 16 e iCT 64 (separati in AEC ZDOM longitudinale e AEC DDOM angolare). Le acquisizioni TCMS sono state effettuate a differenti kV e mA di riferimento, al fine di investigarne gli effetti sulla modulazione, impiegando algoritmi di ricostruzione standard presenti su ogni macchina. Due fantocci antropomorfi simulanti la zona del torace e dell’addome sono stati utilizzati per simulare un paziente standard posizionato come in un esame clinico di routine ; a questo proposito, sono stati impiegati protocolli elicoidali standard con e senza modulazione. Sono inoltre stati testati differenti valori di indice di qualità delle immagini. Il profilo dei mA lungo la lunghezza è stato ottenuto utilizzando ImageJ, un programma open source comunemente utilizzato per l’elaborazione di immagini; i mAs sono stati normalizzati ad un fattore che tiene conto delle differenti geometrie e delle filtrazioni dei diversi scanner tomografici analizzati nell’esperienza. Il rumore è stato valutato tramite la scelta di determinate ROI (Region Of Interest) localizzate in aree il più possibili uniformi disponibili lungo i fantocci. Abbiamo registrato che una variazione del Noise Index o dei mAs di riferimento a seconda della tipologia di macchina analizzata risulta in uno shift dei profili di dose; lo stesso si è verificato quando sono stati cambiato kV o mA nella scout di acquisizione. Sistemi AEC longitudinali e combinati hanno mostrato profili di mAs normalizzati simili tra loro, con valori elevati evidenziati nella zona delle spalle e zona pelvi; sono state osservate differenze del 30-40% tra i differenti scanner tomografici. Solo in un caso di macchina analizzata si è verificato un comportamento opposto rispetto alle altre due tipologie di macchina in esame. A dispetto della differente natura dei sistemi AEC, i risultati ottenuti dai protocolli combinati e longitudinali sono simili tra loro. Il rumore presente nelle immagini è aumentato ad un livello accettabile e la sua uniformità lungo la direzione di scan è migliorata.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Architettura e musica. Spazio e tempo. Suono. Esperienza. Queste le parole chiave da cui ha preso avvio la mia ricerca. Tutto è iniziato dall’intuizione dell’esistenza di un legame tra due discipline cui ho dedicato molto tempo e studio, completando due percorsi accademici paralleli, la Facoltà di architettura e il Conservatorio. Dopo un lavoro d’individuazione e analisi degli infiniti spunti di riflessione che il tema offriva, ho focalizzato l’attenzione su uno degli esempi più emblematici di collaborazione tra un architetto e un musicista realizzatasi nel Novecento: Prometeo, tragedia dell’ascolto (1984), composta da Luigi Nono con la collaborazione di Massimo Cacciari e Renzo Piano. Attraverso lo studio di Prometeo ho potuto affrontare la trattazione di molte delle possibili declinazioni del rapporto interdisciplinare tra musica e architettura. La ricerca si è svolta principalmente sullo studio dei materiali conservati presso l’Archivio Luigi Nono e l’archivio della Fondazione Renzo Piano. La tesi è organizzata in tre parti: una prima parte in cui si affronta il tema del ruolo dello spazio nelle opere di Nono precedenti a Prometeo, facendo emergere l’importanza dell’ambiente culturale e sonoro veneziano; una seconda parte in cui si approfondisce il processo compositivo che ha portato alle rappresentazioni di Prometeo a Venezia, Milano e a Parigi; una terza parte in cui si prende in considerazione quanto avvenuto dopo Prometeo e si riflette sui contributi che questa esperienza può portare alla progettazione di spazi per la musica, analizzando diversi allestimenti dell’opera senza arca e prendendo in considerazione i progetti dell’auditorium dell’International Art Village di Akiyoshidai e della sala della nuova Philharmonie di Parigi. Lo studio dell’esperienza di Prometeo ha lo scopo di stimolare la curiosità verso la ricerca e la sperimentazione di quegli infiniti possibili della composizione architettonica e musicale di cui parla Nono.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Algoritmi euristici per la risoluzione del Travelling DEliveryman Problem

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’intelligenza artificiale, ovvero lo studio e la progettazione di sistemi intelligenti, mira a riprodurre alcuni aspetti dell’intelligenza umana, come il linguaggio e il ragionamento deduttivo, nei computer. La robotica, invece, cerca spesso di ricreare nei robot comportamenti adattativi, come l’abilità di manipolare oggetti o camminare, mediante l’utilizzo di algoritmi in grado di generare comportamenti desiderati. Una volta realizzato uno di questi algoritmi specificamente per una certa abilità, si auspica che tale algoritmo possa essere riutilizzato per generare comportamenti più complessi fino a che il comportamento adattativo del robot non si mostri ad un osservatore esterno come intelligente; purtroppo questo non risulta sempre possibile e talvolta per generare comportamenti di maggiore complessità è necessario riscrivere totalmente gli algoritmi. Appare quindi evidente come nel campo della robotica l’attenzione sia incentrata sul comportamento, perché le azioni di un robot generano nuove stimolazioni sensoriali, che a loro volta influiscono sulle sue azioni future. Questo tipo di intelligenza artificiale (chiamata propriamente embodied cognition) differisce da quella propriamente detta per il fatto che l’intelligenza non emerge dall’introspezione ma dalle interazioni via via più complesse che la macchina ha con l’ambiente circostante. Gli esseri viventi presenti in natura mostrano, infatti, alcuni fenomeni che non sono programmati a priori nei geni, bensì frutto dell’interazione che l’organismo ha con l’ambiente durante le varie fasi del suo sviluppo. Volendo creare una macchina che sia al contempo autonoma e adattativa, si devono affrontare due problemi: il primo è relativo alla difficoltà della progettazione di macchine autonome, il secondo agli ingenti costi di sviluppo dei robot. Alla fine degli anni ’80 nasce la robotica evolutiva che, traendo ispirazione dall’evoluzione biologica, si basa sull’utilizzo di software in grado di rappresentare popolazioni di robot virtuali e la capacità di farli evolvere all’interno di un simulatore, in grado di rappresentare le interazioni tra mente e corpo del robot e l’ambiente, per poi realizzare fisicamente solo i migliori. Si utilizzano algoritmi evolutivi per generare robot che si adattano, anche dal punto di vista della forma fisica, all’ambiente in cui sono immersi. Nel primo capitolo si tratterà di vita ed evoluzione artificiali, concetti che verranno ripresi nel secondo capitolo, dedicato alle motivazioni che hanno portato alla nascita della robotica evolutiva, agli strumenti dei quali si avvale e al rapporto che ha con la robotica tradizionale e le sue declinazioni. Nel terzo capitolo si presenteranno i tre formalismi mediante i quali si sta cercando di fornire un fondamento teorico a questa disciplina. Infine, nel quarto capitolo saranno mostrati i problemi che ancora oggi non hanno trovato soluzione e le sfide che si devono affrontare trattando di robotica evolutiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La nostra ricerca si è focalizzata sul tema dell’identità di Cavezzo, risorsa preziosa che la catastrofe ha distrutto in un attimo, insieme alle vite umane e ai beni materiali. La perdita di identità comporta infatti negli abitanti la percezione di vivere la propria quotidianità in una sorta di “non luogo”. Poiché il nostro progetto non può essere in grado di risolvere il dolore umano provocato da questo evento, abbiamo agito sulla città per quella che è o che dovrebbe essere, ovvero un agglomerato di architetture, spazi pubblici e privati, capaci di restituire riconoscibilità, e dunque senso di appartenenza, ai suoi cittadini. L’obiettivo principale è stato quindi quello di dare agli abitanti un’immagine diversa ma chiara del proprio paese. L’evento del terremoto non viene infatti congelato, musealizzato o usato come pretesto per ricostruire “com’era dov’era”, ma diventa l’occasione per ripensare la città nella sua interezza e per affrontare riflessioni sulla gerarchia fra spazi collettivi e individuali, e sulla capacità di questi elementi di tenere insieme la comunità. Abbiamo deciso di chiamare la nostra tesi “Cavezzo, isola di pietra. Percorsi di identità urbana” innanzitutto perché il nostro progetto si è focalizzato su uno degli isolati urbani maggiormente sedimentati di Cavezzo, uno dei pochi luoghi radicati nella storia della città. Esso conserva il nucleo originario, nato a partire dalla chiesa di Sant’Egidio, attorno al quale si è poi sviluppato tutto l’aggregato urbano, e detiene una forte e radicata relazione con gli elementi naturali della Bassa, in quanto l’acqua del canalino che vi sorgeva è generatrice di forme e il verde instaura relazioni con la campagna limitrofa. Questi segni casuali di una natura che agisce incontrollata e plasma la forma di queste terre diventano il pretesto iniziale che dà vita a tutto il nostro progetto, sia per la sua forma, sia per la sua collocazione ed il significato che esso assume all’interno della città. Questo progetto, radicato nella storia, si snoda in diversi percorsi paralleli che vedono il susseguirsi di tre interventi che, nonostante la loro diversità, possono essere comunque letti in modo unitario. Queste tre operazioni vengono infatti tenute insieme da alcuni principi condivisi che rafforzano la leggibilità dell’intervento complessivo; in particolare una relazione rimane sempre imprescindibile per tutti: quella con la città e con le preesistenze. Tutti e tre i progetti lavorano sulla gerarchia tra spazi pubblici e privati, indagando tematiche diverse, seppur legate, come quelle della casa e del teatro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La revisione qui riportata valuta tutte le modalità di identificazione di task motori e posturali attraverso l'uso di sensori indossabili, principalmente accelerometri. Essa ha lo scopo di illustrare i sensori e gli algoritmi utilizzati in 23 articoli scelti in base alla loro qualità secondo una metodologia personalizzata di ricerca per fare il punto degli studi in questo campo, fino a questo momento. I dati estratti vengono utilizzati per individuare gli aspetti chiave riportati negli articoli, specialmente riguardanti l'algoritmo, focus della nostra revisione. Secondo questo criterio vengono selezionati 13 articoli, i quali si soffermano maggiormente sui modelli di approccio utilizzati, al fine di ottenere la più elevata accuratezza nell'identificazione. Questa in generale varia tra l'80-90% per i task motori più conosciuti(camminata, corsa e altri) mentre rimane limitata, intorno al 60-70% quando vengono analizzati i movimenti specifici degli arti superiori o inferiori.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel seguente elaborato si propone lo sviluppo di un modello agli elementi finiti (FEM) del processo di friction welding del quale, attraverso i dati rilevati da prove sperimentali di validazione termica, vengono valutati i parametri ottimali di simulazione. Ai risultati così ottenuti vengono applicati anche algoritmi per la valutazione della microstruttura e della qualità della saldatura, sviluppati originariamente per l'analisi dell'estrusione: in entrambi i casi a seguito del confronto con le analisi metallografiche dei provini è stato possibile validare ulteriormente il modello creato.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questa tesi si è studiato un metodo per modellare e virtualizzare tramite algoritmi in Matlab le distorsioni armoniche di un dispositivo audio non lineare, ovvero uno “strumento” che, sollecitato da un segnale audio, lo modifichi, introducendovi delle componenti non presenti in precedenza. Il dispositivo che si è scelto per questo studio il pedale BOSS SD-1 Super OverDrive per chitarra elettrica e lo “strumento matematico” che ne fornisce il modello è lo sviluppo in serie di Volterra. Lo sviluppo in serie di Volterra viene diffusamente usato nello studio di sistemi fisici non lineari, nel caso in cui si abbia interesse a modellare un sistema che si presenti come una “black box”. Il metodo della Nonlinear Convolution progettato dall'Ing. Angelo Farina ha applicato con successo tale sviluppo anche all'ambito dell'acustica musicale: servendosi di una tecnica di misurazione facilmente realizzabile e del modello fornito dalla serie di Volterra Diagonale, il metodo permette di caratterizzare un dispositivo audio non lineare mediante le risposte all'impulso non lineari che il dispositivo fornisce a fronte di un opportuno segnale di test (denominato Exponential Sine Sweep). Le risposte all'impulso del dispositivo vengono utilizzate per ricavare i kernel di Volterra della serie. L'utilizzo di tale metodo ha permesso all'Università di Bologna di ottenere un brevetto per un software che virtualizzasse in post-processing le non linearità di un sistema audio. In questa tesi si è ripreso il lavoro che ha portato al conseguimento del brevetto, apportandovi due innovazioni: si è modificata la scelta del segnale utilizzato per testare il dispositivo (si è fatto uso del Synchronized Sine Sweep, in luogo dell'Exponential Sine Sweep); si è messo in atto un primo tentativo di orientare la virtualizzazione verso l'elaborazione in real-time, implementando un procedimento (in post-processing) di creazione dei kernel in dipendenza dal volume dato in input al dispositivo non lineare.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduzione e principio della generazione fotovoltaica. Studio dei convertitori DC/DC, con particolare attenzione al convertitore di tipo SEPIC. Analisi degli algoritmi di MPPT. Verifica di alcune casistiche pratiche su impianti fotovoltaici di tipo stand alone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Grazie alla loro versatilità, i velivoli multirotore hanno ricevuto sempre più interesse durante gli ultimi anni, in ambito accademico e di recente anche industriale. Il lavoro presentato è volto a studiare e confrontare le moderne tecniche di navigazione e di controllo di questo tipo di velivoli. Difatti, spesso, gli algoritmi utilizzati sono stati limitati dalla capacità di calcolo del processore imbarcato e dalla qualità dei sensori utilizzati. Negli ultimi anni, però, lo sviluppo della microelettronica ha ricevuto un forte impulso (dovuto principalmente alla ricerca nell’ambito della telefonia), che ha portato all’abbattimento dei costi e alla nascita di progetti opensource, tra i quali le famose schede Arduino prodotte da Olivetti, attorno alle quali si sono sviluppati molti progetti di velivoli opensource. L’importanza di ciò, in ambito accademico, è rilevante, poiché consente l’utilizzo di algoritmi e di configurazioni hardware comprovati, lasciando spazio a modifiche e migliorie. Nel nostro caso, in particolare, si vuole osservare come complessi algoritmi di navigazione, resi possibili da un processore più potente, possano migliorare le prestazioni del noto progetto opensource ArduPilot [3]. Tali miglioramenti possono essere rilevanti in applicazioni per le quali sia richiesta una certa precisione nel posizionamento, come ad esempio lo studio di formazioni o la navigazione in ambienti angusti.