996 resultados para Visione SLAM Immagini PlaneDetection Valutazione


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il Sorafenib è l’unica terapia sistemica approvata per l’epatocarcinoma (HCC) avanzato. Tuttavia, molti tumori sviluppano resistenze. La chemioterapia metronomica sembrerebbe avere un effetto antiangiogenetico. La Capecitabina metronomica è potenzialmente efficace nell’HCC avanzato. Lo scopo dello studio è stato valutare il comportamento di un modello murino di HCC sottoposto a Sorafenib, Capecitabina e terapia combinata, per dimostrarne un eventuale effetto sinergico. Il modello è stato creato in topi scid mediante inoculazione sottocutanea di 5 milioni di cellule HuH7. I topi sono stati suddivisi in 4 gruppi: gruppo 1 sottoposto a terapia con placebo (9 topi), gruppo 2 a Sorafenib (7 topi), gruppo 3 a Capecitabina (7 topi) e gruppo 4 a terapia combinata Sorafenib+Capecitabina (10 topi). I topi sono stati studiati al giorno 0 e 14 con ecografia B-mode e con mezzo di contrasto (CEUS). Al giorno 14 sono stati sacrificati e i pezzi tumorali sono stati conservati per l’analisi Western Blot. Un topo del gruppo 1 e 4 topi del gruppo 4 sono morti precocemente e quindi sono stati esclusi. Il delta di crescita tumorale al giorno 14 rispetto al giorno 0 è risultato di +503 %, +158 %, +462 % e +176 % rispettivamente nei 4 gruppi (p<0.05 tra i 4 gruppi, tra il gruppo 1 e 2, tra il gruppo 1 e 4, tra il gruppo 2 e 3, tra il gruppo 3 e 4). Alla CEUS non si sono evidenziate differenze statisticamente significative nei cambiamenti di perfusione tumorale al giorno 14 nei 4 gruppi. L’analisi Western Blot ha mostrato livelli di VEGFR-2 inferiori nel gruppo dei topi trattati con Sorafenib. La terapia di associazione di Sorafenib e Capecitabina non comporta un beneficio, in termini di riduzione della crescita tumorale, in un modello murino di HCC rispetto al solo Sorafenib. Inoltre, può essere sospettato un incremento di tossicità.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ogni anno in Europa milioni di tonnellate di cibo vengono gettate via. Una stima pubblicata dalla Commissione europea afferma che, nei 27 Stati membri, 89 milioni di tonnellate di cibo, o di 179 kg pro capite, vengono scartati. Lo spreco si verifica lungo tutta la catena di agro alimentare; la riduzione dei rifiuti alimentari è diventata una delle priorità dell'agenda europea. La ricerca si concentra su un caso studio, Last Minute Market, un progetto di recupero di sprechi alimentari. L'impatto di questo progetto dal punto di vista economico e ambientale è già stato calcolato. Quello che verrà analizzato è l'impatto di questa iniziativa sulla comunità e in particolare sul capitale sociale, definito come "l'insieme di norme e reti che consentono l'azione collettiva". Obiettivo del presente lavoro è, quindi, quello di eseguire, attraverso la somministrazione di un questionario a diversi stakeholder del progetto, un’analisi confrontabile con quella del 2009 e di verificare a distanza di cinque anni, se l'iniziativa Last Minute Market abbia prodotto una crescita di capitale sociale nella comunità interessata da questa iniziativa. Per riassumere l’influenza del progetto sul capitale sociale in un indice sintetico, viene calcolato quello che verrà chiamato indice di "affidabilità del progetto" (definito in statistica, la "capacità di un prodotto, un sistema o un servizio di fornire le prestazioni richieste, per un certo periodo di tempo in condizioni predeterminate").

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente studio si colloca all’interno di una ricerca più ampia volta alla definizione di criteri progettuali finalizzati all’ottimizzazione delle prestazioni energetiche delle cantine di aziende vitivinicole, di dimensioni produttive medio - piccole. Nello specifico la ricerca riguarda la riqualificazione di fabbricati rurali esistenti di modeste dimensioni, da convertire a magazzini per la conservazione del vino in bottiglia. Lo studio si pone come obiettivo la definizione di criteri di analisi per la valutazione di interventi di retrofit di tali fabbricati, volto sia al miglioramento delle prestazioni energetiche dell’involucro edilizio, sia alla riduzione del fabbisogno energetico legato al funzionamento di eventuali impianti di controllo termico. La ricerca è stata condotta mediante l’utilizzo del software di simulazione termica Energy Plus, per ottenere i valori simulati di temperatura interna relativi ai diversi scenari migliorativi ipotizzati, e mediante la successiva definizione di indicatori che esplicitino l’influenza delle principali variabili progettuali sull’andamento delle temperature interne dei locali di conservazione e sul fabbisogno energetico del fabbricato necessario a garantire l’intervallo di temperatura di comfort del vino. Tra tutti gli interventi possibili per il miglioramento della prestazione energetica degli edifici, quelli analizzati in questo studio prevedono l’aggiunta di un isolamento a cappotto delle pareti esterne, l’isolamento della copertura e l’aggiunta di una struttura ombreggiante vegetale esterna. I risultati ottenuti danno una prima indicazione sugli interventi più efficaci in termini di miglioramento energetico e mettono in luce l’utilità del criterio proposto nell’evidenziare le criticità degli interventi migliorativi ipotizzati. Il metodo definito nella presente ricerca risulta quindi un valido strumento di valutazione a supporto della progettazione degli interventi di retrofit dei fabbricati rurali da convertire a magazzini per la conservazione del vino.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro è inserito nel contesto di applicazioni che riguardano la pianificazione e gestione delle emergenze umanitarie. Gli aspetti che si sono voluti mettere in evidenza sono due. Da un lato l'importanza di conoscere le potenzialità dei dati che si hanno di fronte per poterli sfruttare al meglio. Dall'altro l'esigenza di creare prodotti che siano facilmente consultabili da parte dell'utente utilizzando due diverse tecniche per comprenderne le peculiarità. Gli strumenti che hanno permesso il presente studio sono stati tre: i principi del telerilevamento, il GIS e l'analisi di Change Detection.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Analisi degli aggregati edilizi del centro storico della città di Lucera (FG), al fine di definire una classificazione della vulnerabilità sismica di tutto il centro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo studio effettuato si inserisce all’interno di una collaborazione tra il DICAM e la Provincia di Bologna ed ha come obiettivo l’analisi di sicurezza della SP26 “Valle del Lavino”, poichè risulta la terza tratta stradale a maggior costo sociale di tutta la rete provinciale. Il rapporto di analisi redatto a seguito del Road Safety Review ha infatti evidenziato numerosi deficit in termini di sicurezza dell’infrastruttura, tra cui gli attraversamenti pedonali. Obiettivo specifico della tesi è stato quello di valutare lo stato attuale di sicurezza degli attraversamenti pedonali presenti lungo il tracciato stradale in esame, in maniera tale da individuare, sulla base di una correlazione fra l’ubicazione degli attraversamenti stessi e il comportamento degli utenti alla guida dei veicoli, le intersezioni pedonali più gravosi, che per questo, in un piano di riqualifica della tratta stradale, richiederebbero opportuni interventi di adeguamento e messa in sicurezza. Con questa finalità è stata programmata ed eseguita una campagna di prove su strada che ha coinvolto un campione di 10 utenti, aventi determinati requisiti di base, del tutto ignari dell’obiettivo che si voleva perseguire e inesperti del tracciato di prova. La sperimentazione ha previsto l’impiego, fondamentale, di metodologie innovative, quali il V-Box e il Mobile Eye Detector, in grado di tener conto del comportamento degli utenti alla guida: il primo permette di rilevare l’andamento delle velocità dei partecipanti lungo il tracciato, il secondo restituisce il tracciamento del punto di vista del conducente alla guida. A ciascun partecipante è stato richiesto di condurre un veicolo, non di loro proprietà, per l’intero tratto della SP26 posto esame, compreso tra la progressiva 0+000, in comune di Zola Predosa, e la progressiva 19+200, in località Badia (comune di Monte San pietro), in andata e in ritorno per un complessivo di 38,4 km di tracciato da esaminare. Al conducente alla guida è stato richiesto di indossare durante tutta la guida l’occhiale Mobile Eye mentre l’auto di prova è stata dotata della strumentazione V-Box.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

I tumori, detti anche ''la malattia del secolo'', portano ogni anno alla morte di oltre 7 milioni di persone al mondo. Attualmente è una malattia molto diffusa che colpisce soprattutto persone anziane e non solo; tuttavia ancora non esiste una cura ''esatta'' che riesca a guarire la totalità delle persone: anzi si è ben lontani da questo risultato. La difficoltà nel curare queste malattie sta nel fatto che, oltre ad esservi una grande varietà di tipologie (è quindi difficile trovare una cura unica), spesse volte la malattie viene diagnosticata molto tempo dopo la comparsa per via dei sintomi che compaiono in ritardo: si intende quindi che si parla di una malattia molto subdola che spesse volte lascia poche speranze di vita. Uno strumento, utilizzato assieme alla terapie mediche, è quello della modellizzazione matematica: essa cerca di descrivere e prevedere, tramite equazioni, lo sviluppo di questo processo e, come ben si intenderà, poter conoscere in anticipo quel che accadrà al paziente è sicuramente un fattore molto rilevante per la sua cura. E' interessante vedere come una materia spesso definita come "noiosa" ed ''inutile'', la matematica, possa essere utilizzata per i più svariati, come -nel caso specifico- quello nobile della cura di un malato: questo è un aspetto di tale materia che mi ha sempre affascinato ed è anche una delle ragioni che mi ha spinto a scrivere questo elaborato. La tesi, dopo una descrizione delle basi oncologiche, si proporrà di descrivere le neoplasie da un punto di vista matematico e di trovare un algoritmo che possa prevedere l'effetto di una determinata cura. La descrizione verrà fatta secondo vari step, in modo da poter rendere la trattazione più semplice ed esaustiva per il lettore, sia egli esperto o meno dell'argomento trattato. Inizialmente si terrano distinti i modelli di dinamica tumorale da quelli di cinetica farmacologica, ma poi verrano uniti ed utilizzati assieme ad un algoritmo che permetta di determinare l'effetto della cura e i suoi effetti collaterali. Infine, nella lettura dell'elaborato il lettore deve tenere sempre a mente che si parla di modelli matematici ovvero di descrizioni che, per quanto possano essere precise, sono pur sempre delle approssimazioni della realtà: non per questo però bisogna disdegnare uno strumento così bello ed interessante -la matematica- che la natura ci ha donato.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Lo scopo principale di questa tesi di laurea è la valutazione della vulnerabilità sismica di un edificio esistente in muratura portante. In particolare si è esaminato il corpo Est del padiglione 19 del complesso ospedaliero San’Orsola-Malpighi di Bologna. Dopo una prima fase di conoscenza dell’edificio, attraverso sopralluoghi e tramite gli elaborati forniti dall’ufficio tecnico dell’ospedale, si è passati alla modellazione ad elementi finiti mediante il programma di calcolo Sap2000. Mediante modellazione manuale e modellazione FEM sono state eseguite prima le analisi lineari (statiche e dinamiche) e successivamente l’analisi statica non lineare. L’analisi lineare è stata condotta attraverso i tre livelli di analisi sismiche (LV1, LV2, LV3). Nel caso dell’analisi non lineare, si sono studiati prima i singoli maschi murari con modello a mensola e alla Grinter, poi pareti monopiano senza e con fasce di piano. L’analisi della struttura, infine, è stata svolta analizzando pareti multipiano soggette a due differenti distribuzioni di forze orizzontali, confrontando la domanda di spostamento, indotta dall’azione sismica, con la capacità di spostamento della struttura stessa. La tesi si conclude con considerazioni finali in merito ad analogie e differenze riscontrate nei due metodi di analisi utilizzati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Combinare le tre tecnologie citate nel titolo, GPS, BLE e riconoscimento di immagini per fornire un’informazione continua sulla posizione e sufficientemente precisa da permettere l’impiego della realtà aumentata, con particolare attenzione alla seconda, il BLE, nella fattispecie i bluetooth beacon, tecnologia emergente le cui potenzialità non sono ancora state approfondite fino in fondo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente lavoro è stato svolto presso il Servizio di Fisica Sanitaria dell’Azienda USL della Romagna, Presidio Ospedaliero di Ravenna e consiste nella validazione del dato dosimetrico visualizzato su due apparecchiature per mammografia digitale e nel confronto tra qualità immagine di diverse curve di acquisizione in funzione della dose e della post-elaborazione. Presupposto per l’acquisizione delle immagini è stata la validazione del dato dosimetrico visualizzato sui mammografi, tramite misura diretta della dose in ingresso con strumentazione idonea, secondo protocolli standard e linee guida europee. A seguire, sono state effettuate prove di acquisizione delle immagini radiografiche su due diversi fantocci, contenenti inserti a diverso contrasto e risoluzione, ottenute in corrispondenza di tre curve dosimetriche e in funzione dei due livelli di post-elaborazione delle immagini grezze. Una volta verificati i vari passaggi si è proceduto con l’analisi qualitativa e quantitativa sulle immagini prodotte: la prima valutazione è stata eseguita su monitor di refertazione mammografica, mentre la seconda è stata effettuata calcolando il contrasto in relazione alla dose ghiandolare media. In particolare è stato studiato l’andamento del contrasto cambiando le modalità del software Premium View e lo spessore interposto tra la sorgente di raggi X ed il fantoccio, in modo da simulare mammelle con grandezze differenti.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Valutazione dell’opportunità di fare trading elettrico nell’area CEE. Progetto di analisi di mercato, per l’azienda “C.U.Ra”, operatore del mercato elettrico, sull’opportunità di fare business energetico in Polonia e paesi CEE. Attività sviluppate: •Benchmarking dei mercati evoluti dell’energia •Analisi del mercato elettrico italiano •Analisi dell’attività di trading elettrico: Profit & Loss, Risk Management. •Analisi di Fattibilità •Analisi di sensibilità (What-if): variazione parametrica dell’opportunità • Avviamento del business e partnership con società di consulting polacca

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il Data Distribution Management (DDM) è un componente dello standard High Level Architecture. Il suo compito è quello di rilevare le sovrapposizioni tra update e subscription extent in modo efficiente. All'interno di questa tesi si discute la necessità di avere un framework e per quali motivi è stato implementato. Il testing di algoritmi per un confronto equo, librerie per facilitare la realizzazione di algoritmi, automatizzazione della fase di compilazione, sono motivi che sono stati fondamentali per iniziare la realizzazione framework. Il motivo portante è stato che esplorando articoli scientifici sul DDM e sui vari algoritmi si è notato che in ogni articolo si creavano dei dati appositi per fare dei test. L'obiettivo di questo framework è anche quello di riuscire a confrontare gli algoritmi con un insieme di dati coerente. Si è deciso di testare il framework sul Cloud per avere un confronto più affidabile tra esecuzioni di utenti diversi. Si sono presi in considerazione due dei servizi più utilizzati: Amazon AWS EC2 e Google App Engine. Sono stati mostrati i vantaggi e gli svantaggi dell'uno e dell'altro e il motivo per cui si è scelto di utilizzare Google App Engine. Si sono sviluppati quattro algoritmi: Brute Force, Binary Partition, Improved Sort, Interval Tree Matching. Sono stati svolti dei test sul tempo di esecuzione e sulla memoria di picco utilizzata. Dai risultati si evince che l'Interval Tree Matching e l'Improved Sort sono i più efficienti. Tutti i test sono stati svolti sulle versioni sequenziali degli algoritmi e che quindi ci può essere un riduzione nel tempo di esecuzione per l'algoritmo Interval Tree Matching.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questo studio si propone di realizzare un’applicazione per dispositivi Android che permetta, per mezzo di un gioco di ruolo strutturato come caccia al tesoro, di visitare in prima persona città d’arte e luoghi turistici. Gli utenti finali, grazie alle funzionalità dell’app stessa, potranno giocare, creare e condividere cacce al tesoro basate sulla ricerca di edifici, monumenti, luoghi di rilevanza artistico-storica o turistica; in particolare al fine di completare ciascuna tappa di una caccia al tesoro il giocatore dovrà scattare una fotografia al monumento o edificio descritto nell’obiettivo della caccia stessa. Il software grazie ai dati rilevati tramite GPS e giroscopio (qualora il dispositivo ne sia dotato) e per mezzo di un algoritmo di instance recognition sarà in grado di affermare se la foto scattata rappresenta la risposta corretta al quesito della tappa. L’applicazione GeoPhotoHunt rappresenta non solo uno strumento ludico per la visita di città turistiche o più in generale luoghi di interesse, lo studio propone, infatti come suo contributo originale, l’implementazione su piattaforma mobile di un Content Based Image Retrieval System (CBIR) del tutto indipendente da un supporto server. Nello specifico il server dell’applicazione non sarà altro che uno strumento di appoggio con il quale i membri della “community” di GeoPhotoHunt potranno pubblicare le cacce al tesoro da loro create e condividere i punteggi che hanno totalizzato partecipando a una caccia al tesoro. In questo modo quando un utente ha scaricato sul proprio smartphone i dati di una caccia al tesoro potrà iniziare l’avventura anche in assenza di una connessione internet. L’intero studio è stato suddiviso in più fasi, ognuna di queste corrisponde ad una specifica sezione dell’elaborato che segue. In primo luogo si sono effettuate delle ricerche, soprattutto nel web, con lo scopo di individuare altre applicazioni che implementano l’idea della caccia al tesoro su piattaforma mobile o applicazioni che implementassero algoritmi di instance recognition direttamente su smartphone. In secondo luogo si è ricercato in letteratura quali fossero gli algoritmi di riconoscimento di immagini più largamente diffusi e studiati in modo da avere una panoramica dei metodi da testare per poi fare la scelta dell’algoritmo più adatto al caso di studio. Quindi si è proceduto con lo sviluppo dell’applicazione GeoPhotoHunt stessa, sia per quanto riguarda l’app front-end per dispositivi Android sia la parte back-end server. Infine si è passati ad una fase di test di algoritmi di riconoscimento di immagini in modo di avere una sufficiente quantità di dati sperimentali da permettere di effettuare una scelta dell’algoritmo più adatto al caso di studio. Al termine della fase di testing si è deciso di implementare su Android un algoritmo basato sulla distanza tra istogrammi di colore costruiti sulla scala cromatica HSV, questo metodo pur non essendo robusto in presenza di variazioni di luminosità e contrasto, rappresenta un buon compromesso tra prestazioni, complessità computazionale in modo da rendere la user experience quanto più coinvolgente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il Projection Mapping è una tecnologia che permette di proiettare delle immagini sulla superficie di uno o più oggetti, anche di forma irregolare, trasformandoli in display interattivi. Il suo utilizzo, abbinato a suoni e musiche, permette di creare una narrazione audio-visuale. La suggestione e l’emozione scaturite dalla visione di una performance di Projection Mapping su di un monumento pubblico, hanno stimolato la mia curiosità e mi hanno spinto a cercare di capire se era possibile realizzare autonomamente qualcosa di analogo. Obiettivo di questa tesi è perciò spiegare cos’è il Projection Mapping e fornire una serie di indicazioni utili per realizzarne un’applicazione interattiva con OpenFrameworks (un framework open-source in C++) e hardware a basso costo (un computer, un videoproiettore e un sensore Kinect).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Finalità principale della Tesi è stata lo sviluppo di una linea di evidenza chimica che ha previsto la elaborazione di tre distinte procedure analitiche per la determinazione di caffeina con HPLC - MS, una delle quali messa a punto per matrici ambientali inorganiche (acque dolci e salate) e due delle quali specifiche per matrici biologiche (emolinfa e tessuti di Mytilus galloprovincialis). Esse sono state applicate a diversi casi di studio, cominciando dall’analisi di acque di mare prelevate al largo di Cesenatico (FC) e soggette in seguito ad aggiunta di varie concentrazioni di caffeina ai fini di analisi eco-tossicologiche. Le vasche, suddivise in quattro condizioni sperimentali, costituivano l’ambiente di esposizione di esemplari di Mytilus galloprovincialis, sottoposti a test con batterie di biomarker; campionando e analizzando le acque delle diverse vasche in diversi momenti nell’arco di una settimana di durata dell’esperimento, è stato possibile osservare una discrepanza significativa tra le concentrazioni predisposte e quelle effettivamente riscontrate, dovuta alla presenza di valori di fondo elevati (≈ 100 ng/l) nella matrice ambientale. Si è anche notata una cinetica di decadimento della sostanza di tipo esponenziale, più rapida dei casi di letteratura, ipotizzando che ciò avvenisse, oltre che per i normali fenomeni di termodegradazione e fotodegradazione, per l’attività di filtrazione dei molluschi. In seguito sono state raccolte aliquote di acqua presso i punti di immissione e di uscita dall’impianto di depurazione di Cervia (RA), nonchè campioni di acque superficiali, sia dolci che salate, riscontrando un ottimo abbattimento della sostanza da parte dell’impianto (≈ 99 %) e concentrazioni ambientali simili ai valori di fondo dell’esperimento (≈100 ng/l), inferiori rispetto a casi di letteratura per analoga matrice, anche a causa di intense precipitazioni atmosferiche in corrispondenza del prelievo. A suggello delle analisi relative alle acque si è provveduto ad esaminare anche acque di rubinetto, acque di rubinetto soggette a deionizzazione ed un’acqua minerale naturale imbottigliata e commercializzata, rilevando la presenza dello stimolante in ciascuno dei campioni (per ciò che concerne acque della rete idrica a valori simili a quelli ambientali, mentre per acque deionizzate ridotti di circa il 50% e per l’acqua imbottigliata testata abbattuti di oltre l’80%). Le ultime considerazioni sono state relative all’analisi di matrici biologiche mediante le procedure specificamente messe a punto; in questo caso, sia nell’emolinfa che nei tessuti prelevati dai mitili al termine dell’esperimento, si è osservato un bioaccumulo di caffeina che, per ciò che concerne la matrice fluida, è risultato correlato alla concentrazione di esposizione delle vasche, mentre relativamente ai tessuti si è evidenziato del tutto uniforme tra le condizioni sperimentali, facendo ipotizzare un bioaccumulo avvenuto nell’habitat marino, dovuto ai valori ambientali presenti.