999 resultados para XML, algoritmi di confronto, change tracking, strumenti di differenziazione
Resumo:
L'obiettivo principale di questo lavoro di tesi è quello di migliorare gli algoritmi di morphing generation in termini di qualità visiva e di potenzialità di attacco dei sistemi automatici di riconoscimento facciale.
Resumo:
Gli UAV, o meglio conosciuti come ‘droni’, sono aeromobili a pilotaggio remoto il cui utilizzo si estende dal settore militare a quello civile. Quest’ultimi, possono essere attrezzati con numerosi dispositivi accessori, come ad esempio disturbatori di frequenze. La simbiosi UAV-jammer attacca le comunicazioni wireless tramite interferenze a radiofrequenza, per degradare o interrompere il servizio offerto dalle reti. Questo elaborato, si concentra sull’analisi di algoritmi di localizzazione passiva, per stimare la posizione dell’UAV e interrompere l’interferenza. Inizialmente, viene descritto il segnale emesso dall’UAV, che utilizza lo standard di comunicazione 802.11a. A seguire, dato che la localizzazione passiva si basa sulle misure TDOA rilevate da una stazione di monitoraggio a terra, vengono presentati tre algoritmi di stima TDOA, tra i quali fast TDOA, adaptive threshold-based first tap detection e un algoritmo sviluppato per i nuovi sistemi GNSS. Successivamente, vengono esaminati tre algoritmi di localizzazione passiva, che sfruttano il principio dei minimi quadrati (LS), ovvero il CTLS, LCLS e CWLS. Infine, le prestazioni degli algoritmi di localizzazione vengono valutate in un ambiente di simulazione realistico, con canale AWGN o con canale ITU Extended pedestrian A.
Resumo:
Background: MPLC represents a diagnostic challenge. Topic of the discussion is how to distinguish these patients as a metastatic or a multifocal disease. While in case of the different histology there are less doubt on the opposite in case of same histology is mandatory to investigate on other clinical features to rule out this question. Matherials and Methods: A retrospective review identified all patients treated surgically for a presumed diagnosis of SPLC. Pre-operative staging was obtained with Total CT scan and fluoro-deoxy positron emission tomography and mediastinoscopy. Patients with nodes interest or extra-thoracic location were excluded from this study. Epidermal growth factor receptor (EGFR) expression with complete immunohistochemical analisis was evaluated. Survival was estimated using Kaplan-Meyer method, and clinical features were estimated using a long-rank test or Cox proportional hazards model for categorical and continuous variable, respectively. Results: According to American College Chest Physician, 18 patients underwent to surgical resection for a diagnosis of MPLC. Of these, 8 patients had 3 or more nodules while 10 patients had less than 3 nodules. Pathologic examination demonstrated that 13/18(70%) of patients with multiple histological types was Adenocarcinoma, 2/18(10%) Squamous carcinoma, 2/18(10%) large cell carcinoma and 1/18(5%) Adenosquamosu carcinoma. Expression of EGFR has been evaluated in all nodules: in 7 patients of 18 (38%) the percentage of expression of each nodule resulted different. Conclusions: MPLC represent a multifocal disease where interactions of clinical informations with biological studies reinforce the diagnosis. EGFR could contribute to differentiate the nodules. However, further researches are necessary to validate this hypothesis.
Resumo:
La tesi ha per oggetto lo studio delle politiche pubbliche locali ed in particolare delle politiche sociali che dal 2011 sono diventate politiche esclusivamente territoriali. L’obiettivo è quello di verificare se il differente orientamento politico delle amministrazioni genera politiche differenti. Per verificare le ipotesi si sono scelti 2 Comuni simili sul piano delle variabili socio-economiche, ma guidati da giunte con orientamento politico differente: il Comune di Modena a guida Partito Democratico e il Comune di Verona con un sindaco leghista a capo di una giunta di centro-destra. Nella prima parte vengono esposti ed analizzati i principali paradigmi di studio delle politiche (rational choice, paradigma marxista, economia del benessere, corporativismo e pluralismo, neo-istituzionalismo e paradigma relazionale) e viene presentato il paradigma che verrà utilizzato per l’analisi delle politiche (paradigma relazionale). Per la parte empirica si è proceduto attraverso interviste in profondità effettuate ai due Assessori alle Politiche sociali e ai due Dirigenti comunali dei Comuni e a 18 organizzazioni di Terzo settore impegnate nella costruzione delle politiche e selezionate attraverso la metodologia “a palla di neve”. Sono analizzate le disposizioni normative in materia di politica sociale, sia per la legislazione regionale che per quella comunale. L’analisi dei dati ha verificato l’ipotesi di ricerca nel senso che l’orientamento politico produce politiche differenti per quanto riguarda il rapporto tra Pubblica Amministrazione e Terzo settore. Per Modena si può parlare di una scelta di esternalizzazione dei servizi che si accompagna ad un processo di internalizzazione dei servizi tramite le ASP; a Verona almeno per alcuni settori delle politiche (disabilità e anziani) sono stati realizzati processi di sussidiarietà e di governance. Per la fase di programmazione l’orientamento politico ha meno influenza e la programmazione mostra caratteristiche di tipo “top-down”.
Resumo:
I salumi rappresentano una grande tradizione italiana, lo dimostra il fatto che l'industria suinicola nazionale è principalmente orientata all’allevamento di suino “pesante”, indirizzato proprio all'industria salumiera. L’industria salumiera moderna si trova a dover fare i conti con esigenze di mercato che possono sembrare contrastanti: da un lato si richiedono prodotti tradizionali e locali, dall’altro l’attenzione del consumatore si sta spostando verso ricette innovative, ingredienti naturali, di nicchia, salubri, etici, tracciati e a basso impatto ambientale. Alla luce di ciò, emerge la necessità di un maggiore livello di innovazione al fine di creare nuovi segmenti d’offerta in risposta ai diversi fabbisogni dei consumatori. Il presente lavoro si è posto come obiettivo quello di esaminare le strategie di differenziazione dei salumi fermentati adottate dal Salumificio DelVecchio di Cesena, discutendo le scelte aziendali in relazione alla letteratura scientifica. L’azienda, partendo da una linea di base, la Linea Tradizione, che copre tutti i principali salumi presenti sul territorio italiano, è riuscita a differenziare il proprio portafoglio intervenendo a livello di materie prime e di ricette. Sono state così realizzate la Linea Mora Romagnola, i cui salumi vengono prodotti utilizzando la carne dell’omonima razza; la Linea Bio, con 12 prodotti certificati presso l’ente CCPB - tale linea è stata ulteriormente differenziata con la proposta di 6 Salamini Boscone Aromatizzati; il Salamino Boscone Bio Fonte di Omega 3, in cui la fonte di omega-3 è data dall’aggiunta di semi di lino biologici; e la linea di salumi pre-affettati take-away pronti all’uso. Sulla base di questa analisi e della bibliografia riportata, il portafoglio del Salumificio DelVecchio, pur essendo un’azienda con un profilo soprattutto locale, risulta spiccatamente differenziato al fine di soddisfare le richieste di un’ampia gamma di consumatori.
Resumo:
Nella tesi viene effettuato un confronto tra diversi strumenti di sviluppo per ontologie, considerando vari criteri e caratteristiche relativi a questi strumenti. Viene inoltre approfondito il contesto in cui operano tali editor, presentando il Web Semantico, e tutte le tecnologie, linguaggi e applicazioni di supporto per lo sviluppo ontologico.
Resumo:
A partire dal problema di orbit determination per una sonda in deep-space, la tesi si concentra su sviluppo e confronto di algoritmi di stima della frequenza di segnali analitici per la verifica delle loro performance di accuratezza nella generazione di osservabili doppler. Le tecniche poste a confronto appartengono a due categorie: due tempo-discrete ed una spettrale; in particolare si vuole valutare come la modellazione ARMA dei segnali possa beneficiare le prime al punto da poterle considerare alternative all'altezza degli standard del settore aerospaziale.
Resumo:
In un sistema radar è fondamentale rilevare, riconoscere e cercare di seguire il percorso di un eventuale intruso presente in un’area di osservazione al fine ultimo della sicurezza, sia che si consideri l’ambito militare, che anche quello civile. A questo proposito sono stati fatti passi avanti notevoli nella creazione e sviluppo di sistemi di localizzazione passiva che possano rilevare un target (il quale ha come unica proprietà quella di riflettere un segnale inviato dal trasmettitore), in modo che esso sia nettamente distinto rispetto al caso di assenza dell’intruso stesso dall’area di sorveglianza. In particolare l’ultilizzo di Radar Multistatico (ossia un trasmettitore e più ricevitori) permette una maggior precisione nel controllo dell’area d’osservazione. Tra le migliori tecnologie a supporto di questa analisi vi è l’UWB (Ultra Wide-Band), che permette di sfruttare una banda molto grande con il riscontro di una precisione che può arrivare anche al centimetro per scenari in-door. L’UWB utilizza segnali ad impulso molto brevi, a banda larga e che quindi permettono una risoluzione elevata, tanto da consentire, in alcune applicazioni, di superare i muri, rimuovendo facilmente gli elementi presenti nell’ambiente, ossia il clutter. Quindi è fondamentale conoscere algoritmi che permettano la detection ed il tracking del percorso compiuto dal target nell’area. In particolare in questa tesi vengono elaborati nuovi algoritmi di Clustering del segnale ricevuto dalla riflessione sull’intruso, utilizzati al fine di migliorare la visualizzazione dello stesso in post-processing. Infine questi algoritmi sono stati anche implementati su misure sperimentali attuate tramite nodi PulsOn 410 Time Domain, al fine ultimo della rilevazione della presenza di un target nell’area di osservazione dei nodi.
Resumo:
Lo scopo di questo elaborato è di analizzare e progettare un sistema in grado di supportare la definizione dei dati nel formato utilizzato per definire in modo formale la semantica dei dati, ma soprattutto nella complessa e innovativa attività di link discovery. Una attività molto potente che, tramite gli strumenti e le regole del Web Semantico (chiamato anche Web of Data), permette data una base di conoscenza sorgente ed altre basi di conoscenza esterne e distribuite nel Web, di interconnettere i dati della base di conoscenza sorgente a quelli esterni sulla base di complessi algoritmi di interlinking. Questi algoritmi fanno si che i concetti espressi sulla base di dati sorgente ed esterne vengano interconnessi esprimendo la semantica del collegamento ed in base a dei complessi criteri di confronto definiti nel suddetto algoritmo. Tramite questa attività si è in grado quindi di aumentare notevolmente la conoscenza della base di conoscenza sorgente, se poi tutte le basi di conoscenza presenti nel Web of Data seguissero questo procedimento, la conoscenza definita aumenterebbe fino a livelli che sono limitati solo dalla immensa vastità del Web, dando una potenza di elaborazione dei dati senza eguali. Per mezzo di questo sistema si ha l’ambizioso obiettivo di fornire uno strumento che permetta di aumentare sensibilmente la presenza dei Linked Open Data principalmente sul territorio nazionale ma anche su quello internazionale, a supporto di enti pubblici e privati che tramite questo sistema hanno la possibilità di aprire nuovi scenari di business e di utilizzo dei dati, dando una potenza al dato che attualmente è solo immaginabile.
Resumo:
TARO (Tons of Articles Ready to Outline) è un progetto che ha come scopo quello di realizzare un sistema per la raccolta, l'analisi e il confronto di articoli di giornali online. Sono state scelte come fonti testate giornalistiche internazionali e i loro canali di pubblicazione, come ad esempio i Feed RSS e le Homepage. Gli articoli vengono quindi analizzati attraverso NER e Sentiment Analysis per poi individuare quali argomenti siano trattati da più testate e quali invece risultino esclusivi di una sola, sfruttando algoritmi di similarità. Il progetto è sviluppato in Python e sono utilizzate diverse librerie, tra cui Scrapy, per la raccolta di articoli, Argos, per la traduzione delle notizie al fine di allinearle linguisticamente, SpaCy, per le analisi semantiche, e Pandas per la visualizzazione dei risultati ottenuti. Uno degli obiettivi è sfruttare questa pipeline al fine di effettuare analisi socio-culturali interessanti utilizzando le informazioni date dagli articoli giornalistici stessi, oltre che osservare le potenzialità delle analisi semantiche fatte su notiziari.
Resumo:
L’obiettivo di questa tesi è il progetto di un convertitore di potenza di tipo low power da applicare a sorgenti fotovoltaiche in regime di basso irraggiamento. Il convertitore implementa un controllo con inseguimento del punto di massima potenza (maximum power point tracking) della caratteristica della sorgente fotovoltaica. Una prima parte è dedicata allo studio delle possibilità esistenti in materia di convertitori e di algoritmi di MPPT. Successivamente, in base alle specifiche di progetto è stata selezionata una combinazione ottimale per l'architettura del convertitore di potenza in grado di bilanciare efficienza dell'algoritmo di controllo e requisiti intrinseci di potenza.
Resumo:
L’obiettivo del lavoro consiste nell’implementare una metodologia operativa volta alla progettazione di reti di monitoraggio e di campagne di misura della qualità dell’aria con l’utilizzo del laboratorio mobile, ottimizzando le posizioni dei dispositivi di campionamento rispetto a differenti obiettivi e criteri di scelta. La revisione e l’analisi degli approcci e delle indicazioni fornite dalla normativa di riferimento e dai diversi autori di lavori scientifici ha permesso di proporre un approccio metodologico costituito da due fasi operative principali, che è stato applicato ad un caso studio rappresentato dal territorio della provincia di Ravenna. La metodologia implementata prevede l’integrazione di numerosi strumenti di supporto alla valutazione dello stato di qualità dell’aria e degli effetti che gli inquinanti atmosferici possono generare su specifici recettori sensibili (popolazione residente, vegetazione, beni materiali). In particolare, la metodologia integra approcci di disaggregazione degli inventari delle emissioni attraverso l’utilizzo di variabili proxy, strumenti modellistici per la simulazione della dispersione degli inquinanti in atmosfera ed algoritmi di allocazione degli strumenti di monitoraggio attraverso la massimizzazione (o minimizzazione) di specifiche funzioni obiettivo. La procedura di allocazione sviluppata è stata automatizzata attraverso lo sviluppo di un software che, mediante un’interfaccia grafica di interrogazione, consente di identificare delle aree ottimali per realizzare le diverse campagne di monitoraggio
Resumo:
La necessità di indagine sul fronte dell’insufficienza cardiaca deriva dall’elevato impatto sociale della patologia, non soltanto per l’effetto invalidante sulla condizione del paziente che ne è affetto, bensì anche per la notevole incidenza sui servizi sanitari nazionali, per l’importante valore di mortalità e morbilità che ne è associato. Il numero di ospedalizzazioni per scompenso cardiaco è consistente; ciò rende ragione dell’elevato assorbimento di risorse dovuto a questa patologia. Il razionale dell’impiego della Terapia di Resincronizzazione Cardiaca (CRT) consiste nella correzione della dissincronia cardiaca come causa di disfunzione meccanica atriale e ventricolare. Il metodo analitico sviluppato origina dalle indagini sugli spostamenti dell’elettrocatetere posizionato in Seno Coronarico, sulla base del fatto che il sito di stimolazione risulta un fattore determinante per la buona risposta alla terapia. Dovendo studiare le posizioni nel tempo del catetere, si è pensato di valutarne le variazioni nel periodo pre e post attivazione della CRT ricostruendone la traiettoria in 3D. Lo studio parametrico di quest’ultima ha permesso di individuare un indice predittore della risposta alla CRT al follow-up a sei mesi. La prosecuzione della ricerca presentata ha l’intento di migliorare gli algoritmi di elaborazione dei dati per rendere più robuste le misure, sfruttando tecniche che possano aumentare riproducibilità, ripetibilità, e ininfluenza rispetto alla variabilità delle condizioni analitiche. Sviluppando nuovi modelli si è eliminata l'interazione dell'operatore nelle fasi d'indagine, rendendo le analisi completamente automatiche. I metodi sono stati testati e applicati.
Analisi del cammino in acqua tramite sensori inerziali: Accuratezza strumentale e fasce di normalita
Resumo:
La biocinematica è una branca della biomeccanica che studia il movimento dei segmenti corporei senza considerare le cause che lo determinano. Le grandezze fisiche di interesse (posizione, velocità ed accelerazione) vengono determinate grazie ai sistemi di analisi del movimento che sfruttano principi fisici di funzionamento differenti con vari gradi di invasività. Lo sviluppo di nuove tecnologie di costruzione dei sensori inerziali, ha fornito una valida alternativa alle tecniche classiche per l’analisi del movimento umano. Gli IMUs (Inertial Measurement Units) sono facilmente indossabili, possono essere facilmente utilizzati fuori dal laboratorio, hanno un costo molto inferiore rispetto a quello dei sistemi opto-elettronici, non richiedono particolari abilità per essere utilizzati dall’utente e si configurano facilmente. In questa tesi verrà analizzato il cammino e costruite le bande di normalità sia in laboratorio che in acqua tramite i sensori inerziali. L’utilizzo in acqua delle tecniche classiche di analisi del movimento presenta dei problemi di accuratezza (legati ad esempio alla presenza delle bolle d’aria in acqua) che impediscono di effettuare un confronto tra i risultati ottenuti dai sensori e quelli ottenuti con un gold standard. Per questo motivo, è stato implementato un test per valutare l’accuratezza dei sensori e l’influenza dei disturbi magnetici sui magnetometri nelle stesse condizioni ambientali in cui si desidera registrare il cammino. Quest’analisi strumentale ha consentito anche di individuare, tra i diversi algoritmi di fusione utilizzati (algoritmo di fabbrica e algoritmo di Madgwick), quello da impiegare nell’analisi del suddetto task motorio per stimare in maniera più accurata l’orientamento dei sensori in acqua e in laboratorio. L'algoritmo di fabbrica viene escluso dal processo di sensor fusion poiché mostra un'accuratezza peggiore rispetto all'algoritmo di Madgwick. Dal momento che il protocollo implementato di analisi del cammino attraverso i sensori inerziali è già stato validato a secco e che le prestazioni dei sensori sono analoghe a secco e in acqua, il protocollo può essere utilizzato per la stima della cinematica degli arti inferiori nell'acqua. Le differenze riscontrate tra le curve del cammino sono da imputare sia alla diversa condizione ambientale che alla minore velocità di progressione che i soggetti manifestano in acqua. Infatti, la velocità media di progressione è 151.1 cm/s in laboratorio e 40.7 cm/s in acqua.