999 resultados para videogiochi, analisi, strategia, innovazione, segmentazione


Relevância:

40.00% 40.00%

Publicador:

Resumo:

Tesi su un esperimento per la realizzazione di una mappa cognitiva sul processo decisionale e gli aspetti cognitivi di una persona durante lo svolgimento di una partita a un videogioco di genere Moba. La tesi presente anche cenni di teoria sulle mappe cognitive, sulle misure di rete e sugli aspetti cognitivi dei videogiochi in generale.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Questo elaborato concerne la revisione della letteratura scientifica relativa alla teorizzazione e realizzazione tecnologica del memristor, un nuovo componente elettronico teorizzato nel 1971 e realizzato solo nel 2008 nei laboratori della HP (Hewlett Packard, Palo Alto, California). Dopo una descrizione in termini matematici della teoria fisica alla base del dispositivo e del suo funzionamento, viene descritta la sua realizzazione tecnologica e il corrispettivo modello teorico. Succesivamente il lavoro discute la possibile analogia tra il funzionamento del memristor ed il funzionamento di neuroni e sinapsi biologiche all'interno del Sistema Nervoso Centrale. Infine, vengono descritte le architetture recentemente proposte per l'implementazione di reti neurali artificiali fondate su un sistema computazionale parallelo e realizzate mediante sistemi ibridi transistors/memristors.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La tesi si sviluppa attraverso 5 capitoli volti a mostrare l'importanza della valutazione economica del marchio. Si andrà a definire il concetto di marchio e di brand licensing per passare così a descrivere uno dei principali metodi di valutazione: il Relief from Royalty, che pone come input chiave di tale valutazione il tasso di royalty. Si è inoltre svolta un'analisi di tale tasso, in 2 settori merceologici diversi ma collegati, per poter evidenziare i termini che incidono maggiormente sul suo valore e quindi sul valore del marchio.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Nel panorama aziendale odierno, risulta essere di fondamentale importanza la capacità, da parte di un’azienda o di una società di servizi, di orientare in modo programmatico la propria innovazione in modo tale da poter essere competitivi sul mercato. In molti casi, questo e significa investire una cospicua somma di denaro in progetti che andranno a migliorare aspetti essenziali del prodotto o del servizio e che avranno un importante impatto sulla trasformazione digitale dell’azienda. Lo studio che viene proposto riguarda in particolar modo due approcci che sono tipicamente in antitesi tra loro proprio per il fatto che si basano su due tipologie di dati differenti, i Big Data e i Thick Data. I due approcci sono rispettivamente il Data Science e il Design Thinking. Nel corso dei seguenti capitoli, dopo aver definito gli approcci di Design Thinking e Data Science, verrà definito il concetto di blending e la problematica che ruota attorno all’intersezione dei due metodi di innovazione. Per mettere in evidenza i diversi aspetti che riguardano la tematica, verranno riportati anche casi di aziende che hanno integrato i due approcci nei loro processi di innovazione, ottenendo importanti risultati. In particolar modo verrà riportato il lavoro di ricerca svolto dall’autore riguardo l'esame, la classificazione e l'analisi della letteratura esistente all'intersezione dell'innovazione guidata dai dati e dal pensiero progettuale. Infine viene riportato un caso aziendale che è stato condotto presso la realtà ospedaliero-sanitaria di Parma in cui, a fronte di una problematica relativa al rapporto tra clinici dell’ospedale e clinici del territorio, si è progettato un sistema innovativo attraverso l’utilizzo del Design Thinking. Inoltre, si cercherà di sviluppare un’analisi critica di tipo “what-if” al fine di elaborare un possibile scenario di integrazione di metodi o tecniche provenienti anche dal mondo del Data Science e applicarlo al caso studio in oggetto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo della tesi riguarda l’utilizzo di immagini aerofotogrammetriche e telerilevate per la caratterizzazione qualitativa e quantitativa di ecosistemi forestali e della loro evoluzione. Le tematiche affrontate hanno riguardato, da una parte, l’aspetto fotogrammetrico, mediante recupero, digitalizzazione ed elaborazione di immagini aeree storiche di varie epoche, e, dall’altra, l’aspetto legato all’uso del telerilevamento per la classificazione delle coperture al suolo. Nel capitolo 1 viene fatta una breve introduzione sullo sviluppo delle nuove tecnologie di rilievo con un approfondimento delle applicazioni forestali; nel secondo capitolo è affrontata la tematica legata all’acquisizione dei dati telerilevati e fotogrammetrici con una breve descrizione delle caratteristiche e grandezze principali; il terzo capitolo tratta i processi di elaborazione e classificazione delle immagini per l’estrazione delle informazioni significative. Nei tre capitoli seguenti vengono mostrati tre casi di applicazioni di fotogrammetria e telerilevamento nello studio di ecosistemi forestali. Il primo caso (capitolo 4) riguarda l’area del gruppo montuoso del Prado- Cusna, sui cui è stata compiuta un’analisi multitemporale dell’evoluzione del limite altitudinale degli alberi nell’arco degli ultimi cinquant’anni. E’ stata affrontata ed analizzata la procedura per il recupero delle prese aeree storiche, definibile mediante una serie di successive operazioni, a partire dalla digitalizzazione dei fotogrammi, continuando con la determinazione di punti di controllo noti a terra per l’orientamento delle immagini, per finire con l’ortorettifica e mosaicatura delle stesse, con l’ausilio di un Modello Digitale del Terreno (DTM). Tutto ciò ha permesso il confronto di tali dati con immagini digitali più recenti al fine di individuare eventuali cambiamenti avvenuti nell’arco di tempo intercorso. Nel secondo caso (capitolo 5) si è definita per lo studio della zona del gruppo del monte Giovo una procedura di classificazione per l’estrazione delle coperture vegetative e per l’aggiornamento della cartografia esistente – in questo caso la carta della vegetazione. In particolare si è cercato di classificare la vegetazione soprasilvatica, dominata da brughiere a mirtilli e praterie con prevalenza di quelle secondarie a nardo e brachipodio. In alcune aree sono inoltre presenti comunità che colonizzano accumuli detritici stabilizzati e le rupi arenacee. A questo scopo, oltre alle immagini aeree (Volo IT2000) sono state usate anche immagini satellitari ASTER e altri dati ancillari (DTM e derivati), ed è stato applicato un sistema di classificazione delle coperture di tipo objectbased. Si è cercato di definire i migliori parametri per la segmentazione e il numero migliore di sample per la classificazione. Da una parte, è stata fatta una classificazione supervisionata della vegetazione a partire da pochi sample di riferimento, dall’altra si è voluto testare tale metodo per la definizione di una procedura di aggiornamento automatico della cartografia esistente. Nel terzo caso (capitolo 6), sempre nella zona del gruppo del monte Giovo, è stato fatto un confronto fra la timberline estratta mediante segmentazione ad oggetti ed il risultato di rilievi GPS a terra appositamente effettuati. L’obiettivo è la definizione del limite altitudinale del bosco e l’individuazione di gruppi di alberi isolati al di sopra di esso mediante procedure di segmentazione e classificazione object-based di ortofoto aeree in formato digitale e la verifica sul campo in alcune zone campione dei risultati, mediante creazione di profili GPS del limite del bosco e determinazione delle coordinate dei gruppi di alberi isolati. I risultati finali del lavoro hanno messo in luce come le moderne tecniche di analisi di immagini sono ormai mature per consentire il raggiungimento degli obiettivi prefissi nelle tre applicazioni considerate, pur essendo in ogni caso necessaria una attenta validazione dei dati ed un intervento dell’operatore in diversi momenti del processo. In particolare, le operazioni di segmentazione delle immagini per l’estrazione di feature significative hanno dimostrato grandi potenzialità in tutti e tre i casi. Un software ad “oggetti” semplifica l’implementazione dei risultati della classificazione in un ambiente GIS, offrendo la possibilità, ad esempio, di esportare in formato vettoriale gli oggetti classificati. Inoltre dà la possibilità di utilizzare contemporaneamente, in un unico ambiente, più sorgenti di informazione quali foto aeree, immagini satellitari, DTM e derivati. Le procedure automatiche per l’estrazione della timberline e dei gruppi di alberi isolati e per la classificazione delle coperture sono oggetto di un continuo sviluppo al fine di migliorarne le prestazioni; allo stato attuale esse non devono essere considerate una soluzione ottimale autonoma ma uno strumento per impostare e semplificare l’intervento da parte dello specialista in fotointerpretazione.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Con questo studio si è volto effettuare un confronto tra la generazione di energia termica a partire da cippato e da pellet, con particolare riferimento agli aspetti di carattere ambientale ed economico conseguenti la produzione delle due differenti tipologie di combustibile. In particolare, si sono ipotizzate due filire, una di produzione del cippato, una del pellet, e per ciascuna di esse si è condotta un'Analisi del Ciclo di Vita, allo scopo di mettere in luce, da un lato le fasi del processo maggiormente critiche, dall'altro gli impatti sulla salute umana, sugli ecosistemi, sul consumo di energia e risorse. Quest'analisi si è tradotta in un confronto degli impatti generati dalle due filiere al fine di valutare a quale delle due corrisponda il minore. E' stato infine effettuato un breve accenno di valutazione economica per stimare quale tipologia di impianto, a cippato o a pellet, a parità di energia prodotta, risulti più conveniente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’obiettivo del lavoro svolto nell’ambito del ciclo di dottorato è stato quello dell’applicazione della metodologia di analisi degli scenari, nell’ottica dello studio e applicazione di un metodo di analisi integrato e multidisciplinare che consenta individuare strategie di sviluppo sostenibile in relazione alla questione indagata. Lo studio sviluppato nel corso del dottorato è stato impostato su presupposti forniti dalla Regione Toscana (in entrambi i casi di studio trattati), che ha finanziato, attraverso la sua Agenzia Regionale per lo Sviluppo e Innovazione in ambito Agricolo (ARSIA), due Progetti di ricerca volti all’individuazione di strategie di sviluppo sostenibile concernenti due tematiche di particolare interesse in ambito regionale: lo sviluppo di coltivazioni non-food (biocarburanti, biomasse da energia, biopolimeri, biolubrificanti, fibre vegetali, coloranti naturali, fitofarmaci di origine vegetale) e la valutazione della possibilità di coesistenza tra colture convenzionali (non Geneticamente Modificate) e colture GM, in relazione alla Raccomandazione della Commissione 2003/556/CE che afferma che deve essere garantita la coesistenza tra colture transgeniche, convenzionali e biologiche, ovvero che devono essere presenti le condizioni per cui ciascun metodo di coltivazione possa poter essere adottato e praticato in UE. La sostenibilità delle situazioni studiate è stata valutata fornendo informazioni non solo per la situazioni attuali, ma anche per possibili evoluzioni future, così come richiesto dai principi dello sviluppo sostenibile. A tal proposito, occorre applicare metodologie di analisi che consentano di poter identificare obiettivi strategici in funzione dei cambiamenti che potrebbero essere registrati, in corrispondenza dell’evolversi delle diverse situazioni nel tempo. La metodologia di analisi in grado di soddisfare questi requisiti può essere identificata nell’analisi di scenario (scenario analysis), che si configura come uno strumento di analisi strategica in grado di riassumere numerose informazioni e dati riferiti agli attori, agli obiettivi, agli strumenti, alle cause ed agli effetti indotti da un cambiamento che potrebbe essere provocato da uno o più fattori contemplati nel corso dell’analisi. Questo metodo di analisi rappresenta un’importante strumento di ausilio alla definizione di politiche e strategie, che si rende particolarmente utile nel campo della public choice, come dimostrato dalle applicazioni presentate nel corso del lavoro.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Analisi in chiave economica e sociale dell'evoluzione di Internet, delle tecnologie legate al Web 2.0, dei fenomeni della pirateria, del software libero ed open source, del copyleft, dei contenuti aperti e della produzione tra pari. Introduzione dei concetti di economia del gratis ("freeconomics") e di coda lunga. Consigli manageriali pratici per i nuovi mercati digitali e per la competizione nella rete Internet.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Si parte dalla storia delle console attraversando tutte le varie epoche.In seguito si analizza nel dettaglio le quote di mercato del mercato delle console nell'anno 2010 e primi mesi del 2011 per capire come si muovono strategicamente le tre più importanti aziende di console nel mondo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesi propone un approccio semiotico ai videogiochi e indaga le relazioni tra videogioco, memoria e senso, a partire dall’analisi di un ampio corpus di videogiochi, trasversale rispetto ai generi. Il lavoro intende mostrare la proficuità di un incontro tra semiotica e videogiochi sotto un duplice punto di vista: da un lato i videogiochi, in quanto oggetti “nuovi”, rappresentano un buon banco di prova per la teoria e la metodologia semiotica; dall’altro lato la semiotica permette di comprendere meglio i videogiochi, ricostruendo i meccanismi semiotici che contribuiscono a generare gli effetti di senso tipici di questa forma testuale (es. immersività, interattività, flusso…). Il lavoro si propone quindi il duplice obiettivo di individuare le peculiarità del videogioco in quanto oggetto di analisi semiotica (cap. 1) e i meccanismi che in diversi generi videoludici portano alla creazione di effetti di senso peculiari e alla costruzione di una nuova memoria (capp. 3, 4, 5). Il primo capitolo è dedicato a una riflessione teorica e metodologica che intende preparare il campo per l’analisi, provando a “testare” modelli, concetti e strumenti più o meno assestati con lo scopo di riconoscere lo statuto semiotico dei videogiochi e di individuare il modo migliore per analizzarli semioticamente. Inoltre nel cap. 1 si affrontano, ancora in un’ottica generale, le dinamiche tra memoria del gioco e memoria del giocatore e l’importanza dei processi di apprendimento per l’interpretazione videoludica. Gli ultimi tre capitoli sono invece dedicati ai risultati delle analisi, condotte su un corpus ampio di videogiochi, affiancato da un corpus “di controllo” costituito da video di partite concrete, immagini user-generated, interfacce fisiche di gioco e “discorsi su” i videogiochi inseriti nel corpus principale. Il terzo capitolo individua i meccanismi semiotici che contribuiscono a costruire, de-costruire e ricostruire l’identità del giocatore nel corso della partita. Il quarto capitolo affronta la relazione tra tempo del gioco e tempo del giocatore, concentrandosi sulle modalità di configurazione del tempo in atto nei diversi generi videoludici. L’ultimo capitolo è dedicato all’approfondimento di un aspetto particolare della testualità videoludica: la capacità dei videogiochi di generare esperienze embodied, cioè esperienze ‘incarnate’ e ‘situate’.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il presente lavoro ha come obiettivo la definizione e la misura della complessità tecnologica, al fine di costruire strumenti a supporto di tutti gli operatori che si occupano dello sviluppo e della fabbricazione di un prodotto industriale, quali progettisti di prodotto e responsabili di produzione. La ricerca è stata sviluppata attraverso le fasi di seguito descritte. Analisi dello stato dell’arte su definizioni e misure della complessità in ambito industriale attraverso l’individuazione e studio di oltre un centinaio di pubblicazioni al riguardo. Classificazione dei metodi proposti in letteratura per la misura della complessità in cinque categorie e analisi critica dei punti di forza e di debolezza dei differenti metodi, ai fini di orientare la elaborazione di un nuovo metodo. Sono stati inoltre analizzati i principali metodi di Intelligenza Artificiali quali potenziali strumenti di calcolo della complessità. Indagine su tematiche correlate alla complessità quali indicatori, trasferimento tecnologico e innovazione. La complessità viene misurata in termini di un indice che appartiene alla categoria degli indicatori, utilizzati in molti ambiti industriali, in particolare quello della misura delle prestazioni di produzione. In particolare si è approfondito significato e utilizzo dell’OEE (Overall Equipment Effectiveness), particolarmente diffuso nelle piccole medie imprese emilianoromagnole e in generale dalle aziende che utilizzano un sistema produttivo di tipo job-shop. È stato implementato un efficace sistema di calcolo dell’OEE presso una azienda meccanica locale. L’indice di complessità trova una delle sue più interessanti applicazioni nelle operazioni di trasferimento tecnologico. Introdurre un’innovazione significa in genere aumentare la complessità del sistema, quindi i due concetti sono connessi. Sono stati esaminati diversi casi aziendali di trasferimento di tecnologia e di misura delle prestazioni produttive, evidenziando legami e influenza della complessità tecnologica sulle scelte delle imprese. Elaborazione di un nuovo metodo di calcolo di un indice di complessità tecnologica di prodotto, a partire dalla metodologia ibrida basata su modello entropico proposta dai Prof. ElMaraghy e Urbanic nel 2003. L’attenzione è stata focalizzata sulla sostituzione nella formula originale a valori determinati tramite interviste agli operatori e pertanto soggettivi, valori oggettivi. Verifica sperimentale della validità della nuova metodologia attraverso l’applicazione della formula ad alcuni componenti meccanici grazie alla collaborazione di un’azienda meccanica manifatturiera. Considerazioni e conclusioni sui risultati ottenuti, sulla metodologia proposta e sulle applicazioni del nuovo indice, delineando gli obiettivi del proseguo della ricerca. In tutto il lavoro si sono evidenziate connessioni e convergenze delle diverse fonti e individuati in diversi ambiti concetti e teorie che forniscono importanti spunti e considerazioni sul tema della complessità. Particolare attenzione è stata dedicata all’intera bibliografia dei Prof. ElMaraghy al momento riconosciuti a livello internazionale come i più autorevoli studiosi del tema della complessità in ambito industriale.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Questo elaborato si pone l'obiettivo di analizzare e valutare la sostenibilità dell'intera filiera dell'olio di palma, che viene importato da paesi del Sud Est asiatico per essere utilizzato in Europa per scopi sia energetici che alimentari. Nell'introduzione è inquadrata la problematica dei biocombustibili e degli strumenti volontari che possono essere utilizzati per garantire ed incentivare la sostenibilità in generale e dei biocombustibili; è presente inoltre un approfondimento sull'olio di palma, sulle sue caratteristiche e sulla crescita che ha subito negli ultimi anni in termini di produzione e compra/vendita. Per questa valutazione sono stati impiegati tre importanti strumenti di analisi e certificazione della sostenibilità, che sono stati applicati ad uno specifico caso di studio: l'azienda Unigrà SpA. La certificazione RSPO (Roundtable on Sustainable Palm Oil) è uno strumento volontario per la garanzia della sostenibilità della filiera dell'olio di palma in termini economici (vitalità nel mercato), ambientali (risparmio delle emissioni di gas ad effetto serra o GHG, conservazione delle risorse naturali e della biodiversità) e sociali (preservazione delle comunità locali e miglioramento nella gestione delle aree di interesse). La Global Reporting Initiative è un'organizzazione che prevede la redazione volontaria di un documento chiamato bilancio di sostenibilità secondo delle linee guida standardizzate che permettono alle organizzazioni di misurare e confrontare le loro performance economiche, sociali e ambientali nel tempo. La Direttiva Comunitaria 2009/28/CE (Renewable Energy Directive o RED) è invece uno strumento cogente nel caso in cui le organizzazioni intendano utilizzare risorse rinnovabili per ottenere incentivi finanziari. A seguito di un calcolo delle emissioni di GHG, le organizzazioni devono dimostrare determinate prestazioni ambientali attraverso il confronto con delle soglie presenti nel testo della Direttiva. Parallelamente alla valutazione delle emissioni è richiesto che le organizzazioni aderiscano a dei criteri obbligatori di sostenibilità economica, ambientale e sociale, verificabili grazie a degli schemi di certificazione che rientrano all'interno di politiche di sostenibilità globale. Questi strumenti sono stati applicati ad Unigrà, un'azienda che opera nel settore della trasformazione e della vendita di oli e grassi alimentari, margarine e semilavorati destinati alla produzione alimentare e che ha recentemente costruito una centrale da 58 MWe per la produzione di energia elettrica, alimentata in parte da olio di palma proveniente dal sud-est asiatico ed in parte dallo scarto della lavorazione nello stabilimento. L'adesione alla RSPO garantisce all'azienda la conformità alle richieste dell'organizzazione per la commercializzazione e la vendita di materie prime certificate RSPO, migliorando l'immagine di Unigrà all'interno del suo mercato di riferimento. Questo tipo di certificazione risulta importante per le organizzazioni perché può essere considerato un mezzo per ridurre l'impatto negativo nei confronti dell'ambiente, limitando deforestazione e cambiamenti di uso del suolo, oltre che consentire una valutazione globale, anche in termini di sostenibilità sociale. Unigrà ha visto nella redazione del bilancio di sostenibilità uno strumento fondamentale per la valutazione della sostenibilità a tutto tondo della propria organizzazione, perché viene data uguale rilevanza alle tre sfere della sostenibilità; la validazione esterna di questo documento ha solo lo scopo di controllare che le informazioni inserite siano veritiere e corrette secondo le linee guida del GRI, tuttavia non da giudizi sulle prestazioni assolute di una organizzazione. Il giudizio che viene dato sulle prestazioni delle organizzazioni e di tipo qualitativo ma non quantitativo. Ogni organizzazione può decidere di inserire o meno parte degli indicatori per una descrizione più accurata e puntuale. Unigrà acquisterà olio di palma certificato sostenibile secondo i principi previsti dalla Direttiva RED per l'alimentazione della centrale energetica, inoltre il 10 gennaio 2012 ha ottenuto la certificazione della sostenibilità della filiera secondo lo schema Bureau Veritas approvato dalla Comunità Europea. Il calcolo delle emissioni di tutte le fasi della filiera dell'olio di palma specifico per Unigrà è stato svolto tramite Biograce, uno strumento di calcolo finanziato dalla Comunità Europea che permette alle organizzazioni di misurare le emissioni della propria filiera in maniera semplificata ed adattabile alle specifiche situazioni. Dei fattori critici possono però influenzare il calcolo delle emissioni della filiera dell'olio di palma, tra questi i più rilevanti sono: cambiamento di uso del suolo diretto ed indiretto, perché possono provocare perdita di biodiversità, aumento delle emissioni di gas serra derivanti dai cambiamenti di riserve di carbonio nel suolo e nella biomassa vegetale, combustione delle foreste, malattie respiratorie, cambiamenti nelle caratteristiche dei terreni e conflitti sociali; presenza di un sistema di cattura di metano all'oleificio, perché gli effluenti della lavorazione non trattati potrebbero provocare problemi ambientali; cambiamento del rendimento del terreno, che può influenzare negativamente la resa delle piantagioni di palma da olio; sicurezza del cibo ed aspetti socio-economici, perché, sebbene non inseriti nel calcolo delle emissioni, potrebbero provocare conseguenze indesiderate per le popolazioni locali. Per una valutazione complessiva della filiera presa in esame, è necessario ottenere delle informazioni puntuali provenienti da paesi terzi dove però non sono di sempre facile reperibilità. Alla fine della valutazione delle emissioni, quello che emerge dal foglio di Biograce e un numero che, sebbene possa essere confrontato con delle soglie specifiche che descrivono dei criteri obbligatori di sostenibilità, non fornisce informazioni aggiuntive sulle caratteristiche della filiera considerata. È per questo motivo che accanto a valutazioni di questo tipo è necessario aderire a specifici criteri di sostenibilità aggiuntivi. Il calcolo delle emissioni dell'azienda Unigrà risulta vantaggioso in quasi tutti i casi, anche considerando i fattori critici; la certificazione della sostenibilità della filiera garantisce l'elevato livello di performance anche nei casi provvisti di maggiore incertezza. L'analisi del caso Unigrà ha reso evidente come l'azienda abbia intrapreso la strada della sostenibilità globale, che si traduce in azioni concrete. Gli strumenti di certificazione risultano quindi dei mezzi che consentono di garantire la sostenibilità della filiera dell'olio di palma e diventano parte integrante di programmi per la strategia europea di promozione della sostenibilità globale. L'utilizzo e l'implementazione di sistemi di certificazione della sostenibilità risulta per questo da favorire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’analisi istologica riveste un ruolo fondamentale per la pianificazione di eventuali terapie mediche o chirurgiche, fornendo diagnosi sulla base dell’analisi di tessuti, o cellule, prelevati con biopsie o durante operazioni. Se fino ad alcuni anni fa l’analisi veniva fatta direttamente al microscopio, la sempre maggiore diffusione di fotocamere digitali accoppiate consente di operare anche su immagini digitali. Il presente lavoro di tesi ha riguardato lo studio e l’implementazione di un opportuno metodo di segmentazione automatica di immagini istopatologiche, avendo come riferimento esclusivamente ciò che viene visivamente percepito dall’operatore. L’obiettivo è stato quello di costituire uno strumento software semplice da utilizzare ed in grado di assistere l’istopatologo nell’identificazione di regioni percettivamente simili, presenti all’interno dell’immagine istologica, al fine di considerarle per una successiva analisi, oppure di escluderle. Il metodo sviluppato permette di analizzare una ampia varietà di immagini istologiche e di classificarne le regioni esclusivamente in base alla percezione visiva e senza sfruttare alcuna conoscenza a priori riguardante il tessuto biologico analizzato. Nella Tesi viene spiegato il procedimento logico seguito per la progettazione e la realizzazione dell’algoritmo, che ha portato all’adozione dello spazio colore Lab come dominio su cu cui calcolare gli istogrammi. Inoltre, si descrive come un metodo di classificazione non supervisionata utilizzi questi istogrammi per pervenire alla segmentazione delle immagini in classi corrispondenti alla percezione visiva dell’utente. Al fine di valutare l’efficacia dell’algoritmo è stato messo a punto un protocollo ed un sistema di validazione, che ha coinvolto 7 utenti, basato su un data set di 39 immagini, che comprendono una ampia varietà di tessuti biologici acquisiti da diversi dispositivi e a diversi ingrandimenti. Gli esperimenti confermano l’efficacia dell’algoritmo nella maggior parte dei casi, mettendo altresì in evidenza quelle tipologie di immagini in cui le prestazioni risultano non pienamente soddisfacenti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A partire dagli anni '70, si è assistito ad un progressivo riassetto geopolitico a livello mondiale Grazie anche all’evoluzione tecnologica ed alla sua diffusione di massa, il tempo e lo spazio si contraggono nel processo di globalizzazione che ha caratterizzato le società contemporanee ove l'informazione e la comunicazione assumono ormai un ruolo centrale nelle dinamiche di conoscenza. Il presente studio, intende far luce in primis sulla disciplina dell'intelligence, così come enunciata in ambito militare e "civile", in particolare nel contesto USA, NATO ed ONU, al fine quindi di evidenziare le peculiarità di una nuova disciplina di intelligence, cosiddetta Open Source Intelligence, che ha come elemento di innovazione l'utilizio delle informazioni non classificate. Dopo aver affrontato il problema della concettualizzazione ed evoluzione del fenomeno terroristico, sarà posto il focus sull’espressione criminale ad oggi maggiormente preoccupante, il terrorismo internazionale di matrice islamica, in prospettiva multidimensionale, grazie all’adozione di concetti criminologici interdisciplinari. Sotto il profilo della sperimentazione, si è, quindi, deciso di proporre, progettare e sviluppare l’architettura della piattaforma Open Source Intellicence Analysis Platform,un tool operativo di supporto per l’analista Open Source Intelligence, che si pone quale risorsa del’analisi criminologica, in grado di fornire un valido contributo, grazie al merge tra practice e research, nell’applicazione di tale approccio informativo al fenomeno terroristico.