149 resultados para Morphing, classificazione


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Secondo l'Agenzia Europea dell'Ambiente una delle principali minacce per le risorse di acqua dolce della zone costiere italiane è l’intrusione salina. L’obiettivo di questa tesi magistrale è la caratterizzazione idrogeologica di una frazione dell’acquifero freatico costiero situato in due differenti corpi dunosi. L’indagine proseguita per cinque mesi ha evidenziano differenze tra un’area sottoposta a forte pressione antropica (Marina Romea) e un’area che mostra un relativo sviluppo naturale del sistema spiaggia-duna (Porto Corsini). La tecnica di campionamento utilizzata è il sistema a minifiltri (multi level samplers), metodologia innovativa che garantisce tempistiche di monitoraggio rapide e una campionatura multi-livello puntuale e precisa. La campagna di monitoraggio ha coinvolto misure di freatimetria, conduttività elettrica e analisi chimiche delle acque che hanno portato ad una loro classificazione geo-chimica. Dai risultati si evidenzia che l’acquifero è molto salinizzato, gli strati d’acqua dolce sono isolati in lenti superficiali e i tipi di acque presenti sono dominati da ioni sodio e cloro. Tra i due siti il più vulnerabile risulta essere Marina Romea per molti fattori: l’erosione costiera che assottiglia la fascia dunale adibita alla ricarica di acqua dolce, un’estensione spaziale della duna minore rispetto a Porto Corsini, la presenza di infrastrutture turistiche che hanno frazionato la duna, la vicinanza al canale di drenaggio che causa la risalita delle acque profonde saline, la presenza di specie arboree idro-esigenti che attingono e quindi assottigliano le lenti d’acqua dolce. Si propone di migliorare la qualità dell’acqua sotterranea con una migliore gestione del canale di drenaggio, sostituendo alcuni esemplari di pinacee con specie arbustive tipiche degli ambienti dunosi ed infine imponendo misure per il risparmio idrico durante la stagione turistica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’elaborato affronta la definizione, il calcolo e l’espressione del rischio chimico in un ambiente di lavoro avendo, come oggetto di studio, un’azienda produttrice di fibre tessili e pelli sintetiche a partire da resine di Polivinilcloruro (PVC). Viene esposta la mappatura schematica degli ambienti di lavoro e la classificazione dei rischi presenti in "irrilevanti per la salute" o "non irrilevanti per la salute", come previsto dal modello di valutazione del rischio “Movarisc”. Sono descritte le successive indagini ambientali volte a verificare le concentrazioni di inquinanti nelle zone più critiche ed, infine, gli interventi migliorativi sia sulla linea di produzione che nelle procedure di lavoro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La malattia aterosclerotica presenta elevate morbilità e mortalità in gran parte del mondo e poterla diagnosticare prima che essa porti a un evento acuto (ictus) comporta indiscutibili vantaggi per la sanità. Il problema a monte della malattia è la presenza di placche aterosclerotiche nei vasi arteriosi. La placca può essere classificata in base alle sue componenti isto-morfologiche in fibrosa, fibrocalcifica o fibroadiposa, che comportano diversi livelli di rischio. In questo elaborato è presentata la procedura CAPSU, che permette la rilevazione e la segmentazione delle placche in modo automatico in immagini eco; è valutata l’efficacia di un tool che permette la classificazione automatica delle placche, già segmentate con il metodo CAPSU. Un esperto ha classificato le placche appartenenti a 44 immagini ecografiche che poi sono state sottoposte all’elaborazione automatica; i risultati si sono rivelati concordi. Sono stati valutati alcuni fattori che potrebbero differenziare univocamente i tipi di placche tra loro (area, eccentricità, minimo, massimo e medio livello di grigio, ecogenicità ed eterogeneità) e a parte i primi due tutti si sono mostrati validi in almeno un confronto tra due tipi di placche. Si è concluso che una classificazione automatica del tutto efficace delle placche carotidee potrebbe essere possibile in seguito a ulteriori sviluppi di questa tecnica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tesi incentrata sull'impatto che la riduzione del lead time di consegna, come strategia commerciale, ha sulla supply chain della Neri SpA. A tale scopo è stato sviluppato un modello basato sulla matrice di Kraljic per la classificazione dei fornitori. La matrice è stata adattata alle esigenze aziendali ed è stato sfruttato il metodo di analisi multicriterio AHP per determinare i pesi dei parametri che compongono la dimensione più complessa della matrice. Sono stati sviluppati i diagrammi di Gantt partendo dai lead time presenti in distinta base. Da questi si sono individuati i percorsi temporalmente critici e dalla loro analisi le filiere critiche per lo sviluppo delle nuove potenzialità commerciali. Le filiere critiche sono state poi analizzate nel loro complesso, andando a verificare il ruolo dei singoli fornitori sfruttando come base di analisi la classificazione effettuata con la matrice di Kraljic. Dall'analisi delle filiere e dal confronto con la funzione commerciale sono state ipotizzate strategie per la riduzione dei lead time e il raggiungimento delle nuove potenzialità commerciali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

I Social Network sono una fonte di informazioni di natura spontanea, non guidata, provviste di posizione spaziale e prodotte in tempo reale. Il Social Sensing si basa sull'idea che gruppi di persone possano fornire informazioni, su eventi che accadono nelle loro vicinanze, simili a quelle ottenibili da sensori. La letteratura in merito all’utilizzo dei Social Media per il rilevamento di eventi catastrofici mostra una struttura comune: acquisizione, filtraggio e classificazione dei dati. La piattaforma usata, nella maggior parte dei lavori e da noi, è Twitter. Proponiamo un sistema di rilevamento di eventi per l’Emilia Romagna, tramite l’analisi di tweet geolocalizzati. Per l’acquisizione dei dati abbiamo utilizzato le Twitter API. Abbiamo effettuato due passaggi per il filtraggio dei tweet. Primo, selezione degli account di provenienza dei tweet, se non sono personali è improbabile che siano usati per dare informazioni e non vanno tenuti in considerazione. Secondo, il contenuto dei tweet, vengono scartati se presentano termini scurrili, parole come “buon giorno” e un numero di tag, riferiti ad altri utenti, superiore a quattro. La rilevazione di un valore anomalo rispetto all'insieme delle osservazioni che stiamo considerando (outlier), è il primo indice di un evento eccezionale. Per l’analisi siamo ricorsi all’outlier detection come indice di rilevamento di un evento. Fatta questa prima analisi si controlla che ci sia un effettivo picco di tweet in una zona della regione. Durante il periodo di attività non sono accaduti eventi straordinari, abbiamo quindi simulato un avvenimento per testare l'efficacia del nostro sistema. La maggior difficoltà è che i dati geolocalizzati sono in numero molto esiguo, è quindi difficile l'identificazione dei picchi. Per migliorare il sistema si propone: il passaggio a streaming dei tweet e un aumento della velocità di filtraggio; la automatizzazione dei filtri; l'implementazione di un modulo finale che operi a livello del testo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi cinque anni lo sviluppo di applicazioni mobile ha visto un grandissimo incremento dovuto pricipalmente all’esplosione della diffusione di smartphone; questo fenomeno ha reso disponibile agli analisti una enorme quantità di dati sulle abitudini degli utenti. L’approccio centralizzato nella distribuzione delle applicazioni da parte dei grandi provider quali Apple, Google e Microsoft ha permesso a migliaia di sviluppatori di tutto il mondo di raggiungere con i loro prodotti gli utenti finali e diffondere l’utilizzo di applicativi installabili; le app infatti sono diventate in poco tempo fondamentali nella vita di tutti i giorni e in alcuni casi hanno sostituito funzioni primarie del telefono cellulare. Obiettivo principale di questo studio sarà inferire pattern comportamentali dall’analisi di una grossa mole di dati riguardanti l’utilizzo dello smartphone e delle app installabili da parte di un gruppo di utenti. Ipotizzando di avere a disposizione tutte le azioni che un determinato bacino di utenza effettua nella selezione delle applicazioni di loro interesse quando accedono al marketplace (luogo digitale da cui è possibile scaricare nuove applicazioni ed installarle) è possibile stimare, ovviamente con un certo margine di errore, dati sensibili dell’utente quali: Sesso, Età, Interessi e così via analizzandoli in relazione ad un modello costruito su dati di un campione di utenti ben noto. Costruiremo così un modello utilizzando dati di utenti ben noti di cui conosciamo i dettagli sensibili e poi, tramite avanzate tecniche di regressione e classificazione saremo in grado di definire se esiste o meno una correlazione tra le azioni effettuate su uno Smartphone e il profilo dell’utente. La seconda parte della tesi sarà incentrata sull'analisi di sistemi di raccomandazioni attualmente operativi e ci concentreremo sullo studio di possibili sviluppi sviluppi futuri di questi sistemi partendo dai risultati sperimentali ottenuti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In questo lavoro di tesi si è analizzato il problema di creare un sistema di assistenza allo shopping integrabile in applicazioni e-commerce web e mobile sviluppate con le tecnologie messe a disposizione da Marketcloud, ovvero un progetto che punta a fornire strumenti per la realizzazione, la manutenzione, la gestione, la diffusione e la pubblicizzazione di tali applicazioni limitando i costi e le problematiche di sviluppo a carico delle aziende che intendono fornire servizi di e-commerce. Dopo aver discusso gli aspetti principali del progetto Marketcloud, sono state analizzate le necessità delle aziende interessate allo sviluppo del sistema di assistenza in esame, così come le aspettative degli utenti (i clienti) finali, ed è stato discusso perché fosse necessario e preferibile, nel caso in esame, non utilizzare soluzioni già presenti sul mercato. Infine, è stata progettata ed implementata un’applicazione web che includesse tale sistema e che fosse immediatamente integrabile tra i servizi già sviluppati da Marketcloud, testandone risultati, prestazioni, problemi e possibili sviluppi futuri. Al termine del lavoro di implementazione, il sistema e l'applicazione garantiscono all'utente finale l'utilizzo di tre funzioni: ricerca per categoria, ricerca libera, recommendation di prodotti. Per gestire la ricerca libera, è stato implementato un sistema di filtri successivi, ed una rete neurale multi-livello dotata di un opportuno algoritmo di machine learning per poter apprendere dalle scelte degli utenti; per la recommendation di prodotti, è stato utilizzato un sistema di ranking (classificazione). Le prestazioni della rete neurale sono state oggetto di attenta analisi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obiettivo di questa tesi è raccogliere e ordinare le informazioni disponibili sul plagio fra codici sorgente, con particolare attenzione alla classificazione dei tipi di plagio fra codici e all’analisi dei principali tool esistenti per l’individuazione automatica. Dall’ampia letteratura disponibile sull’argomento, emerge che la rivoluzione informatica ha suscitato nel mondo giuridico un profondo dibattito in merito alla definizione del software e agli strumenti di tutela ad esso connessi, perciò ho deciso di dedicare un capitolo anche alla riflessione sul contesto giuridico e normativo, in Italia e nel mondo. Poiché non esiste una bacchetta magica per combattere il plagio, è realistico pensare che utilizzare diverse tecniche fra loro complementari possa dare risultati migliori; alcuni approcci innovativi in tal senso, derivanti principalmente da ricerche effettuate nel mondo accademico, sono descritti nel capitolo conclusivo della tesi. Un altro aspetto del problema che mi ha colpito è la questione etica connessa al plagio. Molti studiosi universitari hanno realizzato sondaggi all’interno della comunità accademica per testare il grado di sensibilità al problema del plagio e proposto diverse soluzioni volte non solo a combattere il plagio ma anche a prevenirlo, puntando sullo sviluppo di una maggiore consapevolezza del problema negli accademici (sia studenti che docenti). Anche in ambito commerciale non mancano tentativi di sfuggire alla piaga del plagio, considerato a tutti gli effetti una forma di pirateria informatica. Alcuni di questi studi, i cui risultati offrono interessanti spunti di riflessione per il futuro, sono riportati nel capitolo dedicato alle conclusioni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Parametro indispensabile di valutazione di un qualsiasi prodotto o servizio, ai giorni nostri, è la web reputation. Sono sempre più numerose le aziende che monitorano la propria "reputazione online". Quest'ultima può esser definita come l'insieme dei messaggi, commenti e feedbacks, positivi, neutri o negativi che siano, di utenti che esprimono la loro opinione tramite il web su un determinato servizio o prodotto rivolto al pubblico. L’applicazione sviluppata, si pone l’obiettivo di analizzare in tempo reale tramite l’utilizzo di Apache Storm, dati provenienti da fonti eterogenee, classificarli tramite KNIME utilizzando tecniche di classificazione quali SVM, alberi decisionali e Naive Bayesian, renderli persistenti mediante l’utilizzo del database NoSQL HBASE e di visualizzarli in tempo reale attraverso dei grafici utilizzando delle servlet, al fine di costituire un valido strumento di supporto per i processi decisionali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’attività di studio affrontata in questa tesi di laurea nasce da una collaborazione di 11 mesi con l’ufficio tecnico della Aghito Zambonini S.p.A. di Fiorenzuola d’Arda, azienda specializzata nella progettazione e produzione delle facciate continue in vetro. Il primo capitolo analizza lo scenario energetico globale, in termini di consumi e fabbisogni mondiali, confrontandoli con quelli dell’UE e dello stato italiano. Nel capitolo seguente viene analizzato il sistema costruttivo delle facciate continue in vetro, dal punto di vista architettonico (classificazione, requisiti e prestazioni, materiali) e dal punto di vista fisico. Una sezione è stata dedicata all’approfondimento delle facciate a doppia pelle. Dopo una descrizione dei software di simulazione energetica, il caso studio viene analizzato attraverso una simulazione di tipo stazionario con il software WIS 3.0 e con una simulazione di tipo dinamico, tramite il software sperimentale ESP-r. Oltre al caso effettivamente realizzato (CASO A), sono state simulate in ESP-r altre quattro alternative, di cui una considerante una maggior superficie di ventilazione (CASO B), una con intercapedine completamente chiusa (CASO C), una con doppio vetro in facciata al posto del triplo (CASO D) e un’ultima alternativa considera un vetro maggiormente performante nella pelle esterna (CASO E). I risultati ottenuti, in termini di temperatura, velocità dell’aria nell’intercapedine, consumi e parametri soggettivi di comfort, possono essere assunti generalmente validi per un qualsiasi sistema a doppia pelle e mostrano che due casi tra quelli simulati sono peggiorativi (CASO C, CASO D) e due migliorativi (CASO B e CASO E) rispetto a quello effettivamente realizzato. Da questo studio si deduce l’importanza di parametri quali geometria, orientazione, ventilazione e proprietà dei materiali già nel corso della fase di progettazione di un involucro edilizio.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’obiettivo di questo lavoro di tesi è rappresentato dalla definizione di un metodo di ricerca terminologica e documentazione, nonché di traduzione assistita, supportato dalle moderne tecnologie disponibili in questo campo (Antconc, Bootcat, Trados ecc.), valido per la traduzione di questo tipo di documenti, gli standard, ma sfruttabile anche in altri ambiti della traduzione tecnico-scientifica, permettendo al traduttore e, di conseguenza, al committente, di ottenere un documento “accettabile” e qualitativamente idoneo in lingua di arrivo. Il percorso tracciato in questo elaborato parte dalla presentazione del quadro storico generale, per poi passare alla classificazione degli additivi alimentari in base alla tipologia e agli impieghi in campo alimentare. Verranno illustrati in modo generale i metodi di analisi degli additivi e i criteri di validazione dei metodi impiegati, in funzione degli standard internazionali relativi alla materia, rivolgendo particolare attenzione al quadro normativo e alle agli organi coinvolti nella regolamentazione e nel controllo di queste sostanze, sia in Italia che in Russia e nel resto del mondo. Tutto ciò in funzione degli avvenimenti sul piano geopolitico e su quello culturale: da un lato le sanzioni economiche tra UE e Russia, dall’altro EXPO 2015, opportunità per numerosi traduttori e terminologi di approfondire e arricchire le proprie conoscenze in un ambito tanto importante: alimentazione e sicurezza alimentare, in relazione al progetto di gestione terminologica VOCA9. La parte finale della tesi è dedicata alla presentazione degli standard russi GOST R e alla loro traduzione in italiano, in funzione della documentazione e alla ricerca terminologica necessarie per la traduzione tramite CAT tools ed indispensabili per la creazione di glossari.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Lo scopo di questa trattazione è quindi di illustrare il lavoro svolto nel tentativo di classificare le reazioni emozionali ad immagini con una forte carica emozionale, sia positiva che negativa. A tale scopo sono stati acquisiti i segnali EEG di diversi soggetti durante l’esposizione ad immagini di vario contenuto, insieme alla loro reazione dichiarata alle immagini stesse. Queste sono state immagazzinate, elaborate utilizzando diversi metodi di estrazione delle informazioni, ed infine si è tentato di effettuare un riconoscimento di pattern sui segnali tramite algoritmi di apprendimento supervisionato; i dati sono stati quindi divisi tra dati di “training”, utilizzati per la strutturazione dell’algoritmo, e dati di test, necessari per la verifica dell’affidabilità dell’algoritmo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tesi affronta il tema della conversione dell’energia marina in energia elettrica. Tale argomento viene inquadrato nell’ambito della produzione di energia elettrica da fonti rinnovabili, di cui si riportano le stime dei costi relativi, e confronti con la produzione da fonti fossili. La tesi affronta il tema della conversione dell’energia marina discutendone: la definizione, l’analisi economica, i progetti principali in cui sono coinvolte le maggiori imprese del settore, cenni alle stime del potenziale energetico dell’energia marina lungo le coste italiane e agli impianti in corso di realizzazione nel suolo nazionale. Vengono descritte inoltre le caratteristiche principali di un impianto per la conversione di energia marina in energia elettrica, ed in particolare: il funzionamento delle turbine marine e la loro classificazione, il principio di funzionamento di un convertitore di energia ondosa ed in particolare del tipo a galleggiamento. La tesi discute le prospettive di sviluppo della tecnologia in oggetto e le possibili applicazioni future. Infine, è presente un’analisi dei principali benefici e svantaggi dell’energia marina come fonte per la produzione di energia elettrica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’uso di sistemi wearable nell’ambito dell’acquisizione dei segnali biomedici è oggigiorno oggetto di grande interesse. Il loro uso si estende dal monitoraggio di parametri vitali per finalità cliniche al controllo delle dinamiche funzionali del corpo umano nel vivere quotidiano, grazie agli specifici segnali emessi dall’organismo, quali ECG ed EMG. Questa tesi, in particolar modo, riguarda le acquisizioni di segnali EMG, ovvero quelli emessi dalla muscolatura in concomitanza di movimenti, e descrive le modalità con cui essi possono essere acquisiti tramite elettrodi dry ed elettrodi wet. Nello specifico, i risultati ottenuti dai diversi approcci vengono confrontati e viene dimostrato il fatto che vi siano consistenti potenzialità nello sviluppo di sistemi per il riconoscimento di gesti che facciano affidamento sugli elettrodi dry, i quali presentano notevoli vantaggi applicativi rispetto alla controparte di tipo wet, la cui affidabilità in tale ambito è stata ampiamente confermata nel corso degli ultimi anni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il lavoro di questa tesi è frutto dell’esperienza maturata in quattro mesi di tirocinio presso l’U.S. Geological Survey di Menlo Park, da ottobre 2015 a gennaio 2016. Durante questo periodo sono state eseguite quattro campagne di raccolta dati sismici e geotecnici presso la città di Napa, ove, il 24 agosto 2014, si è verificato un terremoto di magnitudo momento pari a 6.0. Quest’area è stata interessata in precedenza da terremoti minori, il più significativo dei quali risulta essere il terremoto di Yountville del 2000 di magnitudo momento pari a 5.1. I rilievi macrosismici, effettuati immediatamente dopo il terremoto di Napa del 2014, hanno fornito una classificazione dettagliata delle strutture danneggiate nel distretto colpito. Obiettivo di questa tesi è comprendere se la distribuzione dei danni osservata sia legata anche alle caratteristiche geologiche locali (effetti di sito), oltre che alla vicinanza all’epicentro. A questo scopo sono state acquisite 63 misure sismiche passive a stazione singola e 4 prove di sismica attiva multicanale, la cui inversione congiunta ha permesso di creare mappe dei riflettori sismici principali sotto le zone interessate dal terremoto. Allo stesso tempo tali mappe, interpretate alla luce della cartografia geologica, hanno permesso di costruire sezioni geologiche e di identificare le corrispondenze tra riflettori geologici e riflettori sismici. Si è così potuto osservare che le zone più pesantemente danneggiate dal terremoto sono quelle che ricadono ove si sono misurate amplificazioni per risonanza in medio-alta frequenza (> 3 Hz) mentre scarsi danni si sono registrati nelle aree caratterizzate da roccia affiorante (e curve di amplificazione per risonanza piatte) e danni minori nelle zone contraddistinte solo da bedrock sismico profondo. La distribuzione del danno, evidenziatosi prevalentemente dove le frequenze proprie di vibrazione del suolo sono mediamente sopra 3 Hz, risulta compatibile con gli intervalli di frequenza attesi per le strutture residenziali tipiche di Napa Valley, che sono costituite da 2-3 piani fuori terra, in legno e di altezza non superiore ai 10 metri.