952 resultados para Analisi Discriminante, Teoria dei Network, Cross-Validation, Validazione.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'analisi della segmentazione, viene utilizzata per identificare sottogruppi omogenei all'interno di una popolazione generale. La segmentazione è particolarmente importante se la concorrenza varia nei diversi sottomercati all'interno di un settore in modo tale che alcuni sono più attraenti di altri. Il lavoro di tesi svolto è stato organizzato in quattro capitoli. Nel primo si parla della strategia e dell'importanza che essa riveste per un'azienda, e si analizzanno le caratteristiche di una strategia di successo. Nel secondo capitolo si trattano tre aspetti vitali di un'azienda : la vision, la mission e gli obiettivi. Nel terzo capitolo si parla del modello che Porter ha sviluppato per fornire un quadro di riferimento per la comprensione della competitività strategica di un'impresa all'interno di un mercato specifico. Si definisce formalmente cosa si intende per teoria dei giochi e si presenta quello che probabilmente è l'esempio più noto di questa teoria : il dilemma del prigioniero - un gioco di cooperazione a somma zero. Nel quarto capitolo si analizza la segmentazione del mercato italiano, si fà l'analisi dell'ambiente esterno e vedremo infatti che un'azienda prima di creare piani di business o di prendere decisioni, deve conoscere l'ambiente su cui opera. Ciò può essere ottenuto attraverso un analisi PESTEL.Il capitolo si conclude con l'analisi di un campione di azende su cui calcoleremo alcuni indici medi di redditività, il Return On Assets (ROA), il Return On common Equity (ROE)e l'Earnings Before Interests Taxes and Amortization (EBITA).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il sempre crescente numero di applicazioni di reti di sensori, robot cooperanti e formazioni di veicoli, ha fatto sì che le problematiche legate al coordinamento di sistemi multi-agente (MAS) diventassero tra le più studiate nell’ambito della teoria dei controlli. Esistono numerosi approcci per affrontare il problema, spesso profondamente diversi tra loro. La strategia studiata in questa tesi è basata sulla Teoria del Consenso, che ha una natura distribuita e completamente leader-less; inoltre il contenuto informativo scambiato tra gli agenti è ridotto al minimo. I primi 3 capitoli introducono ed analizzano le leggi di interazione (Protocolli di Consenso) che permettono di coordinare un Network di sistemi dinamici. Nel capitolo 4 si pensa all'applicazione della teoria al problema del "loitering" circolare di più robot volanti attorno ad un obiettivo in movimento. Si sviluppa a tale scopo una simulazione in ambiente Matlab/Simulink, che genera le traiettorie di riferimento di raggio e centro impostabili, a partire da qualunque posizione iniziale degli agenti. Tale simulazione è stata utilizzata presso il “Center for Research on Complex Automated Systems” (CASY-DEI Università di Bologna) per implementare il loitering di una rete di quadrirotori "CrazyFlie". I risultati ed il setup di laboratorio sono riportati nel capitolo 5. Sviluppi futuri si concentreranno su algoritmi locali che permettano agli agenti di evitare collisioni durante i transitori: il controllo di collision-avoidance dovrà essere completamente indipendente da quello di consenso, per non snaturare il protocollo di Consenso stesso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo studio di tesi che segue analizza un problema di controllo ottimo che ho sviluppato con la collaborazione dell'Ing. Stefano Varisco e della Dott.ssa Francesca Mincigrucci, presso la Ferrari Spa di Maranello. Si è trattato quindi di analizzare i dati di un controllo H-infinito; per eseguire ciò ho utilizzato i programmi di simulazione numerica Matlab e Simulink. Nel primo capitolo è presente la teoria dei sistemi di equazioni differenziali in forma di stato e ho analizzato le loro proprietà. Nel secondo capitolo, invece, ho introdotto la teoria del controllo automatico e in particolare il controllo ottimo. Nel terzo capitolo ho analizzato nello specifico il controllo che ho utilizzato per affrontare il problema richiesto che è il controllo H-infinito. Infine, nel quarto e ultimo capitolo ho specificato il modello che ho utilizzato e ho riportato l'implementazione numerica dell'algoritmo di controllo, e l'analisi dei dati di tale controllo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questa tesi è quello di presentare l'applicazione di tecniche legate alla Teoria di Taglia a un problema di analisi di immagini biomediche. Il lavoro nasce dalla collaborazione del gruppo di Matematica della Visione dell'Università di Bologna, con il progetto PERFECT del Centro di Ricerca ARCES. La tesi si pone quindi come analisi preliminare di approccio alternativo ai metodi preesistenti. I metodi sono principalmente di Topologia Algebrica Applicata, ambito emergente e rilevante nel mondo della Matematica Computazionale. Il nucleo dell'elaborazione è costituito dall'analisi di forma dei dati per mezzo di Funzioni di Taglia. Questa nozione è stata introdotta nel 1999 da Patrizio Frosini e in seguito sviluppata principalmente dallo stesso, Massimo Ferri, Claudia Landi e altri collaboratori appartenuti al Gruppo di Ricerca di Matematica della Visione dell'Università di Bologna.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi vengono studiate alcune caratteristiche dei network a multiplex; in particolare l'analisi verte sulla quantificazione delle differenze fra i layer del multiplex. Le dissimilarita sono valutate sia osservando le connessioni di singoli nodi in layer diversi, sia stimando le diverse partizioni dei layer. Sono quindi introdotte alcune importanti misure per la caratterizzazione dei multiplex, che vengono poi usate per la costruzione di metodi di community detection . La quantificazione delle differenze tra le partizioni di due layer viene stimata utilizzando una misura di mutua informazione. Viene inoltre approfondito l'uso del test dell'ipergeometrica per la determinazione di nodi sovra-rappresentati in un layer, mostrando l'efficacia del test in funzione della similarita dei layer. Questi metodi per la caratterizzazione delle proprieta dei network a multiplex vengono applicati a dati biologici reali. I dati utilizzati sono stati raccolti dallo studio DILGOM con l'obiettivo di determinare le implicazioni genetiche, trascrittomiche e metaboliche dell'obesita e della sindrome metabolica. Questi dati sono utilizzati dal progetto Mimomics per la determinazione di relazioni fra diverse omiche. Nella tesi sono analizzati i dati metabolici utilizzando un approccio a multiplex network per verificare la presenza di differenze fra le relazioni di composti sanguigni di persone obese e normopeso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Multi-dimensional Bayesian network classifiers (MBCs) are probabilistic graphical models recently proposed to deal with multi-dimensional classification problems, where each instance in the data set has to be assigned to more than one class variable. In this paper, we propose a Markov blanket-based approach for learning MBCs from data. Basically, it consists of determining the Markov blanket around each class variable using the HITON algorithm, then specifying the directionality over the MBC subgraphs. Our approach is applied to the prediction problem of the European Quality of Life-5 Dimensions (EQ-5D) from the 39-item Parkinson’s Disease Questionnaire (PDQ-39) in order to estimate the health-related quality of life of Parkinson’s patients. Fivefold cross-validation experiments were carried out on randomly generated synthetic data sets, Yeast data set, as well as on a real-world Parkinson’s disease data set containing 488 patients. The experimental study, including comparison with additional Bayesian network-based approaches, back propagation for multi-label learning, multi-label k-nearest neighbor, multinomial logistic regression, ordinary least squares, and censored least absolute deviations, shows encouraging results in terms of predictive accuracy as well as the identification of dependence relationships among class and feature variables.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The impact of the Parkinson's disease and its treatment on the patients' health-related quality of life can be estimated either by means of generic measures such as the european quality of Life-5 Dimensions (EQ-5D) or specific measures such as the 8-item Parkinson's disease questionnaire (PDQ-8). In clinical studies, PDQ-8 could be used in detriment of EQ-5D due to the lack of resources, time or clinical interest in generic measures. Nevertheless, PDQ-8 cannot be applied in cost-effectiveness analyses which require generic measures and quantitative utility scores, such as EQ-5D. To deal with this problem, a commonly used solution is the prediction of EQ-5D from PDQ-8. In this paper, we propose a new probabilistic method to predict EQ-5D from PDQ-8 using multi-dimensional Bayesian network classifiers. Our approach is evaluated using five-fold cross-validation experiments carried out on a Parkinson's data set containing 488 patients, and is compared with two additional Bayesian network-based approaches, two commonly used mapping methods namely, ordinary least squares and censored least absolute deviations, and a deterministic model. Experimental results are promising in terms of predictive performance as well as the identification of dependence relationships among EQ-5D and PDQ-8 items that the mapping approaches are unable to detect

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this study we have identified key genes that are critical in development of astrocytic tumors. Meta-analysis of microarray studies which compared normal tissue to astrocytoma revealed a set of 646 differentially expressed genes in the majority of astrocytoma. Reverse engineering of these 646 genes using Bayesian network analysis produced a gene network for each grade of astrocytoma (Grade I–IV), and ‘key genes’ within each grade were identified. Genes found to be most influential to development of the highest grade of astrocytoma, Glioblastoma multiforme were: COL4A1, EGFR, BTF3, MPP2, RAB31, CDK4, CD99, ANXA2, TOP2A, and SERBP1. All of these genes were up-regulated, except MPP2 (down regulated). These 10 genes were able to predict tumor status with 96–100% confidence when using logistic regression, cross validation, and the support vector machine analysis. Markov genes interact with NFkβ, ERK, MAPK, VEGF, growth hormone and collagen to produce a network whose top biological functions are cancer, neurological disease, and cellular movement. Three of the 10 genes - EGFR, COL4A1, and CDK4, in particular, seemed to be potential ‘hubs of activity’. Modified expression of these 10 Markov Blanket genes increases lifetime risk of developing glioblastoma compared to the normal population. The glioblastoma risk estimates were dramatically increased with joint effects of 4 or more than 4 Markov Blanket genes. Joint interaction effects of 4, 5, 6, 7, 8, 9 or 10 Markov Blanket genes produced 9, 13, 20.9, 26.7, 52.8, 53.2, 78.1 or 85.9%, respectively, increase in lifetime risk of developing glioblastoma compared to normal population. In summary, it appears that modified expression of several ‘key genes’ may be required for the development of glioblastoma. Further studies are needed to validate these ‘key genes’ as useful tools for early detection and novel therapeutic options for these tumors.

Relevância:

100.00% 100.00%

Publicador:

Resumo:


In order to predict compressive strength of geopolymers prepared from alumina-silica natural products, based on the effect of Al 2 O 3 /SiO 2, Na 2 O/Al 2 O 3, Na 2 O/H 2 O, and Na/[Na+K], more than 50 pieces of data were gathered from the literature. The data was utilized to train and test a multilayer artificial neural network (ANN). Therefore a multilayer feedforward network was designed with chemical compositions of alumina silicate and alkali activators as inputs and compressive strength as output. In this study, a feedforward network with various numbers of hidden layers and neurons were tested to select the optimum network architecture. The developed three-layer neural network simulator model used the feedforward back propagation architecture, demonstrated its ability in training the given input/output patterns. The cross-validation data was used to show the validity and high prediction accuracy of the network. This leads to the optimum chemical composition and the best paste can be made from activated alumina-silica natural products using alkaline hydroxide, and alkaline silicate. The research results are in agreement with mechanism of geopolymerization.


Read More: http://ascelibrary.org/doi/abs/10.1061/(ASCE)MT.1943-5533.0000829

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I robot ad architettura parallela sono meccanismi robotici a catena chiusa. Se al posto di membri rigidi estensibili, come collegamenti tra base e piattaforma, si utilizzano dei cavi avvolgibili allora si parla di manipolatori paralleli a cavi. Nel primo capitolo si mettono a confronto robot seriali e paralleli, si descrivono le caratteristiche dei manipolatori paralleli a cavi e si presentano alcune attuali applicazioni. Nel secondo capitolo si forniscono richiami fondamentali di cinematica e dinamica del corpo rigido e si fanno alcuni cenni alla teoria dei torsori. Nel terzo capitolo si affronta il problema geometrico-statico inverso di un robot parallelo a tre cavi. Nel quarto capitolo si affronta il problema della dinamica inversa, che è sempre da risolvere nei casi in cui si abbiano forze inerziali rilevanti e si desideri raggiungere livelli di accuratezza elevati. Nel quinto capitolo si descrive il codice di simulazione Matlab-Adams. Nel sesto capitolo si descrive la componentistica meccanica ed elettronica del prototipo di laboratorio di manipolatore parallelo a tre cavi e si presentano i risultati ottenuti dalle simulazioni combinate Matlab-Adams nei casi di diverse traiettorie percorse a differenti velocità; infine, si mettono in evidenza le differenze tra l’approccio dinamico e quello statico quando le velocità dei motori e le inerzie della piattaforma mobile sono rilevanti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertação (mestrado)—Universidade de Brasília, Faculdade de Direito, Programa de Pós-Graduação em Direito, 2016.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le recenti restrizioni, che sono state imposte negli ultimi anni, in termini di emissioni hanno dato modo di portare innovazioni tecnologiche nel campo automotive. In particolare, è stata fatta molta strada nel campo dei sistemi di propulsione con lo scopo di ridurre gli inquinanti dovuti ai motori termici tramite l’utilizzo di veicoli ibridi ed elettrici. Oltre a questo, è cresciuta la ricerca anche per tematiche quali: nuove strategie di iniezione, nuovi tipi di combustibile e di motori e analisi più dettagliate dei processi di combustione. Queste innovazioni sono andate di pari passo con uno sviluppo tecnologico riguardante il controllo elettronico presente nel veicolo, il quale permette una maggiore precisione rispetto a quello meccanico. Al fine migliorare l’accuratezza del controllo elettronico è quindi fondamentale l’utilizzo dei segnali provenienti dai sensori, in modo tale da poter individuare e correggere eventuali problemi. Questo progetto ha infatti l’obiettivo di sviluppare strategie per l’analisi e il trattamento di una grande mole di dati, in modo tale da avere un controllo preciso ed automatizzato in modo tale da rendere la procedura meno soggetta ad errori e più veloce. Nello specifico il progetto di tesi è stato incentrato sull’implementazione di nuovi trigger, i quali hanno lo scopo di valutare i segnali in modo tale che non siano presenti problemi per la calibrazione del veicolo. In particolare, sono stati implementati trigger riguardanti il misfire e il controllo dei componenti di un veicolo ibrido, come per esempio il BSG e la batteria a 48V. Il tool fornisce quindi la possibilità di essere sempre aggiornato, ma anche di restituire risultati sempre più precisi potendo aumentare il numero delle funzioni e delle condizioni in essi presenti, con la possibilità, un giorno, di poter realizzare a bordo l’intero processo di calibrazione del motore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’Intelligenza Artificiale (IA), sin dalla sua introduzione, si è occupata dei giochi, ponendo l’attenzione a quelli detti a informazione perfetta e a somma zero e sequenziali (Tris, Scacchi e Forza4). Dalla Teoria dei Giochi è derivato il modello Minimax, che sfrutta l'albero di gioco per effettuare una ricerca in profondità allo scopo di minimizzare la massima perdita possibile per individuare la mossa migliore da giocare. Tuttavia, il limite di tale algoritmo risiede nel tempo necessario al calcolo (per alberi profondi e di grandi dimensioni) che, in alcuni casi, può essere considerevole. Per mitigare tale problema, è stato introdotta la proposta Alpha-Beta, che attua delle potature sull’albero di gioco grazie l’introduzione di due nuove variabili dette, appunto, alpha e beta. Tale approccio è stato ulteriormente migliorato ricorrendo all’utilizzo del concetto di funzione euristica e introducendo un limite di profondità al quale fermare la ricorsione del modello Alpha-Beta. Tale limite, tuttavia, determina il problema dell’effetto orizzonte, legato al fatto che fermarsi a una profondità intermedia dell’albero può portare l’algoritmo a non vedere delle alcune mosse migliori che possono situarsi nel sotto albero del nodo a cui si ferma la ricerca, appunto l’orizzonte. Ulteriori accorgimenti, come l'algoritmo ad approfondimento iterativo (Iterative Deepening) e il salvataggio degli stati di gioco in una tabella hash, possono ridurre in modo significativo il tempo di calcolo. Partendo da questi studi, sono stati sviluppati degli agenti software per ConnectX, un gioco sviluppato in Java a somma zero e a informazione perfetta come Forza4. Le implementazioni sono state testate su 39 diverse configurazioni di gioco, dimostrando che l'agente PlayerSoft risulta il più ottimale e che l'implementazione della funzione euristica rappresenta un buon compromesso tra complessità di calcolo e risultato atteso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’attività di Tesi svolta presso l’azienda Magni Telescopic Handlers è stata finalizzata all’implementazione e l’ottimizzazione dei principi fondamentali della teoria della Lean Manufacturing. Lo scopo del percorso si è concentrato in prima battuta sulla valutazione e analisi delle previsioni dei consumi delle macchine, per poi proseguire con la realizzazione di un database aggiornato costituito esclusivamente dal materiale gestito a Kanban. In questa maniera è stato possibile predisporre la formulazione della mappatura dei componenti a Kanban lungo le tre linee di montaggio dell’azienda, per riuscire a verificare il corretto collocamento dei codici. Sono quindi successivamente sviluppate due metodologie di implementazione per il dimensionamento del Kanban al fine di ottimizzare i processi interni, in accordo con la filosofia Lean Thinking. Al termine dell'elaborato sono illustrati i risultati e i vantaggi che si sono ottenuti per consentire un miglior livello di ottimizzazione delle attività di montaggio lungo la linea e uno standard di efficienza produttiva più elevato.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objective: We carry out a systematic assessment on a suite of kernel-based learning machines while coping with the task of epilepsy diagnosis through automatic electroencephalogram (EEG) signal classification. Methods and materials: The kernel machines investigated include the standard support vector machine (SVM), the least squares SVM, the Lagrangian SVM, the smooth SVM, the proximal SVM, and the relevance vector machine. An extensive series of experiments was conducted on publicly available data, whose clinical EEG recordings were obtained from five normal subjects and five epileptic patients. The performance levels delivered by the different kernel machines are contrasted in terms of the criteria of predictive accuracy, sensitivity to the kernel function/parameter value, and sensitivity to the type of features extracted from the signal. For this purpose, 26 values for the kernel parameter (radius) of two well-known kernel functions (namely. Gaussian and exponential radial basis functions) were considered as well as 21 types of features extracted from the EEG signal, including statistical values derived from the discrete wavelet transform, Lyapunov exponents, and combinations thereof. Results: We first quantitatively assess the impact of the choice of the wavelet basis on the quality of the features extracted. Four wavelet basis functions were considered in this study. Then, we provide the average accuracy (i.e., cross-validation error) values delivered by 252 kernel machine configurations; in particular, 40%/35% of the best-calibrated models of the standard and least squares SVMs reached 100% accuracy rate for the two kernel functions considered. Moreover, we show the sensitivity profiles exhibited by a large sample of the configurations whereby one can visually inspect their levels of sensitiveness to the type of feature and to the kernel function/parameter value. Conclusions: Overall, the results evidence that all kernel machines are competitive in terms of accuracy, with the standard and least squares SVMs prevailing more consistently. Moreover, the choice of the kernel function and parameter value as well as the choice of the feature extractor are critical decisions to be taken, albeit the choice of the wavelet family seems not to be so relevant. Also, the statistical values calculated over the Lyapunov exponents were good sources of signal representation, but not as informative as their wavelet counterparts. Finally, a typical sensitivity profile has emerged among all types of machines, involving some regions of stability separated by zones of sharp variation, with some kernel parameter values clearly associated with better accuracy rates (zones of optimality). (C) 2011 Elsevier B.V. All rights reserved.