960 resultados para Maximum-entropy selection criterion


Relevância:

20.00% 20.00%

Publicador:

Resumo:

27th Annual Conference of the European Cetacean Society. Setúbal, Portugal, 8-10 April 2013.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação de Mestrado para obtenção do grau de Mestre em Engenharia Mecânica Ramo de Manutenção e Produção

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na Fábrica de Papel da Ponte Redonda fabricam-se sacos de papel multi-folhas e papel reciclado do tipo Kraft. Tendo em consideração a primeira actividade, é de grande interesse optimizar o processo de fabrico de papel com vista a incorporara a máxima taxa de papel produzido internamente nas diferentes camadas dos sacos de papel. Os papéis de maior interesse são os do tipo Fluting e Liners, tendo sido produzidos em 2010 um total de 4,9 mil toneladas, ou seja 90% de todo o papel fabricado em 2010, correspondendo a a 4 mil toneladas de papéis do tipo Liners e 0,9 mil toneladas para os papéis do tipo Fluting. Nos papéis do tipo Liners incluem-se os papéis do tipo Test-Liner e Kraft-Liner, representando em termos produtivos valores idênticos. No âmbito deste trabalho, em que se pretendeu controlar as águas do processo e optimizar a produção de papel, foram introduzidos uma unidade de flutuação e um sistema que permitisse regular a consistência da suspensão fibrosa à entrada da máquina do papel, e foram ainda estudadas as possibilidades de adição de produtos químicos para melhorar as características da pasta assim como um tratamento microbiológico mais eficaz para todo o processo. Para se avaliar se as medidas implementadas teriam um impacto positivo na qualidade desses dois tipos de papéis, desenvolveu-se o trabalho em duas fases: a primeira envolve a introdução de um sistema de flutuação e de um sistema de controlo de consistência da pasta, assim como a selecção de produtos químicos a adicionar ao processo. A segunda fase consistiu na avaliação do efeito destas medidas nas características do papel fabricado. Para o efeito foram escolhidos dois tipos de papel e de diferentes gramagens, nomeadamente Test-Liner de 80 g/m2 e Fluting de 110 g/m2. Introduziu-se um flutuador com o objectivo de tratar parte das águas do processo de fabrico com vista a serem reutilizadas em determinadas aplicações possíveis para a qualidade da água obtida (lavagens e água do processo), de modo a conseguir-se uma poupança de água, assim como aproveitar-se as lamas resultantes, ricas em fibra de celulose, para utilizá-las como matéria-prima. Foi introduzido um regulador de consistência no processo da Ponte Redonda com o objectivo de alimentar de uma forma constante a consistência da pasta à entrada da máquina do papel proporcionando uma melhor formação da folha, devido à ligação entre fibras, na direcção máquina e direcção transversal. Esse sistema inovador é um Regulador de Consistência que vem proporcionar à máquina do papel uma alimentação em fibra mais constante. O fabrico de papel apenas a partir de fibras de celulose não permitirá obter um papel com as características desejadas para a sua utilização. Para corrigir estas deficiências, são adicionados produtos químicos para atribuir ou melhorar as propriedades dos papéis. Desta forma considerou-se interessante introduzir no processo um agente de retenção numa fase posterior à preparação da pasta e antes da chegada à máquina de papel, de forma a melhorar as características da suspensão fibrosa. Assim foi implementado um sistema cuja eficácia foi avaliada. Concluiu-se que com a sua implementação a máquina de papel apresentou melhores resultados na drenagem e na turbidez da água removida, significando uma água com menor teor de matéria suspensa e dissolvida, devido à melhor agregação das fibras dispersas na suspensão fibrosa, levando a um aumento da drenagem e consequentemente melhor eficiência das prensas e secaria. Foi também elaborado um estudo para introdução de um sistema de tratamento microbiológico em todo o processo de fabrico de papel, devido à existência de microorganismos prejudiciais ao seu fabrico. Concluiu-se que a água clarificada proveniente do flutuador apresentou qualidade aceitável para os objectivos pretendidos. No entanto, considerando a eficiência de 26,5% na remoção de sólidos suspensos será necessário mais algum tempo de utilização da água clarificada, cerca de um ano, para avaliar se esta terá algum efeito prejudicial nos equipamentos. Verificou-se que devido à existência de microrganismos em todo o processo de fabrico de papel será necessário efectuar lavagens aos tinões, tanques e circuitos com alguma regularidade, aproveitando-se as paragens do processo assim como implementar um sistema de tratamento microbiológico mais eficaz. Em resultado das medidas implementadas concluiu-se que os papéis produzidos apresentaram melhorias, tendo-se obtido melhores resultados em todos os ensaios de resistência. No papel do tipo Test-Liner destacam-se os bons resultados nos ensaios de superfície, Cobb60 e rebentamento. No caso do parâmetro do Cobb60, foi um resultado surpreendente visto que por norma este tipo de papéis reciclados não suportam este ensaio. Concluiu-se também que as medidas implementadas proporcionaram uma melhor agregação e ligação entre fibras, e melhor formação da folha na máquina do papel proporcionando aos papéis propriedades físico-mecânicas mais interessantes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho teve como objectivo a optimização das condições de crescimento de biomassa algal tendo em vista a sua utilização como fonte de lípidos para biocombustíveis. Assim, procedeu-se à inoculação de duas estirpes, a Dunaliella tertiolecta (água salgada) e a Tetraselmis subcordiformis (água salobra), seleccionando-se a Dunaliella tertiolecta uma vez que esta apresentou um crescimento mais rápido. Escolhida a estirpe a usar, avaliou-se a influência da composição do meio de cultura da espécie, variando-se a concentração de macronutrientes (Magnésio, Potássio, Azoto, Fósforo) e de micronutrientes (Manganês, Zinco, Ferro, Cobalto) presentes no meio em 10 e 20 vezes, comparativamente à do meio de cultura padrão, o meio Artificial Seawater Medium with Vitamins. Avaliou-se o crescimento algal, a uma temperatura de 25 ºC ± 2 ºC, com uma intensidade de iluminação de 5000 lux (lâmpadas luz dia) e fotoperíodos 12:12 h, controlando possíveis contaminações nas culturas em estudo. Para os ensaios realizados com a Dunaliella tertiolecta, os melhores resultados para a produtividade média e máxima de biomassa, 63,06 mgbiomassa seca/L.dia e 141,79 mgbiomassa seca/L.dia, respectivamente, foram obtidos no ensaio em que se fez variar 10 vezes a concentração de azoto (sob a forma de nitrato). Os resultados mais satisfatórios para o teor lípidico e para a produtividade lipídica máxima, 33,45% e 47,43 mgóleo/L.dia respectivamente, também foram obtidos no ensaio em que se fez variar 10 vezes a concentração de azoto (sob a forma de nitrato), (com extracção dos lípidos usando o método de Bligh e Dyer). Foram testados dois solventes para a extracção de lipídos, o clorofórmio e o hexano, tendose obtido resultados superiores com o clorofórmio, comparativamente aos obtidos quando se usou hexano, com excepção do ensaio em que se aumentou 20 vezes a concentração de fósforo no meio de cultura das microalgas. Verificou-se que, em todos os ensaios foi atingido o estado estacionário sensivelmente na mesma altura, isto é, decorridos cerca de 25 dias após o início do estudo, excepto os ensaios em que se fez variar a concentração de cobalto, para os quais as culturas não se adaptaram às alterações do meio, acabando por morrer passados 15 dias. A adição dos macronutrientes e micronutrientes usados nos ensaios, nas quantidades testadas, não influenciou significativamente a produtividade lipídica, com excepção do azoto e ferro. Conclui-se que o aumento da concentração de azoto para 10x o valor padrão potencia o aumento da produtividade lipídica máxima para mais do dobro (3,6 vezes – Padrão: 13,25 mgóleo/L.dia; 10x N: 47,43 mgóleo/L.dia) e que o aumento da concentração de ferro para 10x o valor padrão potencia o aumento da produtividade lipídica máxima para aproximadamente o dobro (1,9 vezes - Padrão: 14,61 mgóleo/L.dia; 10x Fe: 28,04 mgóleo/L.dia). Nos ensaios realizados com adição de azoto ou ferro, os resultados obtidos para a concentração, teor lípidico e produtividade lipídica máxima, foram sempre superiores aos do padrão correspondente, pelo que se pode concluir que estes ensaios se apresentam como os mais promissores deste estudo, embora o ensaio mais satisfatório tenha sido aquele em que se promoveu a alteração da concentração de azoto para 10 vezes o valor padrão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho tem como objectivo a simulação e verificação do funcionamento de 3 colunas de destilação, a T-0303, a T-0306 e a T-0307, integrantes do processo de produção de p-xileno, baseado nos dados relativos ao ano de 2008, existente na refinaria da Galp no Porto. A abordagem consistiu em utilizar o AspenPlus quer para a simulação quer para a optimização, sendo esta última complementada com um planeamento experimental e optimização no Minitab15. O critério de optimização foi estabelecido a partir de uma análise ao processo actual, na qual se averiguou que se poderia, no limite: produzir mais 15,30ton.ano-1 de p-xileno no conjunto de colunas T-0306 e T-0307; remover mais 1,36ton.ano-1 de dessorvente na coluna T-0303 e diminuir a energia necessária para o processo. Da optimização à coluna T-0303, obteve-se uma melhoria de remoção de 0,34ton.ano-1 de dessorvente, e uma diminuição na energia necessária para 333,24.106kWh por ano. Para obter esta optimização houve necessidade de ultrapassar em 109,852kW a potência da bomba P0306A/S e alterou-se a razão de refluxo na base para 46,1. A optimização conjunta das colunas T-0306 e T-0307 apenas possibilita uma melhoria de p-xileno de 3,4ton.ano-1. De uma optimização individual da coluna T-0307, mantendo a coluna T-0306 nas condições actuais, obteve-se uma melhoria na produção de p-xileno de 14,62ton.ano-1. Neste ensaio as potências do condensador E-0314, do reebulidor E-0306 e da bomba P0314A/S excedem, as actuais em, respectivamente, 35,71kW, 35,74kW e 0,12kW. Enquanto para a situação actual o custo de p-xileno equivale a 722,17€.ton-1, para a optimização simultânea da coluna T-0303 e T-0307, é de 723,39€.ton-1 e para a optimização de apenas da coluna T-0307 é de 722,81€.ton-1. Perante um preço de venda actual de pxileno de 749,10€.ton-1 todas as situações são favoráveis. Em suma, é possível uma optimização processual mas o custo por tonelada de pxileno fica superior ao actual.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Multi-objective particle swarm optimization (MOPSO) is a search algorithm based on social behavior. Most of the existing multi-objective particle swarm optimization schemes are based on Pareto optimality and aim to obtain a representative non-dominated Pareto front for a given problem. Several approaches have been proposed to study the convergence and performance of the algorithm, particularly by accessing the final results. In the present paper, a different approach is proposed, by using Shannon entropy to analyzethe MOPSO dynamics along the algorithm execution. The results indicate that Shannon entropy can be used as an indicator of diversity and convergence for MOPSO problems.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cluster analysis for categorical data has been an active area of research. A well-known problem in this area is the determination of the number of clusters, which is unknown and must be inferred from the data. In order to estimate the number of clusters, one often resorts to information criteria, such as BIC (Bayesian information criterion), MML (minimum message length, proposed by Wallace and Boulton, 1968), and ICL (integrated classification likelihood). In this work, we adopt the approach developed by Figueiredo and Jain (2002) for clustering continuous data. They use an MML criterion to select the number of clusters and a variant of the EM algorithm to estimate the model parameters. This EM variant seamlessly integrates model estimation and selection in a single algorithm. For clustering categorical data, we assume a finite mixture of multinomial distributions and implement a new EM algorithm, following a previous version (Silvestre et al., 2008). Results obtained with synthetic datasets are encouraging. The main advantage of the proposed approach, when compared to the above referred criteria, is the speed of execution, which is especially relevant when dealing with large data sets.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Catastrophic events, such as wars and terrorist attacks, tornadoes and hurricanes, earthquakes, tsunamis, floods and landslides, are always accompanied by a large number of casualties. The size distribution of these casualties has separately been shown to follow approximate power law (PL) distributions. In this paper, we analyze the statistical distributions of the number of victims of catastrophic phenomena, in particular, terrorism, and find double PL behavior. This means that the data sets are better approximated by two PLs instead of a single one. We plot the PL parameters, corresponding to several events, and observe an interesting pattern in the charts, where the lines that connect each pair of points defining the double PLs are almost parallel to each other. A complementary data analysis is performed by means of the computation of the entropy. The results reveal relationships hidden in the data that may trigger a future comprehensive explanation of this type of phenomena.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Resource constraints are becoming a problem as many of the wireless mobile devices have increased generality. Our work tries to address this growing demand on resources and performance, by proposing the dynamic selection of neighbor nodes for cooperative service execution. This selection is in uenced by user's quality of service requirements expressed in his request, tailoring provided service to user's speci c needs. In this paper we improve our proposal's formulation algorithm with the ability to trade o time for the quality of the solution. At any given time, a complete solution for service execution exists, and the quality of that solution is expected to improve overtime.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This study compared the ground reaction forces (GRF) and plantar pressures between unloaded and occasional loaded gait. The GRF and plantar pressures of 60 participants were recorded during unloaded gait and occasional loaded gait (wearing a backpack that raised their body mass index to 30); this load criterion was adopted because is considered potentially harmful in permanent loaded gait (obese people). The results indicate an overall increase (absolute values) of GRF and plantar pressures during occasional loaded gait (p < 0.05); also, higher normalized (by total weight) values in the medial midfoot and toes, and lower values in the lateral rearfoot region were observed. During loaded gait the magnitude of the vertical GRF (impact and thrust maximum) decreased and the shear forces increased more than did the proportion of the load (normalized values). These data suggest a different pattern of GRF and plantar pressure distribution during occasional loaded compared to unloaded gait.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paper studies the chromosome information of twenty five species, namely, mammals, fishes, birds, insects, nematodes, fungus, and one plant. A quantifying scheme inspired in the state space representation of dynamical systems is formulated. Based on this algorithm, the information of each chromosome is converted into a bidimensional distribution. The plots are then analyzed and characterized by means of Shannon entropy. The large volume of information is integrated by averaging the lengths and entropy quantities of each species. The results can be easily visualized revealing quantitative global genomic information.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Electrocardiography (ECG) biometrics is emerging as a viable biometric trait. Recent developments at the sensor level have shown the feasibility of performing signal acquisition at the fingers and hand palms, using one-lead sensor technology and dry electrodes. These new locations lead to ECG signals with lower signal to noise ratio and more prone to noise artifacts; the heart rate variability is another of the major challenges of this biometric trait. In this paper we propose a novel approach to ECG biometrics, with the purpose of reducing the computational complexity and increasing the robustness of the recognition process enabling the fusion of information across sessions. Our approach is based on clustering, grouping individual heartbeats based on their morphology. We study several methods to perform automatic template selection and account for variations observed in a person's biometric data. This approach allows the identification of different template groupings, taking into account the heart rate variability, and the removal of outliers due to noise artifacts. Experimental evaluation on real world data demonstrates the advantages of our approach.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The problem of selecting suppliers/partners is a crucial and important part in the process of decision making for companies that intend to perform competitively in their area of activity. The selection of supplier/partner is a time and resource-consuming task that involves data collection and a careful analysis of the factors that can positively or negatively influence the choice. Nevertheless it is a critical process that affects significantly the operational performance of each company. In this work, there were identified five broad selection criteria: Quality, Financial, Synergies, Cost, and Production System. Within these criteria, it was also included five sub-criteria. After the identification criteria, a survey was elaborated and companies were contacted in order to understand which factors have more weight in their decisions to choose the partners. Interpreted the results and processed the data, it was adopted a model of linear weighting to reflect the importance of each factor. The model has a hierarchical structure and can be applied with the Analytic Hierarchy Process (AHP) method or Value Analysis. The goal of the paper it's to supply a selection reference model that can represent an orientation/pattern for a decision making on the suppliers/partners selection process

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In research on Silent Speech Interfaces (SSI), different sources of information (modalities) have been combined, aiming at obtaining better performance than the individual modalities. However, when combining these modalities, the dimensionality of the feature space rapidly increases, yielding the well-known "curse of dimensionality". As a consequence, in order to extract useful information from this data, one has to resort to feature selection (FS) techniques to lower the dimensionality of the learning space. In this paper, we assess the impact of FS techniques for silent speech data, in a dataset with 4 non-invasive and promising modalities, namely: video, depth, ultrasonic Doppler sensing, and surface electromyography. We consider two supervised (mutual information and Fisher's ratio) and two unsupervised (meanmedian and arithmetic mean geometric mean) FS filters. The evaluation was made by assessing the classification accuracy (word recognition error) of three well-known classifiers (knearest neighbors, support vector machines, and dynamic time warping). The key results of this study show that both unsupervised and supervised FS techniques improve on the classification accuracy on both individual and combined modalities. For instance, on the video component, we attain relative performance gains of 36.2% in error rates. FS is also useful as pre-processing for feature fusion. Copyright © 2014 ISCA.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Discrete data representations are necessary, or at least convenient, in many machine learning problems. While feature selection (FS) techniques aim at finding relevant subsets of features, the goal of feature discretization (FD) is to find concise (quantized) data representations, adequate for the learning task at hand. In this paper, we propose two incremental methods for FD. The first method belongs to the filter family, in which the quality of the discretization is assessed by a (supervised or unsupervised) relevance criterion. The second method is a wrapper, where discretized features are assessed using a classifier. Both methods can be coupled with any static (unsupervised or supervised) discretization procedure and can be used to perform FS as pre-processing or post-processing stages. The proposed methods attain efficient representations suitable for binary and multi-class problems with different types of data, being competitive with existing methods. Moreover, using well-known FS methods with the features discretized by our techniques leads to better accuracy than with the features discretized by other methods or with the original features. (C) 2013 Elsevier B.V. All rights reserved.