34 resultados para exponential-convexity
Resumo:
This work deals with the numerical simulation of air stripping process for the pre-treatment of groundwater used in human consumption. The model established in steady state presents an exponential solution that is used, together with the Tau Method, to get a spectral approach of the solution of the system of partial differential equations associated to the model in transient state.
Resumo:
TICEduca. III Congresso Internacional TIC e Educação. 14 a 16 Novembro, Lisboa
Resumo:
Siderophore production by Bacillus megaterium was detected, in an iron-deficient culture medium, during the exponential growth phase, prior to the sporulation, in the presence of glucose; these results suggested that the onset of siderophore production did not require glucose depletion and was not related with the sporulation. The siderophore production by B. megaterium was affected by the carbon source used. The growth on glycerol promoted the very high siderophore production (1,182 μmol g−1 dry weight biomass); the opposite effect was observed in the presence of mannose (251 μmol g−1 dry weight biomass). The growth in the presence of fructose, galactose, glucose, lactose, maltose or sucrose, originated similar concentrations of siderophore (546–842 μmol g−1 dry weight biomass). Aeration had a positive effect on the production of siderophore. Incubation of B. megaterium under static conditions delayed and reduced the growth and the production of siderophore, compared with the incubation in stirred conditions.
Resumo:
In the present paper we assess the performance of information-theoretic inspired risks functionals in multilayer perceptrons with reference to the two most popular ones, Mean Square Error and Cross-Entropy. The information-theoretic inspired risks, recently proposed, are: HS and HR2 are, respectively, the Shannon and quadratic Rényi entropies of the error; ZED is a risk reflecting the error density at zero errors; EXP is a generalized exponential risk, able to mimic a wide variety of risk functionals, including the information-thoeretic ones. The experiments were carried out with multilayer perceptrons on 35 public real-world datasets. All experiments were performed according to the same protocol. The statistical tests applied to the experimental results showed that the ubiquitous mean square error was the less interesting risk functional to be used by multilayer perceptrons. Namely, mean square error never achieved a significantly better classification performance than competing risks. Cross-entropy and EXP were the risks found by several tests to be significantly better than their competitors. Counts of significantly better and worse risks have also shown the usefulness of HS and HR2 for some datasets.
Resumo:
Task scheduling is one of the key mechanisms to ensure timeliness in embedded real-time systems. Such systems have often the need to execute not only application tasks but also some urgent routines (e.g. error-detection actions, consistency checkers, interrupt handlers) with minimum latency. Although fixed-priority schedulers such as Rate-Monotonic (RM) are in line with this need, they usually make a low processor utilization available to the system. Moreover, this availability usually decreases with the number of considered tasks. If dynamic-priority schedulers such as Earliest Deadline First (EDF) are applied instead, high system utilization can be guaranteed but the minimum latency for executing urgent routines may not be ensured. In this paper we describe a scheduling model according to which urgent routines are executed at the highest priority level and all other system tasks are scheduled by EDF. We show that the guaranteed processor utilization for the assumed scheduling model is at least as high as the one provided by RM for two tasks, namely 2(2√−1). Seven polynomial time tests for checking the system timeliness are derived and proved correct. The proposed tests are compared against each other and to an exact but exponential running time test.
Resumo:
Mestrado em Engenharia Eletrotécnica e de Computadores - Área de Especialização de Sistemas e Planeamento Industrial
Resumo:
Dissertação apresentada ao Instituto Politécnico do Porto para obtenção do Grau de Mestre em Logística Orientada por: Professora Doutora Patrícia Alexandra Gregório Ramos
Resumo:
Nesta dissertação aborda-se a aplicação de Leis de Potência (LPs), também designadas de Leis de Pareto ou Leis de Zipf, a dados económicos. As LPs são distribuições estatísticas amplamente usadas na compreensão de sistemas naturais e artificiais. O aparecimento das LPs deve-se a Vilfredo Pareto que, no século XIX, publicou o manual de economia política,“Cours d’Economie Politique”. Nesse manual refere que grande parte da economia mundial segue uma LP, em que 20% da população reúne 80% da riqueza do país. Esta propriedade carateriza uma variável que segue uma distribuição de Pareto (ou LP). Desde então, as LPs foram aplicadas a outros fenómenos, nomeadamente a ocorrência de palavras em textos, os sobrenomes das pessoas, a variação dos rendimentos pessoais ou de empresas, o número de vítimas de inundações ou tremores de terra, os acessos a sítios da internet, etc. Neste trabalho, é estudado um conjunto de dados relativos às fortunas particulares ou coletivas de pessoas ou organizações. Mais concretamente são analisados dados recolhidos sobre as fortunas das mulheres mais ricas do mundo, dos homens mais ricos no ramo da tecnologia, das famílias mais ricas, das 20 mulheres mais ricas da América, dos 400 homens mais ricos da América, dos homens mais ricos do mundo, dos estabelecimentos mais ricos do mundo, das empresas mais ricas do mundo e dos países mais ricos do mundo, bem como o valor de algumas empresas no mercado de ações. Os resultados obtidos revelam uma boa aproximação de parte desses dados a uma LP simples e uma boa aproximação pelos restantes dados a uma LP dupla. Observa-se, assim, diferenciação na forma de crescimento das fortunas nos diferentes casos estudados. Como trabalho futuro, procurar-se-á analisar estes e outros dados, utilizando outras distribuições estatísticas, como a exponencial ou a lognormal, que possuem comportamentos semelhantes à LP, com o intuito de serem comparados os resultados. Um outro aspeto interessante será o de encontrar a explicação analítica para as vantagens da aproximação de dados económicos por uma LP simples vs por uma LP dupla.
Resumo:
Load forecasting has gradually becoming a major field of research in electricity industry. Therefore, Load forecasting is extremely important for the electric sector under deregulated environment as it provides a useful support to the power system management. Accurate power load forecasting models are required to the operation and planning of a utility company, and they have received increasing attention from researches of this field study. Many mathematical methods have been developed for load forecasting. This work aims to develop and implement a load forecasting method for short-term load forecasting (STLF), based on Holt-Winters exponential smoothing and an artificial neural network (ANN). One of the main contributions of this paper is the application of Holt-Winters exponential smoothing approach to the forecasting problem and, as an evaluation of the past forecasting work, data mining techniques are also applied to short-term Load forecasting. Both ANN and Holt-Winters exponential smoothing approaches are compared and evaluated.
Resumo:
Electricity markets are complex environments with very particular characteristics. A critical issue concerns the constant changes they are subject to. This is a result of the electricity markets’ restructuring, performed so that the competitiveness could be increased, but with exponential implications in the increase of the complexity and unpredictability in those markets’ scope. The constant growth in markets unpredictability resulted in an amplified need for market intervenient entities in foreseeing market behavior. The need for understanding the market mechanisms and how the involved players’ interaction affects the outcomes of the markets, contributed to the growth of usage of simulation tools. Multi-agent based software is particularly well fitted to analyze dynamic and adaptive systems with complex interactions among its constituents, such as electricity markets. This paper presents the Multi-Agent System for Competitive Electricity Markets (MASCEM) – a simulator based on multi-agent technology that provides a realistic platform to simulate electricity markets, the numerous negotiation opportunities and the participating entities.
Resumo:
This paper presents several forecasting methodologies based on the application of Artificial Neural Networks (ANN) and Support Vector Machines (SVM), directed to the prediction of the solar radiance intensity. The methodologies differ from each other by using different information in the training of the methods, i.e, different environmental complementary fields such as the wind speed, temperature, and humidity. Additionally, different ways of considering the data series information have been considered. Sensitivity testing has been performed on all methodologies in order to achieve the best parameterizations for the proposed approaches. Results show that the SVM approach using the exponential Radial Basis Function (eRBF) is capable of achieving the best forecasting results, and in half execution time of the ANN based approaches.
Resumo:
Hoje em dia, um dos grandes objetivos das empresas é conseguirem uma gestão eficiente. Em particular, empresas que lidam com grandes volumes de stocks têm a necessidade de otimizar as quantidades dos seus produtos armazenados, com o objetivo, de entre outros, reduzir os seus custos associados. O trabalho documentado descreve um novo modelo, desenvolvido para a gestão de encomendas de uma empresa líder em soluções de transporte. A eficiência do modelo foi alcançada com a utilização de vários métodos matemáticos de previsão. Salientam-se os métodos de Croston, Teunter e de Syntetos e Boylan adequados para artigos com procuras intermitentes e a utilização de métodos mais tradicionais, tais como médias móveis ou alisamento exponencial. Os conceitos de lead time, stock de segurança, ponto de encomenda e quantidade económica a encomendar foram explorados e serviram de suporte ao modelo desenvolvido. O stock de segurança recebeu especial atenção. Foi estabelecida uma nova fórmula de cálculo em conformidade com as necessidades reais da empresa. A eficiência do modelo foi testada com o acompanhamento da evolução do stock real. Para além de uma redução significativa do valor dos stocks armazenados, a viabilidade do modelo é reflectida pelo nível de serviço alcançado.
Resumo:
Os agentes quelantes, como é o caso do EDTA, são utilizados numa ampla variedade de indústrias como a indústria têxtil, da pasta de papel, alimentar, de cosméticos ou de detergentes. Contudo, os agentes complexantes sintéticos, habitualmente usados, não são biodegradáveis, pelo que a sua acumulação no meio ambiente constitui motivo de preocupação. Deste modo, existe um interesse crescente na substituição destes compostos por compostos similares biodegradáveis sendo, deste modo, ambientalmente amigáveis. Alguns microrganismos são capazes de produzir moléculas com capacidade de captar metais. Um desses exemplos são os sideróforos: compostos produzidos por bactérias, fungos e plantas gramíneas, com capacidade de formar quelatos muito estáveis com o ferro. A presente dissertação teve como objetivo estudar o efeito de diferentes condições culturais e nutricionais na produção de sideróforo pela bactéria Bacillus megaterium. A avaliação da produção de sideróforo, utilizando o método colorimétrico Chrome Azurol S (CAS), durante o crescimento da bactéria, em meio de cultura deficiente em ferro, na presença de 5 ou de 20 g/L de glucose, mostrou que o início da sua produção ocorre, durante a fase exponencial de crescimento, não está relacionada com a esporulação e não é afetada pela concentração de glucose. Contudo, o crescimento da bactéria na presença de diferentes fontes de carbono (glicerol, frutose, galactose, glucose, manose, lactose, maltose ou sacarose) evidenciou que a produção de sideróforo é afetada pelo tipo de fonte de carbono. O crescimento na presença de glicerol promoveu a maior produção de sideróforo; efeito inverso foi observado na presença de manose. A bactéria B. megaterium, quando crescida na presença de frutose, galactose, glucose, lactose, maltose ou sacarose, produziu concentrações similares de sideróforo. O aumento da concentração de arginina, no meio de cultura, não aumentou a produção de sideróforo. A agitação apresentou um efeito positivo na produção de sideróforo; o crescimento em condições estáticas atrasou e diminuiu a produção de sideróforo. Em conclusão, o glicerol parece constituir uma fonte de carbono alternativa, aos monossacáridos e dissacáridos, para a produção de sideróforo. A agitação apresenta um efeito positivo na produção de sideróforo pela bactéria B. megaterium ATCC 19213.
Resumo:
Actualmente, a utilização de recursos energéticos renováveis é encarada como vital para se alcançar um desenvolvimento sustentável. Dentro destas, a energia eólica apresenta-se como uma das mais sustentáveis e, por isso, teve uma evolução exponencial nos últimos anos. No entanto, apesar da sua maturidade, esta tecnologia apresenta problemas e desafios. As turbinas eólicas apresentam uma elevada taxa de avarias em alguns componentes, nomeadamente a caixa de engrenagens, o gerador eléctrico e as pás. Os tempos de paragem associados às avarias e à sua reparação provocam grandes prejuízos. De modo a evitar as falhas e a permitir a redução dos custos durante o ciclo de vida das turbinas eólicas, existe a necessidade de optimizar as estratégias de manutenção, de forma a maximizar o retorno do investimento nos parques eólicos. Os aerogeradores mais recentes possuem sistemas de monitorização que permitem monitorizar todos os equipamentos constituintes da máquina, possibilitando um acompanhamento mais próximo do real estado de funcionamento dos equipamentos. A monitorização online permite que se reduza a possibilidade de acontecimento de uma falha grave. Este trabalho de investigação analisa as avarias associadas a um dos equipamentos mais importante das turbinas eólicas, a caixa de engrenagens, tendo sido identificadas as principais grandezas que podem ser utilizadas para a previsão de avarias. Este equipamento é crítico dado que origina um dos maiores tempos de indisponibilidade por falha. O resultado das análises efectuadas ao comportamento da caixa de engrenagens perante uma avaria demonstrou que é possível prevê-las. Esta informação é de extrema importância, pois permite um escalonamento eficiente da manutenção e a adopção das estratégias de reparação mais convenientes.
Resumo:
Nos últimos anos, o fácil acesso em termos de custos, ferramentas de produção, edição e distribuição de conteúdos audiovisuais, contribuíram para o aumento exponencial da produção diária deste tipo de conteúdos. Neste paradigma de superabundância de conteúdos multimédia existe uma grande percentagem de sequências de vídeo que contém material explícito, sendo necessário existir um controlo mais rigoroso, de modo a não ser facilmente acessível a menores. O conceito de conteúdo explícito pode ser caraterizado de diferentes formas, tendo o trabalho descrito neste documento incidido sobre a deteção automática de nudez feminina presente em sequências de vídeo. Este processo de deteção e classificação automática de material para adultos pode constituir uma ferramenta importante na gestão de um canal de televisão. Diariamente podem ser recebidas centenas de horas de material sendo impraticável a implementação de um processo manual de controlo de qualidade. A solução criada no contexto desta dissertação foi estudada e desenvolvida em torno de um produto especifico ligado à área do broadcasting. Este produto é o mxfSPEEDRAIL F1000, sendo este uma solução da empresa MOG Technologies. O objetivo principal do projeto é o desenvolvimento de uma biblioteca em C++, acessível durante o processo de ingest, que permita, através de uma análise baseada em funcionalidades de visão computacional, detetar e sinalizar na metadata do sinal, quais as frames que potencialmente apresentam conteúdo explícito. A solução desenvolvida utiliza um conjunto de técnicas do estado da arte adaptadas ao problema a tratar. Nestas incluem-se algoritmos para realizar a segmentação de pele e deteção de objetos em imagens. Por fim é efetuada uma análise critica à solução desenvolvida no âmbito desta dissertação de modo a que em futuros desenvolvimentos esta seja melhorada a nível do consumo de recursos durante a análise e a nível da sua taxa de sucesso.