1000 resultados para algoritmos de confiabilidade


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O processo de reestruturação do setor elétrico deu origem à criação de diferentes estruturas de mercado, tendo como objetivo o aumento da competitividade e eficiência. Atualmente, a comercialização de energia elétrica pode ser realizada com recurso a mercados em bolsa ou através da celebração de contratos bilaterais. Sendo o mercado em bolsa caraterizado por uma forte volatilidade de preços, e considerando a atribuição de incentivos para o crescimento da geração renovável não controlada, revela-se importante analisar o impacto de níveis elevados de energia eólica sobre os preços do mercado diário. Neste contexto, a presente dissertação tem como principais objetivos estudar e implementar os algoritmos de preço marginal único e preço marginal local, normalmente utilizados no mercado em bolsa, bem como dotar o simuladormultiagente MANREM com um módulo para simular os mercados diário e intradiário, e analisar o impacto de níveis elevados de energia eólica sobre os preços do mercado diário. O estudo detalhado de um caso prático e os resultados obtidos com recurso ao simuladormulti-agente permitiram replicar, em computador, o impacto esperado, sendo possível observar uma redução de preços e uma alteração dos compromissos de produção dos produtores convencionais. O estudo contemplou a simulação do mercado diário com recurso aos algoritmos de preço marginal único e preço marginal local, podendo constatar-se que a ferramenta multi-agente constitui um auxiliar importante à tomada de decisão nos mercados de eletricidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O planeamento das redes de distribuição de energia elétrica é considerado de extrema importância para o desenvolvimento de infraestruturas de elevada fiabilidade. A este nível, as empresas elétricas estão a ser confrontadas com objetivos contraditórios de clientes que requerem maior qualidade de serviço e dos que querem preços de energia mais baixos. Para competir neste contexto, é importante que as empresas elétricas estabeleçam um balanço entre os custos de investimento em equipamentos para aumentar a fiabilidade e o nível de fiabilidade alcançado com esse investimento. Este trabalho propõe resolver este problema de planeamento considerando a sua natureza multiobjectivo. Assim, foram desenvolvidos modelos matemáticos para a integração das diversas variáveis minimizadas associadas à fiabilidade, deste problema de otimização multiobjectivo. Nas últimas décadas, a crescente penetração da geração distribuída (GD) tem representado uma série de desafios técnicos para as redes de distribuição que foram concebidas de uma forma tradicional. Assim, propuseram-se modelos para a integração da GD no problema da fiabilidade deste tipo de redes. Neste contexto, também foi proposta uma abordagem para a análise da fiabilidade sob o ponto de vista da redução de gases de efeito de estufa. Neste momento, o problema da fiabilidade começa também a ser abordado quanto às interrupções momentâneas. Assim, considerou-se adicionalmente uma abordagem em que se consideram os sistemas de armazenamento de energia. Para a otimização das várias abordagens desenvolveram-se algoritmos de otimização do tipo evolutivo. Para testar as abordagens e modelos propostos, obtiveram-se resultados a partir de testes realizados sobre uma rede de distribuição real.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Digital Breast Tomosynthesis (DBT) é uma técnica que permite obter imagens mamárias 3D de alta qualidade, que só podem ser obtidas através de métodos de re-construção. Os métodos de reconstrução mais rápidos são os iterativos, sendo no en-tanto computacionalmente exigentes, necessitando de sofrer muitas optimizações. Exis-tem optimizações que usam computação paralela através da implementação em GPUs usando CUDA. Como é sabido, o desenvolvimento de programas eficientes que usam GPUs é ainda uma tarefa demorada, dado que os modelos de programação disponíveis são de baixo nível, e a portabilidade do código para outras arquitecturas não é imedia-ta. É uma mais valia poder criar programas paralelos de forma rápida, com possibili-dade de serem usados em diferentes arquitecturas, sem exigir muitos conhecimentos sobre a arquitectura subjacente e sobre os modelos de programação de baixo nível. Para resolver este problema, propomos a utilização de soluções existentes que reduzam o esforço de paralelização, permitindo a sua portabilidade, garantindo ao mesmo tempo um desempenho aceitável. Para tal, vamos utilizar um framework (FastFlow) com suporte para Algorithmic Skeletons, que tiram partido da programação paralela estruturada, capturando esquemas/padrões recorrentes que são comuns na programação paralela. O trabalho realizado centrou-se na paralelização de uma das fases de reconstru-ção da imagem 3D – geração da matriz de sistema – que é uma das mais demoradas do processo de reconstrução; esse trabalho incluiu um método de ordenação modificado em relação ao existente. Foram realizadas diferentes implementações em CPU e GPU (usando OpenMP, CUDA e FastFlow) o que permitiu comparar estes ambientes de programação em termos de facilidade de desenvolvimento e eficiência da solução. A comparação feita permite concluir que o desempenho das soluções baseadas no FastFlow não é muito diferente das tradicionais o que sugere que ferramentas deste tipo podem simplificar e agilizar a implementação de um algoritmos na área de recons-trução de imagens 3D, mantendo um bom desempenho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tomando-se amostras de 7 espécies de madeiras da Amazônia foram realizados testes para determinar a confiabilidade de três diferentes medidores de umidade do tipo resis-tivo quando utilizados para medir a umidade destas espécies na faixa de 6 a 30%. O teor de umidade real foi determinado paralelamente pelo método de secagem em estufa. Os resultados foram obtidos através do desenvolvimento de regressões lineares, comparando-se a umidade real com a umidade determinada pelos medidores. O trabalho propõe correções de umidade das 7 espécies tropicais estudadas para cada um dos medidores, além de discutir a confiabilidade destes aparelhos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Data Mining surge, hoje em dia, como uma ferramenta importante e crucial para o sucesso de um negócio. O considerável volume de dados que atualmente se encontra disponível, por si só, não traz valor acrescentado. No entanto, as ferramentas de Data Mining, capazes de transformar dados e mais dados em conhecimento, vêm colmatar esta lacuna, constituindo, assim, um trunfo que ninguém quer perder. O presente trabalho foca-se na utilização das técnicas de Data Mining no âmbito da atividade bancária, mais concretamente na sua atividade de telemarketing. Neste trabalho são aplicados catorze algoritmos a uma base de dados proveniente do call center de um banco português, resultante de uma campanha para a angariação de clientes para depósitos a prazo com taxas de juro favoráveis. Os catorze algoritmos aplicados no caso prático deste projeto podem ser agrupados em sete grupos: Árvores de Decisão, Redes Neuronais, Support Vector Machine, Voted Perceptron, métodos Ensemble, aprendizagem Bayesiana e Regressões. De forma a beneficiar, ainda mais, do que a área de Data Mining tem para oferecer, este trabalho incide ainda sobre o redimensionamento da base de dados em questão, através da aplicação de duas estratégias de seleção de atributos: Best First e Genetic Search. Um dos objetivos deste trabalho prende-se com a comparação dos resultados obtidos com os resultados presentes no estudo dos autores Sérgio Moro, Raul Laureano e Paulo Cortez (Sérgio Moro, Laureano, & Cortez, 2011). Adicionalmente, pretende-se identificar as variáveis mais relevantes aquando da identificação do potencial cliente deste produto financeiro. Como principais conclusões, depreende-se que os resultados obtidos são comparáveis com os resultados publicados pelos autores mencionados, sendo os mesmos de qualidade e consistentes. O algoritmo Bagging é o que apresenta melhores resultados e a variável referente à duração da chamada telefónica é a que mais influencia o sucesso de campanhas similares.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Internet conta hoje com mais de 3 mil milhões de utilizadores e esse valor não para de aumentar. Desta forma, proporcionar uma experiência online agradável aos seus utilizadores é cada vez mais importante para as empresas. De modo a tirar partido dos benefícios deste crescimento, as empresas devem ser capazes de identificar os seus clientes-alvo dentro do total de utilizadores; e, subsequentemente, personalizar a sua experiência online. Existem diversas formas de estudar o comportamento online dos utilizadores; no entanto, estas não são ideais e existe uma ampla margem para melhoria. A inovação nesta área pode comportar um grande potencial comercial e até ser disruptiva. Com isto em mente, proponho-me a estudar a possível criacão de um sistema de aprendizagem automática (machine learning) que permita prever informa ações demográficas dos utilizadores estritamente com base no seu comportamento online. Tal sistema poderia constituir uma alternativa às atuais opções, que são mais invasivas; mitigando assim preocupações ao nível da proteção de dados pessoais. No primeiro capítulo (Introdução) explico a motivação para o estudo do comportamento dos utilizadores online por parte de empresas, e descrevo as opções disponíveis atualmente. Apresento também a minha proposta e o contexto em que assenta. O capítulo termina com a identicação de limitações que possam existir a priori. O segundo capítulo (Machine Learning) fornece uma introdução sobre machine learning, com o estudo dos algoritmos que vão ser utilizados e explicando como analisar os resultados. O terceiro capítulo (Implementação) explica a implementação do sistema proposto e descreve o sistema que desenvolvi no decorrer deste estudo, e como integra-lo em sistemas já existentes. No quarto capítulo (Análise e manipulação dos dados), mostro os dados compilados e explico como os recolhi e manipulei para testar a hipótese. No quinto capítulo (Análise de dados e discussão) vemos como e que os dados recolhidos foram usados pelos vários algoritmos para descobrir como se correlacionam com dados dos utilizadores e analiso e discuto os resultados observados. Por fim, o sexto e último capítulo apresenta as conclusões. Dependendo dos resultados, mostro como a hipótese poderia ser melhor testada, ou então discuto os próximos passos para tornar o sistema realidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Relatório de estágio de mestrado em Ensino do 1º e 2º Ciclo do Ensino Básico

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The MAP-i doctoral program of the Universities of Minho, Aveiro and Porto

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este artigo apresenta uma proposta de um modelo de gestão contendo requisitos relacionados com a confiabilidade dos sistemas no ambiente de Computação em Nuvem (CN). A proposta teve como base uma revisão da literatura sobre os problemas, desafios e estudos que estão em curso relacionados com a segurança e confiabilidade de aplicações e Sistemas de Informações (SI) neste ambiente tecnológico. Nesta revisão bibliográfica são abordados os entraves e desafios atualmente existentes na visão de conceituados autores sobre o tema. Estas questões foram abordadas e estruturadas na forma de um modelo, denominado de “Modelo de Confiança para o ambiente de Computação em Nuvem”. Trata-se de uma proposta proativa que tem por objetivo organizar e discutir soluções de gestão para o ambiente de CN com uma maior confiabilidade para a operacionalização das aplicações de SI, tanto por parte dos provedores como também dos seus clientes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado em Engenharia Informática

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação de Mestrado em Engenharia Informática

Relevância:

10.00% 10.00%

Publicador:

Resumo:

PhD thesis in Bioengineering

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tese de Doutoramento Ramo Engenharia Industrial e de Sistemas

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The MAP-i Doctoral Program of the Universities of Minho, Aveiro and Porto

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A análise da produtividade individual de espécies permite descrever o comportamento das mesmas em ecossistemas florestais. O objetivo deste trabalho foi analisar a produtividade de quatro espécies arbóreas em um período de seis anos (2000-2006) em uma área de terra firme na região de Manaus, AM. A produtividade foi estimada indiretamente por meio da utilização de equações alométricas individuais geradas e dados de inventários florestais. Foram selecionadas Pouteria reticulata Eyma (Sapotaceae), Micrandra siphonioides Benth. (Euphorbiaceae), Protium hebetatum Daly (Burseraceae) e Eschweilera wachenheimii Sand (Lecythidaceae) por apresentarem alto índice de valor de importância na área. As equações foram geradas a partir de um arquivo de dados; devido ao reduzido número de indivíduos por espécie foi necessária a utilização de um método não paramétrico, sendo escolhido o "Jackknife". As equações foram aplicadas às árvores das espécies selecionadas localizadas em duas parcelas permanentes com as informações dos inventários florestais dos anos de 2000, 2002, 2004 e 2006. Os resultados mostram indícios de confiabilidade do método, as equações geradas apresentaram altos valores de coeficiente de determinação (R² > 0,93) e baixos valores de erro padrão da estimativa (s y.x < 0,692), evidenciando sua consistência e precisão. As taxas de produtividade foram específicas para cada espécie, entretanto, o padrão de produtividade das espécies E. wachenheimii, P. reticulata e P. hebetatum foram semelhantes, diferindo da M. siphonioides. A maior produtividade se refere à espécie M. siphonioides e a menor à P. hebetatum. A variação da produtividade intra-específica foi superior à variação inter-específica, com P. reticulata apresentando o maior coeficiente de variação.