999 resultados para Geração automática de hardware


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação de Mestrado em Gestão do Território na Área de Especialização de Planeamento e Ordenamento do Território

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tese de doutoramento em Linguística, especialidade de Lexicologia - Terminologia

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sistemas de gestão documental e de recuperação de informação são hoje ferramentas essenciais para aceder aos grandes volumes de informação disponíveis. O exemplo mais popular deste cenário é o motor de pesquisa Google, que se estimava possuir cerca de 45 milhares de milhões de páginas Web, em Março de 2013 [14]. Uma vez que a maioria das pessoas, apenas consultam os primeiros dez resultados duma pesquisa, torna-se crucial conseguir uma boa ordenação das respostas, de forma a permitir que o utilizador veja os resultados contendo informação diversificada, de acordo com as suas preferências e indo ao encontro daquilo que escreveu na pesquisa. Além do objetivo de ordenação segundo a query escrita pelo utilizador, também foi tido como objetivo a remoção de documentos similares do topo dos resultados das pesquisas. Nesta tese, pretendemos investigar o uso de algoritmos de aprendizagem de ordenação de resultados, por forma a aumentar a qualidade dos resultados de topo das pesquisas e analisar algumas maneiras para aumentar a diversidade de informação no topo dos resultados das pesquisas. Uma aplicação foi desenvolvida no contexto desta tese e foi aplicada a um sistema de pesquisa que foi desenvolvido em contexto empresarial com a Quidgest S.A, sendo que posteriormente irá ser integrada numa plataforma de desenvolvimento rápido de aplicações.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho apresenta-se uma metodologia protótipo destinada a efectuar a modelação automática a 2D da morfologia de mineralizações filonianas. Em primeiro lugar procede-se à estimação do número de ocorrências de filões em cada bloco, de uma malha de blocos, em que se subdividiu o volume em estudo. Esta intensidade de ocorrências é quantificada por uma variável que representa o número de filões por metro linear(NFM) intersectados por uma sondagem vertical, e constitui o objectivo de intensidade a atingir. Seguidamente são gerados por simulação, linhas poligonais ou arcos correspondentes ao posicionamento dos filões no perfil. Estes arcos ligam alguns pares de intersecções de filões amostrados nas sondagens e são escolhidos ao acaso segundo regras de orientação e distância. Seguidamente faz-se a avaliação da intensidade local de filões do modelo e, para os locais onde exista défice de filões relativamente ao objectivo, são adicionadas intersecções virtuais, ou seja, que não foram reconhecidas por sondagens. Este procedimento continua até o modelo dos filões se aproximar do objectivo previamente definido. O conjunto dos arcos em cada perfil, associado às espessuras de intersecção observadas nas sondagens, constitui um modelo morfológico dos filões em estrutura vectorial. No final faz-se a avaliação quantitativa do modelo e da incerteza. Os dados do estudo prático que motivaram o desenvolvimento da metodologia foram recolhidos no depósito mineral das Minas da Panasqueira. Os resultados obtidos no estudo mostram que a introdução de uma metodologia automática para a modelação vectorial de filões mineralizados é uma mais-valia, porque permite gerar modelos mais realistas e com melhor controlo geológico e resolução do que as abordagens clássicas de possança e acumulação, constituindo um auxiliar precioso de avaliação de reservas de minério.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ficheiros em falta: anexo 4,5,6 só legíveis presencialmente

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Na cadeia de produção de cartografia digital, que se encontra implementada no IGeoE, existe a necessidade de efetuar a restituição de objetos através da vetorização 3D. Sendo este processo completamente manual, o operador identifica e adquire os objetos, em ambiente estereoscópico, segundo as regras estabelecidas nas normas de aquisição. A aquisição de construções, nomeadamente os edifícios, são dos objetos que mais recursos consomem devido à sua frequência e dificuldade de restituição. A possibilidade de simplificar esta parte do processo proporciona um beneficio substancial para toda a cadeia de produção. Pretende-se assim detetar edifícios em fotografias aéreas, extraindo a sua informação planimétrica e altimétrica, para posterior inserção num SIG. Para a obtenção da altimetria são utilizados os princípios de fotogrametria analítica através das equações de colinearidade. Este problema torna-se relevante devido ao facto de se pretender retirar informação de fotografias, que possuem bastante informação, com recurso à computação gráfica, através de técnicas de segmentação em vários níveis e fotogrametria, juntando assim duas áreas do saber. Esta solução permite automatizar um processo que é predominantemente manual, contribuindo para melhorar a cadeia de produção sem a alteração de funcionamento da mesma.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O processo de reestruturação do setor elétrico deu origem à criação de diferentes estruturas de mercado, tendo como objetivo o aumento da competitividade e eficiência. Atualmente, a comercialização de energia elétrica pode ser realizada com recurso a mercados em bolsa ou através da celebração de contratos bilaterais. Sendo o mercado em bolsa caraterizado por uma forte volatilidade de preços, e considerando a atribuição de incentivos para o crescimento da geração renovável não controlada, revela-se importante analisar o impacto de níveis elevados de energia eólica sobre os preços do mercado diário. Neste contexto, a presente dissertação tem como principais objetivos estudar e implementar os algoritmos de preço marginal único e preço marginal local, normalmente utilizados no mercado em bolsa, bem como dotar o simuladormultiagente MANREM com um módulo para simular os mercados diário e intradiário, e analisar o impacto de níveis elevados de energia eólica sobre os preços do mercado diário. O estudo detalhado de um caso prático e os resultados obtidos com recurso ao simuladormulti-agente permitiram replicar, em computador, o impacto esperado, sendo possível observar uma redução de preços e uma alteração dos compromissos de produção dos produtores convencionais. O estudo contemplou a simulação do mercado diário com recurso aos algoritmos de preço marginal único e preço marginal local, podendo constatar-se que a ferramenta multi-agente constitui um auxiliar importante à tomada de decisão nos mercados de eletricidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O planeamento das redes de distribuição de energia elétrica é considerado de extrema importância para o desenvolvimento de infraestruturas de elevada fiabilidade. A este nível, as empresas elétricas estão a ser confrontadas com objetivos contraditórios de clientes que requerem maior qualidade de serviço e dos que querem preços de energia mais baixos. Para competir neste contexto, é importante que as empresas elétricas estabeleçam um balanço entre os custos de investimento em equipamentos para aumentar a fiabilidade e o nível de fiabilidade alcançado com esse investimento. Este trabalho propõe resolver este problema de planeamento considerando a sua natureza multiobjectivo. Assim, foram desenvolvidos modelos matemáticos para a integração das diversas variáveis minimizadas associadas à fiabilidade, deste problema de otimização multiobjectivo. Nas últimas décadas, a crescente penetração da geração distribuída (GD) tem representado uma série de desafios técnicos para as redes de distribuição que foram concebidas de uma forma tradicional. Assim, propuseram-se modelos para a integração da GD no problema da fiabilidade deste tipo de redes. Neste contexto, também foi proposta uma abordagem para a análise da fiabilidade sob o ponto de vista da redução de gases de efeito de estufa. Neste momento, o problema da fiabilidade começa também a ser abordado quanto às interrupções momentâneas. Assim, considerou-se adicionalmente uma abordagem em que se consideram os sistemas de armazenamento de energia. Para a otimização das várias abordagens desenvolveram-se algoritmos de otimização do tipo evolutivo. Para testar as abordagens e modelos propostos, obtiveram-se resultados a partir de testes realizados sobre uma rede de distribuição real.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A procura crescente de energia ao longo do tempo, e também o seu custo, tem estimulado a procura de novas formas de geração ou aproveitamento energético, donde se pode destacar a geração de energia eléctrica para autoconsumo. À semelhança de já muitos países aderentes aos sistemas de autoconsumo, Portugal também já tem legislação que permite a utilização deste tipo de sistemas através de Unidades de Produção para Autoconsumo (UPAC). Este tipo de sistemas trazem consigo vantagens tanto para o produtor, que produz a sua própria energia e assim poderá ter algum retorno financeiro, como também para a rede eléctrica nacional (RESP) que, mercê da disponibilidade de mais fontes de energia, tem a possibilidade de ficar menos sobrecarregada em períodos de ponta. Com o intuito de aproveitar ao máximo a energia produzida para autoconsumo e evitar estar a utilizar energia da rede em períodos em que a energia produzida não consegue dar resposta à procura, este trabalho propõe-se a optimizar os níveis de autoconsumo destes sistemas, que no geral apresentam valores entre os 20% e 40% anuais no sector residencial. Deste modo, e de acordo com o que é definido por Demand-Side Management (DSM) será desenvolvido neste trabalho de dissertação um projecto deste tipo, que consiste na monitorização e gestão da energia produzida numa habitação ou indústria. O desenvolvimento deste projecto assenta na criação de um sistema de autoconsumo, constituído por um painel fotovoltaico, sensores, actuadores e uma carga, assim como hardware que permitirá monitorizar, de forma remota, as condições de funcionamento do sistema e fazer a gestão de energia do mesmo, de forma remota, recorrendo para isso às tecnologias de Informação e Comunicação. As aplicações de software responsáveis por essa gestão serão desenvolvidas com recurso à linguagem JAVA e Arduino Programming Language. Será utilizado um módulo Wi-Fi que permitirá a troca de dados entre Cliente (Arduino UNO com Microchip RN-171-XV) e Servidor (Aplicação em JAVA presente num computador). No final serão analisados os levantamentos de energia produzida e avaliado se o controlo de cargas é feito consoante as melhores condições de aproveitamento da energia produzida.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Data Mining surge, hoje em dia, como uma ferramenta importante e crucial para o sucesso de um negócio. O considerável volume de dados que atualmente se encontra disponível, por si só, não traz valor acrescentado. No entanto, as ferramentas de Data Mining, capazes de transformar dados e mais dados em conhecimento, vêm colmatar esta lacuna, constituindo, assim, um trunfo que ninguém quer perder. O presente trabalho foca-se na utilização das técnicas de Data Mining no âmbito da atividade bancária, mais concretamente na sua atividade de telemarketing. Neste trabalho são aplicados catorze algoritmos a uma base de dados proveniente do call center de um banco português, resultante de uma campanha para a angariação de clientes para depósitos a prazo com taxas de juro favoráveis. Os catorze algoritmos aplicados no caso prático deste projeto podem ser agrupados em sete grupos: Árvores de Decisão, Redes Neuronais, Support Vector Machine, Voted Perceptron, métodos Ensemble, aprendizagem Bayesiana e Regressões. De forma a beneficiar, ainda mais, do que a área de Data Mining tem para oferecer, este trabalho incide ainda sobre o redimensionamento da base de dados em questão, através da aplicação de duas estratégias de seleção de atributos: Best First e Genetic Search. Um dos objetivos deste trabalho prende-se com a comparação dos resultados obtidos com os resultados presentes no estudo dos autores Sérgio Moro, Raul Laureano e Paulo Cortez (Sérgio Moro, Laureano, & Cortez, 2011). Adicionalmente, pretende-se identificar as variáveis mais relevantes aquando da identificação do potencial cliente deste produto financeiro. Como principais conclusões, depreende-se que os resultados obtidos são comparáveis com os resultados publicados pelos autores mencionados, sendo os mesmos de qualidade e consistentes. O algoritmo Bagging é o que apresenta melhores resultados e a variável referente à duração da chamada telefónica é a que mais influencia o sucesso de campanhas similares.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A estrutura temporal das taxas de juro, também conhecida por yield curve ou curva de rendimentos define a relação entre as taxas de juros e o prazo de vencimento (ou maturidades) dos investimentos feitos. Assim, o desenvolvimento de modelos que possibilitem a obtenção de previsões precisas sobre a estrutura temporal das taxas de juro e que permitam estudar a dinâmica da evolução das taxas de juro é de crucial importância em diversas áreas de financiamento. Neste estudo investigou-se a performance de diferentes métodos de previsão para obter a estrutura temporal das taxas de juro da Zona Euro, considerando o período entre 2009 e 2015. Em termos mais específicos, foi analisada a capacidade preditiva do modelo de Nelson-Siegel & Svensson assumindo que os parâmetros resultantes da estimação da especificação paramétrica podem ser modelizados através de métodos de séries temporais univariados (modelos ARIMA, Random walk) e multivariados (modelos VAR) e Redes Neuronais Artificiais (RNA) individuais e conjuntas. Os resultados deste estudo mostram que (i) as RNA com a previsão dos parâmetros em simultâneo exibem os valores de erro mais baixos para as maturidades de curto e médio prazo (3 meses a 5 anos); (ii) As RNAs individuais são melhores para prever as taxas de juro nas maturidades compreendidas entre os 7 e os 10 anos, e que (iii) para as maturidades de longo e muito longo prazo (15 e 30 anos respetivamente) deverá ser escolhido o modelo VAR(1). Estes resultados são robustos e consistentes para todos os horizontes de previsão analisados (1,2 e 3 meses). Contudo, no período analisado nenhum dos modelos testados apresenta valores de erro inferiores aos obtidos com o modelo Random Walk.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Definido um enredo concreto, há, frequentemente, uma grande quantidade e variedade de exercícios que sobre ele podemos escrever. Neste artigo, apresenta-se um algoritmo que permite automatizar este processo. Para gerar exercícios matemáticos, parte-se das relações entre as variáveis presentes no enredo, calcula-se os possíveis exercícios, analisa-se a complexidade do seu processo de resolução e a sua viabilidade. O algoritmo recorre a bases de Gröbner para determinar se o exercício é resolúvel e um possível caminho de resolução. Com base na análise dos resultados obtidos, torna-se possível criar uma base de exercícios ligada a esse enredo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação de mestrado em Engenharia Mecânica

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação de mestrado integrado em Engenharia Electrónica Industrial e Computadores

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dissertação de mestrado integrado em Engenharia Eletrónica Industrial e Computadores