1000 resultados para Algoritmos de computador


Relevância:

10.00% 10.00%

Publicador:

Resumo:

As cartas topográficas são representações planas, generalizadas e reduzidas à escala, de zonas da superfície terrestre, contendo símbolos e informação textual para a descrição dos objectos. A forma mais comum de as produzir é por intermédio de fotografias aéreas, principalmente pela afinidade entre o conteúdo destas e aquilo que se convencionou representar na carta. O Instituto Geográfico do Exército (IGeoE) é uma entidade produtora de cartografia que provê, com informação geográfica, as Forças Armadas e a comunidade civil. A caracterização do relevo é parte da informação existente na carta, concretizada através das curvas de nível: linhas curvas que representam uma cota pré-definida (convencionado de 10 em 10 m nas cartas à escala 1/25 000), constante em toda a sua extensão. Estas acompanham as formas do terreno e indicam a altitude do nível do solo, independentemente de se cruzarem com outros objectos à superfície terrestre (como edifícios ou arvoredo). A informação do relevo é bastante completa, abrangendo a área de toda a carta. As curvas de nível são, por norma, restituídas, manualmente, por um operador numa estação fotogramétrica, numa tarefa compreensivelmente morosa. Uma das alternativas para a representação do relevo é por intermédio da correlação automática de fotografias aéreas, daí resultando uma nuvem de pontos cotados numa grelha regular, cada um com uma coordenada tridimensional. Alguns desses pontos contêm “ruído”, visto representarem não a cota ao nível do solo, mas a cota de objectos sobre a superfície terrestre. O processo de eliminação desse “ruído”, que permite corrigir a cota do topo do objecto para o solo, designa-se por filtragem. Há diversos processos de filtragem de nuvens de pontos, embora nenhum consiga obter resultados totalmente satisfatórios, apresentando mais ou menos dificuldades em algumas zonas de terreno específicas (zonas urbanizadas ou vegetação baixa, por exemplo). Um dos caminhos apontados para auxiliar a filtragem é a utilização de outros recursos que forneçam mais informação, para além da simples coordenada tridimensional do ponto a corrigir, bem como uma mistura de algoritmos, tentando conciliar os pontos fortes de cada uma destas abordagens. O presente trabalho desenvolveu uma metodologia automática para representar o relevo a partir de uma nuvem de pontos cotados, para ser integrada na cadeia de produção do IGeoE. A partir de uma nuvem de pontos primária, e utilizando como dados de entrada ortofotos e informação vectorial dos objectos da edição anterior e da edição de trabalho da carta (excepto relevo) da mesma região, efectua quatro filtragens: filtragem de edifícios, filtragem de áreas de arvoredo superiores a 150 m x 150 m, filtragem de áreas de arvoredo inferiores a 150 m x 150 m e árvores isoladas (envolvendo a detecção de árvores em ortofotos, ao nível do pixel, por algoritmo de aprendizagem automática), e filtragem por declives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A Retinopatia Diabética (RD) é uma patologia ocular, consequência da Diabetes Mellitus, e que pode levar à perda de visão. Dado que nos primeiros estágios da doença, não ocorre manifestação sintomática, é de máxima importância a existência de programas estruturados de rastreio. Para diminuir a carga laboral que estes programas acarretam, pode-se recorrer à utilização de sistemas de deteção e classificação automática de RD que têm vindo a ser desenvolvidos. No entanto, estes demonstram algumas falhas, sendo que na origem destas pode estar a existência de imagens com qualidade não adequada. De maneira a reduzir as falhas destes sistemas, potenciando a sua utilização em programas de rastreio e automatizando assim todo o processo, foi conduzido este estudo, no qual se teve diretamente em consideração a qualidade das imagens, avaliada também de forma automática, utilizando a sua informação como parâmetro de entrada nos classificadores automáticos de RD. A avaliação automática da qualidade é constituída por 4 classificadores das características desta: Cor, Focagem, Contraste e Iluminação, sendo que a combinação destes dá origem a um último classificador, denominado Qualidade Geral. Desta forma, foi efetuada a fusão destes classificadores com os algoritmos de classificação automática de RD para todas as imagens, numa primeira abordagem, e desconsiderando as imagens marcadas pelo classificador Qualidade Geral como inadequadas, numa última abordagem. Os resultados obtidos mostraram uma melhoria no conjunto dos indicadores sensibilidade e especificidade dos métodos de classificação automática de RD quando se procedeu à combinação destes com a Qualidade Geral. Mostraram ainda uma melhoria mais acentuada quando se usou informação de cada um dos classificadores das características que contribuem para a avaliação da Qualidade, em vez de uma informação única sobre qualidade. A presença de imagens de má qualidade mostrou ser prejudicial para o desempenho dos classificadores automáticos de RD, não tendo tanta influência no classificador resultante da fusão que produziu os melhores resultados do conjunto sensibilidade e especificidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nesta Tese foi desenvolvida uma plataforma online multiutilizador, que tem como objetivo principal comparar algoritmos de análise de imagens para de-terminar o seu grau de eficácia. Um exemplo de aplicação é a comparação de algoritmos de análise de imagens da retina para deteção de drusas. A compa-ração é feita considerando um dos algoritmos como referência padrão e sobre o este são avaliados os restantes. O funcionamento da plataforma é semelhante à de um fórum, onde é possível a um utilizador criar tópicos publicando imagens e seu descritivo. Após a cria-ção do tópico qualquer utilizador pode visualizar o mesmo, dando a hipótese de comentar ou de acrescentar imagens processadas com os seus próprios al-goritmos de análise. Com o aumento de imagens processadas, obtém-se uma base de dados de algoritmos de análise de imagens sobre a qual é possível avaliar o seu grau de eficácia. A plataforma pretende também criar comunidades onde os utilizadores pos-sam interagir uns com os outros comentando sobre os tópicos, contribuindo assim para o melhoramento dos algoritmos. Deste modo, além de uma base de dados que qualquer utilizador pode usar, obtém-se uma fonte de informação disponibilizada por outros profissionais da área.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação foi desenvolvida em ambiente empresarial com a empresa Opensoft. O tema da dissertação está focado no estudo e desenvolvimento de uma solução de acreditação e controlo de acessos de participantes em eventos. Tem como objetivo estender uma plataforma web já existente que permite a criação e gestão de eventos, por parte do organizador, e a inscrição e respetivo pagamento, no caso de existir, por parte dos participantes. Nesta dissertação realizou-se um estudo sobre registos de entradas, acreditação, controlo de acessos e entregáveis onde já existem diversas soluções no mercado. Existem várias soluções que se dedicam a diferentes modelos de eventos, sendo a maioria destas soluções de check-in apenas um registo simples de participantes sem um conceito de acreditação, e sendo a maior parte de carácter móvel. Estudou-se um sistema de gestão de inscrições em eventos e respetivos pagamentos, o Weventual, que tinha algumas desvantagens em relação às soluções existentes. Com vista a melhorar este sistema e promovê-lo como um grande concorrente aos outros sistemas de gestão de eventos, foi apresentada uma proposta de solução composta por duas vertentes, uma pelo uso do portal online para eventos que não têm a capacidade de adquirir dispositivos móveis ou queiram usar sempre a mesma plataforma, e outra pelo uso de uma aplicação móvel de forma a se facilitar a logística da maioria de eventos não sendo necessário de um posto fixo com um computador e diversos dispositivos periféricos associados e até poder ser offline. Neste projeto foi realizado um sistema que permite então a realização de registos de entradas e acreditação durante o decorrer de um evento, podendo este registo funcionar manualmente ou pela utilização de códigos de barras de forma a automatizar e agilizar o processo e ainda com propriedades web design responsive para integrar diversos tipos de dispositivos fixos e móveis. Foi incluída a emissão de recibos/fatura após o pagamento de uma inscrição num evento sendo utilizada uma ligação por web services a um sistema externo, o SIMN. Foi ainda proposta uma funcionalidade de apresentação de resultados sobre os participantes do evento. Esta solução encontra-se validada tendo sido implementada e adicionada ao Portal Weventual.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUMO - A procura de cuidados de saúde constitui-se, desde há alguns anos, como um dos principais pontos de investigação na área da economia da saúde. São vários os estudos nacionais e internacionais publicados no decorrer do século passado, destacando-se o de Ronald Andersen, datado de 1960, que versou a utilização dos serviços de saúde pelas famílias e procurou descrever este fenómeno e os fatores condicionantes, na tentativa de conceber uma ferramenta de apoio ao desenvolvimento de políticas que promovessem a equidade no acesso aos serviços de saúde. Na década de 1970, Grossman, desenvolveu um modelo económico de procura em saúde (que ficou conhecido como Modelo de Grossman), estabelecendo que a procura de cuidados de saúde derivava da procura de saúde pelos indivíduos. A necessidade de caraterizar a procura dos cuidados de saúde, tem sido uma preocupação cada vez mais presente, considerando as restrições orçamentais que os sistemas de saúde atravessam, no contexto atual de restrições e medidas de austeridade. O Serviço Nacional de Saúde, em Portugal Continental, confronta-se, hoje mais do que nunca, com uma forte pressão orçamental, procurando promover a utilização mais racional e eficiente dos recursos disponíveis, o que condiciona todos os agentes que com ele contactam (profissionais de saúde, utentes, fornecedores e outros parceiros sociais). O presente estudo pretende caracterizar a procura e utilização dos cuidados de saúde de emergência pré-hospitalar, em 2010, em Portugal Continental, e contribuir, de uma forma restrita, para o processo de tomada de decisão adequada. A análise incidiu sobre os dados da procura do INEM, traduzida pelas chamadas (ocorrências) e pelas ativações de meios de emergências realizadas pelo CODU (Centros de Orientação de Doentes Urgentes). A via adotada para a prossecução deste estudo exploratório, baseou-se no Modelo Comportamental de Andersen, tendo sido escolhidas as variáveis, que melhor se enquadravam nos fatores predisponentes ou seja, aqueles que predispõem o indivíduo a utilizar os cuidados de saúde (e.g. sexo, idade), nos fatores capacitantes isto é, aqueles que habilitam (e.g. nível literário, instalações e equipamentos) e na necessidade de serviços de saúde (autoavaliada ou resultante da indicação de um profissional de saúde), todos eles definidos no referido modelo. Como variáveis de utilização efetiva dos cuidados de saúde, foram utilizados os dados fornecidos pelo INEM, nomeadamente o número de chamadas efetuadas para os CODU (ocorrências), e meios ativados, em consequência da ocorrência. Metodologicamente, optou-se por fazer uma análise descritiva dos resultados, seguida de análises de correlação e de regressão linear, de modo a aferir quais as variáveis que individualmente mais se correlacionam com a utilização e quais as variáveis (preditores) que melhor possibilitam a previsão da utilização dos cuidados de saúde de emergência pré-hospitalar. Os resultados obtidos na análise de correlação realizada por Concelho evidenciaram coeficientes de correlação, na sua maioria fracos ou moderados, não permitindo concluir de modo inequívoco que as variáveis predisponentes, capacitantes e de necessidade em saúde selecionadas, explicam a utilização dos cuidados de saúde de emergência pré-hospitalar. Foi possível, no entanto, e apesar de não muito marcante, demonstrar a existência de uma certa iniquidade na utilização, já que os fatores capacitantes parecem ser aqueles que melhor explicam a utilização dos cuidados de saúde de emergência pré-hospitalar, no ano de 2010. Quando a informação é agregada ao nível da Região e do CODU, as análises de correlação realizadas permitem constatar a existência de correlações moderadas e fortes entre os fatores que concorrem para a utilização (predisponentes, capacitantes e de necessidades em saúde). Os modelos preditivos determinados com recurso ao cálculo das regressões lineares não evidenciaram um comportamento homogéneo, quer no seu poder preditivo quer nas variáveis preditoras dos modelos. Verificou-se ainda que os modelos determinados tinham uma maior capacidade de predição da utilização de cuidados de emergência pré-hospitalar ao nível da ativação dos meios, do que ao nível do número de chamadas realizadas para os CODU, e que, de entre as ativações, os modelos determinados apresentaram maior capacidade preditiva da utilização de meios de suporte básico de vida, do que da utilização de meios de suporte avançado de vida. Um outro aspeto a ressaltar é a significância que as variáveis número de acidentes rodoviários com vítimas por 1000 habitantes, e número de meios de suporte básico de vida disponíveis por 100.000 habitantes têm nos modelos determinados, aparecendo em praticamente todos os modelos, como preditoras da utilização dos cuidados de saúde de emergência pré-hospitalar. Das análises realizadas ao nível das Regiões e dos CODU, verificou-se uma heterogeneidade nos resultados (influenciada pelas variáveis preditoras, nomeadamente das determinantes da procura – fatores demográficos, socioeconómicos e culturais), que influenciaram a capacidade preditiva dos modelos. Esta heterogeneidade, já havia sido descrita por Andersen, no seu modelo explicativo da utilização de cuidados de saúde. De facto, tal como no modelo teórico, também neste estudo se concluiu que as variáveis que mais contribuem para a predição da utilização são diversas, e variam de Região para Região, consoante a análise que se está a realizar. Fica em aberto a eventual pertinência da replicação do estudo, após a introdução de nova reorganização interna do INEM, nomeadamente com a eliminação da estrutura de 4 CODU passando a existir apenas um CODU nacional, a par da implementação de algoritmos de decisão, que poderão contribuir de forma significativa para a alteração da importância que as variáveis associadas à oferta, atualmente possuem, nos modelos determinados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Alguns jogos têm como objectivo a competição, outros a aprendizagem, uns jogam-se em grupo, outros individualmente. No entanto, todos têm um factor comum, ou seja, a experiência que se retira do momento é única. Seja esta experiência positiva ou negativa vai servir de aprendizagem nem que seja apenas das regras e mecânicas do dispositivo. Os Serious Games simulam situações ou processos do mundo real que são elaborados com o propósito de resolver um problema. Muitas vezes estes sacrificam o divertimento e o entretenimento com o objectivo de alcançar um tipo de progresso desejado para o jogador. Tal como no passado, e tendo em conta o desenvolvimento exponencial da tecnologia, os Serious Games podem agora ter um papel fundamental no desenvolvimento de novas terapias e ferramentas de saúde. É precisamente a olhar para o presente, e com os olhos no futuro dos Serious Games aplicados à saúde, que foi desenvolvida esta investigação. Como complemento, é também apresentado o projecto Typlife. Destinado a jovens com diabetes, é um projecto académico que tem como objectivo o desenvolvimento de uma aplicação para smartphone para o controlo da diabetes, enquanto envolve o utilizador numa experiência interactiva de recompensas pelas boas práticas no dia-a-dia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O paradigma de avaliação do ensino superior foi alterado em 2005 para ter em conta, para além do número de entradas, o número de alunos diplomados. Esta alteração pressiona as instituições académicas a melhorar o desempenho dos alunos. Um fenómeno perceptível ao analisar esse desempenho é que a performance registada não é nem uniforme nem constante ao longo da estadia do aluno no curso. Estas variações não estão a ser consideradas no esforço de melhorar o desempenho académico e surge motivação para detectar os diferentes perfis de desempenho e utilizar esse conhecimento para melhorar a o desempenho das instituições académicas. Este documento descreve o trabalho realizado no sentido de propor uma metodologia para detectar padrões de desempenho académico, num curso do ensino superior. Como ferramenta de análise são usadas técnicas de data mining, mais precisamente algoritmos de agrupamento. O caso de estudo para este trabalho é a população estudantil da licenciatura em Eng. Informática da FCT-UNL. Propõe-se dois modelos para o aluno, que servem de base para a análise. Um modelo analisa os alunos tendo em conta a sua performance num ano lectivo e o segundo analisa os alunos tendo em conta o seu percurso académico pelo curso, desde que entrou até se diplomar, transferir ou desistir. Esta análise é realizada recorrendo aos algoritmos de agrupamento: algoritmo aglomerativo hierárquico, k-means, SOM e SNN, entre outros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação tem como objetivo principal a implementação de uma arquitetura baseada em algoritmos evolutivos para a sintonização dos parâmetros do controlador PID (Proporcional-Integral-Derivativo) difuso, sendo o conceito de desempenho em malha fechada explicitamente tido em conta. A sintonização dos parâmetros do controlador difuso é realizada tendo em conta um problema de otimização com restrições, em que a função de custo a ser minimizada é descrita em termos do desempenho em malha fechada, com a dinâmica do sistema a ser aproximada por um modelo não linear. Como nas metodologias de otimização existentes, a incorporação de mecanismos de adaptação referentes às funções de pertença não é comum, na presente dissertação é tido em conta, para além da usual sintonização dos fatores de escala, a sintonização dos fatores de escala e funções de pertença em simultâneo. Os resultados experimentais realizados num sistema de referência, visam demonstrar os benefícios de incorporar as funções de pertença no processo de otimização em diferido. É também utilizado um método analítico de segunda ordem como referência, por forma a comparar o desempenho de uma abordagem de otimização global contra uma de otimização local. Finalmente é implementada uma abordagem em-linha, usando o método analítico de segunda ordem, na otimização dos fatores de escala e funções de pertença.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O intuito desta dissertação é investigar em que medida a Teoria Moderna do Portfólio pode ser aplicada à selecção de um portfólio de canais ou de tácticas de Marketing Digital, de modo a obter o melhor compromisso entre o retorno esperado do investimento e o respectivo risco. Anteriores aplicações da teoria do portfólio ao Marketing, enquanto meio de racionalizar a selecção do portfólio, concentraram-se no uso deste modelo em decisões relacionadas com portfólios de produtos, de clientes e segmentos de clientes, de formatos de retalho e de promoções de preço. Não se encontraram evidências de que a abordagem proposta neste texto tenha já sido tentada. A evolução tecnológica nas últimas duas décadas trouxe a adopção generalizada de smartphones e tablets e também a revolução da internet, originando a proliferação do e-mail, dos blogs e dos sites de redes sociais. Devido à infinidade de meios para chegar aos consumidores, os marketers enfrentam actualmente grandes desafios no planeamento e na definição das suas estratégias de Marketing. Em resposta, consultoras detêm ferramentas para a análise de portfólios de canais de Marketing que permitem às empresas e aos marketers, em particular, melhorar o desempenho da sua actividade e maximizar o rendimento da sua despesa de Marketing. Contudo, além de dispendiosas e estritamente analíticas, estas ferramentas são muito sofisticadas, baseando-se em algoritmos e raciocínios complexos que nem sempre são evidentes para os marketers, o que dificulta a sua compreensão e consequentemente a sua adopção. Sem uma ferramenta de análise, é frequente os marketers fundamentarem as suas decisões nos resultados das campanhas online anteriores, registados pelas Web Analytics, e na sua experiência profissional. Assim, crê-se que a Teoria Moderna do Portfólio, baseando-se em conceitos estatísticos simples, possa representar para os marketers uma ferramenta útil no apoio à selecção do conjunto de canais ou de tácticas de Marketing Digital que melhor se adequa aos interesses e aos objectivos estratégicos das organizações. A Teoria Moderna do Portfólio tem como principais vantagens a análise e selecção de portfólios com base na sua combinação de retorno esperado e risco de investimento (retorno ajustado ao risco), por oposição a considerar exclusivamente o retorno esperado, e a simplicidade estatística do modelo, por oposição aos softwares das consultoras. O presente estudo fundamentou-se na literatura existente acerca da Teoria Moderna do Portfólio, concebida em 1952 por Harry Markowitz, bem como no conceito de Sharpe Ratio, por William Sharpe, tendo-se revisto também conceitos genéricos de Marketing e Marketing Digital. Dado que a medição do retorno financeiro do investimento em Marketing – central ao estudo – não é tão linear quanto a medição dos retornos de activos financeiros, revelou-se necessário introduzir algumas alterações à teoria do portfólio original. Estas alterações tomaram em consideração as principais conclusões dos estudos anteriores sobre a aplicação do modelo a outras áreas. Para desenvolver o modelo proposto, utilizou-se o Microsoft Excel. Seguidamente, procedeu-se à sua prova de conceito através de uma abordagem empírica, utilizando dados de uma empresa portuguesa de Marketing Digital. Concluiu-se que é possível aplicar a Teoria Moderna do Portfólio à selecção de canais ou tácticas de Marketing Digital de uma empresa, com as devidas adaptações, para determinar as parcelas do orçamento de comunicação de uma organização a alocar a cada tipo de canal ou táctica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A eficiência energética e a domótica são temas que cada vez mais se relacionam. Ao se instalar uma solução de domótica numa habitação, é natural que a mesma ofereça opções que permitem poupar energia, e assim obter eficiência energética. O principal objetivo deste projeto é a criação de um quadro elétrico que permita a monitorização e controlo de energia numa habitação à distância de um “clique”. Para a concepção do quadro elétrico foram utilizados dispositivos da Schneider Electric, dos quais se destaca o EGX300. Este dispositivo, é comercializado como um produto que representa uma solução de eficiência energética. No entanto as suas funcionalidades de fábrica estão limitadas ao nível de análise da qualidade de energia, não oferecendo um sistema que possibilite controlo remoto. Aproveitando as capacidades do EGX300, foi considerado pertinente criar uma solução onde, além de se poder monitorizar os consumos, também fosse possível controlar os dispositivos através de um computador. À capacidade de controlo da instalação ainda se juntou um modo de funcionamento inteligente, onde o EGX300 controla a instalação elétrica de acordo com a energia produzida por um painel fotovoltaico. A implementação de novas funcionalidades no EGX300 resulta num acréscimo significativo de robustez em relação à solução proposta pela empresa. Conseguiu-se criar uma solução que integra segurança e domótica com a utilização de energias renováveis, tendo como consequência natural a maximização de eficiência energética numa habitação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A imagem por tensor difusão (DTI) é uma extensão da imagem por ressonância magnética que permite a caraterização microestrutural dos tecidos, sendo um destes, os músculos esqueléticos. No entanto, dadas as grandes dimensões dos mesmos, a aquisição de volumes DTI deste tipo de tecidos é comumente realizada em mais que uma sessão. A não linearidade dos gradientes de codificação espacial e a presença de magnetizações parasitas levam a que ocorram distorções que impossibilitam, quando unidos, a continuação de volumes na sua transição. No mercado já existem sotwares que permitem estas correções, no entanto, o seu objetivo tem como fim estudos populacionais aplicados na neurologia, não estando preparados para o alinhamento e união de volumes contíguos. Ao recorrer a algoritmos aplicados nestes softwares, com a devida preparação, é possível garantir a continuidade de volumes. Um desses algoritmos, demons, foi aplicado em pontos de sobreposição de imagens de volumes contíguos. A transformada resultante deste algoritmo foi aplicado ao volume considerado a transformar e unido ao volume de referência. Mostra-se ser possível a aplicação destes algoritmos para a continuação de volumes, sendo observada a preservação da coerência anatómica das fibras quando comparadas aos grupos de controlo. Numa versão futura, recomenda-se a utilização de algoritmos mais robustos, que tomam partido da informação direcional que a imagem por tensor de difusão fornece.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pretende-se estudar a utilização de um método analítico relativamente básico para cál-culo de deformações em treliças com vãos consideravelmente longos, com o intuito de ajudar o projetista a conceber um futuro projeto antes de conhecer a geometria da estrutura reticulada as-sim como as áreas de secção transversal dos elementos que a compõe. Numa primeira fase é avaliado o grau de aproximação à realidade do método analítico, e numa segunda fase é avaliado o ganho que pode ser obtido por utilização de métodos numéricos, podendo esta dissertação ser dividida em duas partes:  Uma análise estrutural comparativa entre um método analítico aproximado para o cálculo de deformações em treliças e um método numérico obtido a partir de um programa for-mulado para se usar em MATLAB, o PROAES, com o objetivo de avaliar a sua aderência à realidade;  Otimização dessas estruturas, primeiro de topologia para definir quais os elementos que serão necessários para a composição geométrica da treliça e em seguida uma combinação de otimização dimensional com otimização de forma para definir o valor das áreas de secção transversal de cada um dos elementos e a posição dos nós que os unem. Pretende-se também salientar a importância da carga crítica em estruturas do tipo tre-liça, nos elementos sujeitos a esforços normais de compressão, e qual a influência na geometria da estrutura e nas suas dimensões. O programa PROAES torna-se vantajoso face a outros algoritmos de otimização porque tem em conta as derivadas dos constrangimentos em ordem às variáveis consideradas no projeto, o que para além de acelerar o processo de otimização a nível informático, torna-se mais focado na procura de uma solução, na medida em que é um método determinístico e não aleatório, como é o caso, por exemplo, do método dos algoritmos genéticos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A espectroscopia de fotoelectrões de raios-X (XPS - X-ray Photoelectron Spectroscopy)é uma das técnicas de análise de superfícies mais importantes e mais usadas em diversasáreas científico-tecnológicas e industriais. Com ela é possível determinar quantitativa equalitativamente a composição elementar e a composição química aproximada, respectivamente,e estrutura electrónica dos elementos presentes para diferentes tipos de materiais. O laboratório de ciência de superfícies do Departamento de Física da FCT-UNL encontra-se equipado com um sistema de ultra-alto vácuo Kratos XSAM 800 contendo a instrumentação necessária para se realizar XPS. No entanto, o equipamento precisava de uma requalificação. O controlo e aquisição de dados do espectrómetro era feito por um computador PDP11 de 16-bits que actualmente não é comercializado e não tem qualquer suporte técnico por parte do fabricante. Foi substituído por um computador moderno e por uma placa genérica de aquisição de dados. Para que a análise quantitativa pela técnica de XPS seja precisa, é necesssário fazer a caracterização do sistema. Isso implica o conhecimento de parâmetros como a função de transmissão do espectrómetro e a linearidade da resposta do sistema de detecção. Foi feito um estudo da linearidade da resposta do sistema de detecção e determinou-se experimentalmente a função de transmissão do espectrómetro. Os resultados obtidos para a função de transmissão mostraram estar qualitativamente de acordo com os resultados obtidos por outros na literatura. A transmissão da coluna óptica do analisador de energia de electrões foi posteriormente submetida a um processo de optimização, através da implementação de um algoritmo evolutivo diferencial para optimização de funções, recorrendo a linguagem de programação gráfica LabVIEWTM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A investigação realizada integra-se num estudo no âmbito das redes neuronais artificiais (RNA), previamente iniciado em diferentes ETAR do Grupo Águas de Portugal. O trabalho executado centrou-se em dois casos de estudo diferentes, um localizado na ETAR do Seixal e outro situado na ETAR de Sesimbra. O principal alvo da investigação efetuada na ETAR do Seixal foi gerar RNA com capacidade de prever valores de condutividade existentes no caudal total afluente à ETAR, de modo a adicionar este parâmetro a um conjunto de variáveis pré-existente e estudar a sua influência no processo de digestão anaeróbia. Na ETAR de Sesimbra o foco do estudo foi a criação de um conjunto de variáveis afeto ao mesmo processo de tratamento e com base no potencial de aprendizagem das RNA, estimar valores de biogás gerado. Concluída a investigação em cada ETAR, criou-se um modelo comum aos dois casos de estudo com o objetivo de prever valores de biogás gerado. As RNA foram produzidas com recurso a um programa de computador denominado NeuralTools®. As séries de dados das diferentes variáveis constituíam a base de informação das RNA e a sua construção e preparação foi um aspeto fundamental no trabalho realizado. A análise estatística foi o principal suporte do tratamento de dados efetuado em ambos os casos de estudo. Foram produzidas bastantes RNA e em diferentes condições, de forma a gerar os melhores resultados possíveis. Na investigação concretizada na ETAR do Seixal não se produziram bons resultados, por insuficiência do conhecimento da relação entre o funcionamento do processo de digestão anaeróbia e os valores de condutividade registados. Na ETAR de Sesimbra, a melhor RNA foi produzida com base nas séries de dados que evidenciaram um maior coeficiente de correlação com a série de dados de caudal de biogás. Os resultados gerados na ETAR de Sesimbra foram satisfatórios, tal como também foram os resultados dos testes realizados com o modelo global. O principal obstáculo na produção de melhores resultados advém da elevada variabilidade de valores existente nas séries de dados relacionadas com o funcionamento do processo de digestão anaeróbia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O planeamento das redes de distribuição de energia elétrica é considerado de extrema importância para o desenvolvimento de infraestruturas de elevada fiabilidade. A este nível, as empresas elétricas estão a ser confrontadas com objetivos contraditórios de clientes que requerem maior qualidade de serviço e dos que querem preços de energia mais baixos. Para competir neste contexto, é importante que as empresas elétricas estabeleçam um balanço entre os custos de investimento em equipamentos para aumentar a fiabilidade e o nível de fiabilidade alcançado com esse investimento. Este trabalho propõe resolver este problema de planeamento considerando a sua natureza multiobjectivo. Assim, foram desenvolvidos modelos matemáticos para a integração das diversas variáveis minimizadas associadas à fiabilidade, deste problema de otimização multiobjectivo. Nas últimas décadas, a crescente penetração da geração distribuída (GD) tem representado uma série de desafios técnicos para as redes de distribuição que foram concebidas de uma forma tradicional. Assim, propuseram-se modelos para a integração da GD no problema da fiabilidade deste tipo de redes. Neste contexto, também foi proposta uma abordagem para a análise da fiabilidade sob o ponto de vista da redução de gases de efeito de estufa. Neste momento, o problema da fiabilidade começa também a ser abordado quanto às interrupções momentâneas. Assim, considerou-se adicionalmente uma abordagem em que se consideram os sistemas de armazenamento de energia. Para a otimização das várias abordagens desenvolveram-se algoritmos de otimização do tipo evolutivo. Para testar as abordagens e modelos propostos, obtiveram-se resultados a partir de testes realizados sobre uma rede de distribuição real.