1000 resultados para Sistemas de computação
Resumo:
Esta tese de dissertação tem como principal objetivo a implementação de controladores fracionários utilizando diapositivos analógicos FPAA (Field Programable Analog Array). Embora estes dispositivos já não sejam um tecnologia recente, não tiveram grande aceitação comercial, daí não ter sido grande a sua evolução nesta última década. Mas para a elaboração de alguns circuitos analógicos, nomeadamente filtros, amplificadores e mesmo controladores PID (Proporcional-Integrativo-Derivativo) analógicos torna-se numa ferramenta que pode facilitar o projeto e implementação. Para a realização deste estudo, utilizou-se a placa de desenvolvimento da Anadigm AN231K04-DVLP3 juntamente com o software disponibilizado pela mesma empresa, o AnadigmDesigner2. Para a simulação e observação dos resultados foi utilizada a DAQ (Data Acquisition) Hilink da Zelton juntamente com o software Matlab. De forma a testar a implementação dos controladores fracionários nas FPAA foram realizados alguns circuitos no software e enviados para a FPAA comparando os resultados obtidos na simulação com os visualizados no osciloscópio. Por último foi projetado um controlador PIlDm recorrendo aos métodos de aproximação inteira descritos neste documento implementados na FPAA recorrendo ao uso de filtros de primeira e segunda ordem.
Resumo:
Atualmente, as Tecnologias de Informação (TI) são cada vez mais vitais dentro das organizações. As TI são o motor de suporte do negócio. Para grande parte das organizações, o funcionamento e desenvolvimento das TI têm como base infraestruturas dedicadas (internas ou externas) denominadas por Centro de Dados (CD). Nestas infraestruturas estão concentrados os equipamentos de processamento e armazenamento de dados de uma organização, por isso, são e serão cada vez mais desafiadas relativamente a diversos fatores tais como a escalabilidade, disponibilidade, tolerância à falha, desempenho, recursos disponíveis ou disponibilizados, segurança, eficiência energética e inevitavelmente os custos associados. Com o aparecimento das tecnologias baseadas em computação em nuvem e virtualização, abrese todo um leque de novas formas de endereçar os desafios anteriormente descritos. Perante este novo paradigma, surgem novas oportunidades de consolidação dos CD que podem representar novos desafios para os gestores de CD. Por isso, é no mínimo irrealista para as organizações simplesmente eliminarem os CD ou transforma-los segundo os mais altos padrões de qualidade. As organizações devem otimizar os seus CD, contudo um projeto eficiente desta natureza, com capacidade para suportar as necessidades impostas pelo mercado, necessidades dos negócios e a velocidade da evolução tecnológica, exigem soluções complexas e dispendiosas tanto para a sua implementação como a sua gestão. É neste âmbito que surge o presente trabalho. Com o objetivo de estudar os CD inicia-se um estudo sobre esta temática, onde é detalhado o seu conceito, evolução histórica, a sua topologia, arquitetura e normas existentes que regem os mesmos. Posteriormente o estudo detalha algumas das principais tendências condicionadoras do futuro dos CD. Explorando o conhecimento teórico resultante do estudo anterior, desenvolve-se uma metodologia de avaliação dos CD baseado em critérios de decisão. O estudo culmina com uma análise sobre uma nova solução tecnológica e a avaliação de três possíveis cenários de implementação: a primeira baseada na manutenção do atual CD; a segunda baseada na implementação da nova solução em outro CD em regime de hosting externo; e finalmente a terceira baseada numa implementação em regime de IaaS.
Resumo:
Dissertação para obtenção do Grau de Mestre em Mestrado Integrado em Engenharia Mecânica
Resumo:
No presente trabalho apresentam-se estudos desenvolvidos com o objetivo de análise, conceção e dimensionamento de sistemas de escoramentos metálicos modulares e reaproveitáveis a usar como alternativa técnica e económica em estruturas de contenção periférica. O sistema concebido aplicouse a um caso concreto de uma escavação urbana executada no centro de Luanda, Angola. O projeto começou a ser estudado tendo em conta os estudos geológicos e geotécnicos do terreno em causa, e posteriormente foi estudada a solução construtiva elaborada. Feito o estudo sobre a obra que se realizou com uma parede moldada e ancoragens pré-esforçadas, foi possível, a partir dai, elaborar estudos com outro tipo de sistemas de apoio. Assim, realizaram-se estudos para sistemas de apoio com escoramento linear; colunas metálicas e por uma treliça. Posteriormente, de forma a completar, complementar e poder comparar toda a pesquisa, foram efetuados mais quatro estudos, sendo os sistemas de apoio constituídos por colunas metálicas e/ou tubos circulares ou retangulares em forma elíptica no terreno do projeto e num terreno em forma de quadrado perfeito. Através dos vários estudos foi possível comparar os resultados e perceber qual será a melhor forma de otimização para futuras obras. Foi gerado um método de escoramento, que é possível ser utilizado tendo em conta as particularidades de cada obra, constituído por perfis metálicos com dimensões standard formando elipses ou círculos, conforme a forma do terreno. De maneira a finalizar este projeto foram estudados vários tipos de ligações, quer entre perfis, quer para os perfis e a parede, como também os perfis e os apoios verticais, caso sejam necessários. Como conclusão, e de forma expedita foi analisado o custo direto que apenas abrange a quantidade de aço utilizada para cada tipo de apoio dimensionado, comparando a escavação do projeto em causa com a escavação quadrada.
Resumo:
Nos últimos anos, tem-se assistido a uma maior preocupação com o meio ambiente, a atual conjuntura mundial está cada vez mais direcionada para a eficiência energética e para a utilização de fontes de energias renováveis. Os principais governos mundiais, incluindo o português, já perceberam a necessidade de enveredar por esse caminho e nesse sentido aplicam medidas que direcionam e consciencializam a população para a eficiência energética e para as energias renováveis. Em Portugal, o setor das energias renováveis assume atualmente uma posição de extrema importância, resultante da expressão que governo português tem vindo a implementar no panorama energético nacional, da qual resulta uma importante contribuição para o desenvolvimento económico, na criação de riqueza e geração de emprego. Neste contexto, e no caso particular da energia fotovoltaica têm sido implementadas medidas que incentivam a aposta nesta tecnologia, prova disso é o Decreto-Lei n.º 153/2014 aprovado em conselho de ministros em Setembro de 2014, que promove essencialmente o autoconsumo. O autoconsumo consiste na utilização de painéis fotovoltaicos para produção de energia elétrica para consumo próprio com ou sem recurso a equipamentos de acumulação. Em termos práticos, este sistema permite que os consumidores produzam a sua própria energia através de uma fonte renovável ao invés de adquirir essa energia na rede elétrica de serviço público. As políticas de incentivo ao autoconsumo proporcionam uma oportunidade para os consumidores interessados em investir na produção da própria energia elétrica, neste sentido e de forma a ajudar no dimensionamento de unidades de produção de autoconsumo foi desenvolvida, no âmbito desta tese, uma ferramenta de apoio ao dimensionamento de sistemas de autoconsumo fotovoltaico sem acumulação em ambiente doméstico, com o objetivo de estimar as necessidades de potência fotovoltaica a instalar em habitações de baixa tensão normal. Na base da construção desta ferramenta estiveram essencialmente os perfis de consumo, aprovados pela Entidade Reguladora dos Serviços Energéticos, de todos os clientes finais que não dispõem de equipamento de medição com registo de consumos e também a estimativa de produção fotovoltaica desenvolvida pelo Centro Comum de Investigação da Comissão Europeia. A aplicação desenvolvida tem como principal funcionalidade proporcionar ao utilizador o dimensionamento de unidades de produção de autoconsumo fotovoltaico, mediante a introdução de alguns dados tais como o distrito, a potência contratada, a tarifa e o consumo energético anual. Esta aplicação apresenta resultados relativos ao dimensionamento do sistema, como é o caso da potência a instalar e da estimativa de produção fotovoltaica anual, e resultados relativos à análise económica do sistema como é o caso do valor atual líquido, da taxa interna de rentabilidade e do payback do investimento.
Resumo:
Computação gráfica um campo que tem vindo a crescer bastante nos últimos anos, desde áreas como cinematográficas, dos videojogos, da animação, o avanço tem sido tão grande que a semelhança com a realidade é cada vez maior. Praticamente hoje em dia todos os filmes têm efeitos gerados através de computação gráfica, até simples anúncios de televisão para não falar do realismo dos videojogos de hoje. Este estudo tem como objectivo mostrar duas alternativas no mundo da computação gráfica, como tal, vão ser usados dois programas, Blender e Unreal Engine. O cenário em questão será todo modelado de raiz e será o mesmo nos dois programas. Serão feitos vários renders ao cenário, em ambos os programas usando diferentes materiais, diferentes tipos de iluminação, em tempo real e não de forma a mostrar as várias alternativas possíveis.
Resumo:
Os Sistemas de Apoio à Tomada de Decisão em Grupo (SADG) surgiram com o objetivo de apoiar um conjunto de decisores no processo de tomada de decisão. Uma das abordagens mais comuns na literatura para a implementação dos SADG é a utilização de Sistemas Multi-Agente (SMA). Os SMA permitem refletir com maior transparência o contexto real, tanto na representação que cada agente faz do decisor que representa como no formato de comunicação utilizado. Com o crescimento das organizações, atualmente vive-se uma viragem no conceito de tomada de decisão. Cada vez mais, devido a questões como: o estilo de vida, os mercados globais e o tipo de tecnologias disponíveis, faz sentido falar de decisão ubíqua. Isto significa que o decisor deverá poder utilizar o sistema a partir de qualquer local, a qualquer altura e através dos mais variados tipos de dispositivos eletrónicos tais como tablets, smartphones, etc. Neste trabalho é proposto um novo modelo de argumentação, adaptado ao contexto da tomada de decisão ubíqua para ser utilizado por um SMA na resolução de problemas multi-critério. É assumido que cada agente poderá utilizar um estilo de comportamento que afeta o modo como esse agente interage com outros agentes em situações de conflito. Sendo assim, pretende-se estudar o impacto da utilização de estilos de comportamento ao longo do processo da tomada de decisão e perceber se os agentes modelados com estilos de comportamento conseguem atingir o consenso mais facilmente quando comparados com agentes que não apresentam nenhum estilo de comportamento. Pretende-se ainda estudar se o número de argumentos trocados entre os agentes é proporcional ao nível de consenso final após o processo de tomada de decisão. De forma a poder estudar as hipóteses de investigação desenvolveu-se um protótipo de um SADG, utilizando um SMA. Desenvolveu-se ainda uma framework de argumentação que foi adaptada ao protótipo desenvolvido. Os resultados obtidos permitiram validar as hipóteses definidas neste trabalho tendo-se concluído que os agentes modelados com estilos de comportamento conseguem na maioria das vezes atingir um consenso mais facilmente comparado com agentes que não apresentam nenhum estilo de comportamento e que o número de argumentos trocados entre os agentes durante o processo de tomada de decisão não é proporcional ao nível de consenso final.
Resumo:
Dissertação apresentada como requisito parcial para obtenção do grau de Mestre em Ciência e Sistemas de Informação Geográfica.
Resumo:
Este trabalho foi realizado com o apoio, e em colaboração da empresa Flexcrane, que constrói e comercializa soluções flexíveis de pontes rolantes para cargas ligeiras. Com cargas máximas de 2 toneladas estas pontes e seus caminhos de rolamento são construídas essencialmente enformados a frio. O objetivo deste trabalho é a verificação numérica e experimental das cargas que este tipo de estrutura suporta, nas suas diferentes configurações. Numa aproximação por engenharia inversa, com a realização deste trabalho, foi possível determinar a carga admissível das vigas compostas utilizadas, assim como o seu comportamento quando em carga. Para obtenção destes resultados foram realizadas simulações computacionais recorrendo ao método de elementos finitos, utilizando para isso o software Ansys Workbench e ainda ensaios experimentais que permitiram validar os resultados obtidos numericamente e consolidar o conhecimento sobre o comportamento desta solução comercial. Por ser de construção modular, são possíveis diferentes combinações para o produto final, por esta razão foram estudados numericamente diferentes configurações possíveis, com e sem reforços. Foi realizada a validação experimental para a configuração mais usual, fazendo recurso a um dispositivo para ensaio de estruturas e componentes, pertencente ao Isep. Foi ainda utilizada a técnica extensométrica para avaliar as tensões em pontos selecionados e compara-los com os obtidos numericamente. Concluiu-se pelo ótimo desempenho dos produtos Flexcrane.
Resumo:
A indústria de componentes para automóveis necessita de constante inovação, no sentido de manter a elevada competitividade, imprescindível à sobrevivência de qualquer empresa neste sector. A automação e robótica são vias incontornáveis para a prossecução dos objetivos de produtividade desejados. Mesmo dentro da automação, a evolução é constante. Para além disso, a crescente inovação nos produtos fabricados, exige também novas soluções em termos de processos de fabrico. Isto leva a que, soluções válidas até uma determinada altura, passem facilmente a obsoletas, com necessidade premente de se implementarem novos sistemas que correspondam às necessidades atuais. Este trabalho teve por base uma necessidade detetada numa empresa fabricante de acessórios para a indústria automóvel: estruturas para estofo de assento automóvel, entre muitos outros. Atualmente, a estrutura do estofo automóvel assenta numa grelha constituída por um conjunto de arames, que é agregado por uma série de tiras de plástico injetadas em seu redor. As máquinas de injeção responsáveis por este processo têm superfície de apartação horizontal, e necessitam de mão-de-obra adjacente para a colocação dos arames no molde e descarga do conjunto, na razão de uma pessoa para duas máquinas, dependendo do tempo de ciclo da injeção. O trabalho consistiu no desenvolvimento de um sistema automático de alimentação e descarga da máquina de injeção, que tivesse por base um sistema já existente, mas que passasse a comportar outras funções até agora não desempenhadas pelos sistemas antigos, ou seja, que fossem capazes de ultrapassar os problemas colocados pela complexidade atual dos produtos em fabricação. O projeto foi concluído com sucesso, tendo sido validado pela empresa FicoCables, através da construção, teste e colocação em funcionamento de vários protótipos.
Resumo:
Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.
Resumo:
A gestão e monitorização de redes é uma necessidade fundamental em qualquer organização, quer seja grande ou pequena. A sua importância tem de ser refletida na eficiência e no aumento de informação útil disponível, contribuindo para uma maior eficácia na realização das tarefas em ambientes tecnologicamente avançados, com elevadas necessidades de desempenho e disponibilidade dos recursos dessa tecnologia. Para alcançar estes objetivos é fundamental possuir as ferramentas de gestão de redes adequadas. Nomeadamente ferramentas de monitorização. A classificação de tráfego também se revela fundamental para garantir a qualidade das comunicações e prevenir ataques indesejados aumentando assim a segurança nas comunicações. Paralelamente, principalmente em organizações grandes, é relevante a inventariação dos equipamentos utilizados numa rede. Neste trabalho pretende-se implementar e colocar em funcionamento um sistema autónomo de monitorização, classificação de protocolos e realização de inventários. Todas estas ferramentas têm como objetivo apoiar os administradores e técnicos de sistemas informáticos. Os estudos das aplicações que melhor se adequam à realidade da organização culminaram num acréscimo de conhecimento e aprendizagem que irão contribuir para um melhor desempenho da rede em que o principal beneficiário será o cidadão.
Resumo:
Dissertação para obtenção do Grau de Mestre em Engenharia do Ambiente, perfil Engenharia Sanitária
Resumo:
Dissertação apresentada para cumprimento dos requisitos necessários à obtenção do grau de Mestre em Gestão do Território - área de especialização em Detecção Remota e Sistemas de Informação Geográfica