866 resultados para Robust Policymaking


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Proceedings of the International Conference on Computer Vision Theory and Applications, 361-365, 2013, Barcelona, Spain

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertation presented to obtain the degree of Doctor in Electrical and Computer Engineering, specialization on Collaborative Enterprise Networks

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Optimization methods have been used in many areas of knowledge, such as Engineering, Statistics, Chemistry, among others, to solve optimization problems. In many cases it is not possible to use derivative methods, due to the characteristics of the problem to be solved and/or its constraints, for example if the involved functions are non-smooth and/or their derivatives are not know. To solve this type of problems a Java based API has been implemented, which includes only derivative-free optimization methods, and that can be used to solve both constrained and unconstrained problems. For solving constrained problems, the classic Penalty and Barrier functions were included in the API. In this paper a new approach to Penalty and Barrier functions, based on Fuzzy Logic, is proposed. Two penalty functions, that impose a progressive penalization to solutions that violate the constraints, are discussed. The implemented functions impose a low penalization when the violation of the constraints is low and a heavy penalty when the violation is high. Numerical results, obtained using twenty-eight test problems, comparing the proposed Fuzzy Logic based functions to six of the classic Penalty and Barrier functions are presented. Considering the achieved results, it can be concluded that the proposed penalty functions besides being very robust also have a very good performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A globalização dos sistemas financeiros, ao longo dos anos, tem estimulado uma crescente necessidade de supervisão bancária nas instituições financeiras. O Comité de Supervisão Bancária de Basileia tem tido um papel crucial nesta área, estabelecendo princípios por via dos seus acordos entre as várias entidades nacionais de regulação e supervisão das maiores economias mundiais. Em 1988, foi criado o Acordo de Basileia (Basileia I) pelo Comité de Supervisão Bancária de forma a harmonizar os padrões de supervisão bancária. Este acordo estabeleceu mínimos de solvabilidade para o sistema bancário internacional no sentido de reforçar a sua solidez e estabilidade. Com o desenvolvimento de novas potências económicas e novas necessidades regulamentares, em Junho de 2004, foi publicado o novo Acordo de Capital – o Basileia II. Este acordo pretendia tornar os requisitos de capital mais sensíveis ao risco, promover a atuação das autoridades de supervisão e a disciplina de mercado (através do seu Pilar II) e encorajar a capacidade de cada instituição mensurar e gerir o seu risco. Em Setembro de 2010, o Acordo de Basileia III, com adoção prevista até 2019, veio reforçar estas medidas com a criação de um quadro regulamentar e de supervisão mais sólido, por parte das instituições de crédito. Surge, assim neste contexto, o Modelo de Avaliação de Risco (MAR) para o sector bancário. Em Portugal, o MAR tem como objetivo avaliar o perfil de risco das instituições de crédito, sujeitas à supervisão do Banco de Portugal, assim como apresentar o perfil de risco e a solidez da situação financeira de cada instituição de crédito. Este trabalho pretende avaliar o surgimento e a caracterização deste modelo e identificar as variáveis a ter em conta nos modelos de avaliação de risco a nível qualitativo e quantitativo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os robots de movimentação de chapa são bastantes úteis para as empresas de metalomecânica. De facto, cada vez mais existem máquinas de corte por jato de água, laser ou outros processos, nos quais os robots apresentam um papel importante na carga e descarga do material. O trabalho realizado apresenta novas soluções aos sistemas de movimentação existentes no mercado, e permite reduzir os custos na movimentação do material. Este projeto serve essencialmente para chapas em trajetória retilínea, e efetuar o seu levantamento do equipamento e deposição em estrutura de suporte (ou viceversa). A vantagem a ter em conta é a diminuição dos custos de movimentação do material. Neste trabalho apresentou-se a metodologia de dimensionamento de um robot automatizado que transporta chapas com um peso máximo de 3500 kg, tendo por base as normas do EC3-P1.8 e o Método de Elementos Finitos (MEF). No decurso do projeto foram abordadas os seguintes temas: Abordagem inicial da geometria através do Solidworks; Dimensionamento da estrutura por software de Elementos Finitos, o Solidworks; Dimensionamento das correntes, carretos/discos ou coroas e rolamentos; Dimensionamento e seleção dos moto-redutores, bomba de vácuo e ventosas; Cálculo das solicitações em cada membro da estrutura por software de análise estrutural, o Multiframe3D, e respetivo dimensionamento das ligações aparafusadas e soldadas; Elaboração dos desenhos de projeto finais, processos de fabrico e custos; Dimensionamento do acionamento, MG e disposição dos dispositivos no quadro elétrico. Como conclusão refere-se que se conseguiu realizar o projeto e obter uma solução final otimizada, com a ajuda de ferramentas importantes, como sejam o MEF, resultando num equipamento cujas solicitações para a estrutura e sistema de movimentação foram otimizadas, resultando num equipamento eficiente, robusto, seguro e de custo reduzido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Doutor em Engenharia Biomédica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os adesivos têm sido alvo de estudo ao longo dos últimos anos para ligação de componentes a nível industrial. Devido à crescente utilização das juntas adesivas, torna-se necessária a existência de modelos de previsão de resistência que sejam fiáveis e robustos. Neste âmbito, a determinação das propriedades dos adesivos é fundamental para o projeto de ligações coladas. Uma abordagem recente consiste no uso de modelos de dano coesivo (MDC), que permitem simular o comportamento à fratura das juntas de forma bastante fiável. Esta técnica requer a definição das leis coesivas em tração e corte. Estas leis coesivas dependem essencialmente de 2 parâmetros: a tensão limite e a tenacidade no modo de solicitação respetivo. O ensaio End-Notched Flexure (ENF) é o mais utilizado para determinar a tenacidade em corte, porque é conhecido por ser o mais expedito e fiável para caraterizar este parâmetro. Neste ensaio, os provetes são sujeitos a flexão em 3 pontos, sendo apoiados nas extremidades e solicitados no ponto médio para promover a flexão entre substratos, o que se reflete numa solicitação de corte no adesivo. A partir deste ensaio, e após de definida a tenacidade em corte (GIIc), existem alguns métodos para estimativa da lei coesiva respetiva. Nesta dissertação são definidas as leis coesivas em corte de três adesivos estruturais através do ensaio ENF e um método inverso de ajuste dos dados experimentais. Para o efeito, foram realizados ensaios experimentais considerado um adesivo frágil, o Araldite® AV138, um adesivo moderadamente dúctil, o Araldite® 2015 e outro dúctil, o SikaForce® 7752. O trabalho experimental consistiu na realização dos ensaios ENF e respetivo tratamento dos dados para obtenção das curvas de resistência (curvas-R) através dos seguintes métodos: Compliance Calibration Method (CCM), Direct Beam Theory (DBT), Corrected Beam Theory (CBT) e Compliance-Based Beam Method (CBBM). Os ensaios foram simulados numericamente pelo código comercial ABAQUS®, recorrendo ao Métodos de Elementos Finitos (MEF) e um MDC triangular, com o intuito de estimar a lei coesiva de cada um dos adesivos em solicitação de corte. Após este estudo, foi feita uma análise de sensibilidade ao valor de GIIc e resistência coesiva ao corte (tS 0), para uma melhor compreensão do efeito destes parâmetros na curva P- do ensaio ENF. Com o objetivo de testar adequação dos 4 métodos de obtenção de GIIc usados neste trabalho, estes foram aplicados a curvas P- numéricas de cada um dos 3 adesivos, e os valores de GIIc previstos por estes métodos comparados com os respetivos valores introduzidos nos modelos numéricos. Como resultado do trabalho realizado, conseguiu-se obter uma lei coesiva única em corte para cada um dos 3 adesivos testados, que é capaz de reproduzir com precisão os resultados experimentais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento aplicacional é uma área em grande expansão no mercado das tecnologias de informação e como tal, é uma área que evolui rápido. Os impulsionadores para esta característica são as comunicações e os equipamentos informáticos, pois detêm características mais robustas e são cada vez mais rápidos. A função das aplicações é acompanhar esta evolução, possuindo arquiteturas mais complexas/completas visando suportar todos os pedidos dos clientes, através da produção de respostas em tempos aceitáveis. Esta dissertação aborda várias arquiteturas aplicacionais possíveis de implementar, mediante o contexto que esteja inserida, como por exemplo, um cenário com poucos ou muitos clientes, pouco ou muito capital para investir em servidores, etc. É fornecido um nivelamento acerca dos conceitos subjacentes ao desenvolvimento aplicacional. Posteriormente é analisado o estado de arte das linguagens de programação web e orientadas a objetos, bases de dados, frameworks em JavaScript, arquiteturas aplicacionais e, por fim, as abordagens para definir objetivos mensuráveis no desenvolvimento aplicacional. Foram implementados dois protótipos. Um deles, numa arquitetura multicamada com várias linguagens de programação e tecnologias. O segundo, numa única camada (monolítica) com uma única linguagem de programação. Os dois protótipos foram testados e comparados com o intuito de escolher uma das arquiteturas, num determinado cenário de utilização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este documento contém todo o estudo e planeamento para a implementação de um novo sistema de monitorização e alarmística, desenvolvido para o serviço de informática, no decorrer do estágio profissional no Instituto Português de Oncologia do Porto. Observou-se que o sistema já existente, apesar de facilitar algumas ações da equipa, apresentava muitas lacunas, mas ao mesmo tempo uma boa abertura para evolução. A criação desse sistema teve que contemplar um conjunto de objetivos que levaram a elaboração de estudos, permitindo uma análise e fundamento na tomada de decisões e na criação de tarefas e testes. É apresentado também um estudo de uma nova arquitetura, pois devido a falta de recursos que a solução já implementada tinha, que permitisse ao serviço de informática obter um sistema robusto, redundante, fiável, seguro e sempre disponível.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O veículo guiado automaticamente (AGV) adquirido pelo Departamento de Engenharia Mecânica (DEM) tem vindo a ficar obsoleto devido ao hardware, que nos dias de hoje começa a dar sinais de falhas bem como falta de peças de substituição, e ao software, sendo o PLC (Programmable Logic Controller) usado muito limitado quanto às suas funções de controlo, ficando as principais tarefas de controlo do AGV a cargo de placas eletrónicas de controlo. Para promover o controlo autónomo do AGV, foi decidido retirar toda a parte de hardware que detinha o controlo do mesmo e passou a ser um novo PLC, com maior capacidade de processamento, a executar todo o tipo de controlo necessário ao funcionamento do mesmo. O hardware considerado apenas incluí, de forma resumida, os motores responsáveis pelo movimento e direção, placa de controlo de potência dos motores, placa de interface entre as saídas digitais do PLC e as entradas da placa de controlo de potência dos motores e os demais sensores necessários à deteção de obstáculos, fins de curso da direção, sensores dos postos de trabalho e avisadores de emergência. Todo o controlo de movimento e direção bem como a seleção das ações a executar passou a ficar a cargo do software programado no PLC assim como a interação entre o sistema de supervisão instalado num posto de controlo e o PLC através de comunicação via rádio. O uso do PLC permitiu a flexibilidade de mudar facilmente a forma como as saídas digitais são usadas, ao contrário de um circuito eletrónico que necessita de uma completa remodelação, tempo de testes e implementação para efetuar a mesma função. O uso de um microcontrolador seria igualmente viável para a aplicação em causa, no entanto o uso do PLC tem a vantagem de ser robusto, mais rápido na velocidade de processamento, existência de software de interface de programação bastante intuitivo e de livre acesso, facilidade de alterar a programação localmente ou remotamente, via rádio, acesso a vários protocolos de comunicação robustos como Modbus, Canbus, Profinet, Modnet, etc., e acesso integrado de uma consola gráfica totalmente programável. iv É ainda possível a sua expansão com adição de módulos de entradas e saídas digitais e/ou analógicas permitindo expandir largamente o uso do AGV para outros fins. A solução está a ser amplamente testada e validada no Laboratório de Automação (LabA) do Departamento de Engenharia Mecânica do ISEP (Instituto Superior de Engenharia do Porto), permitindo a otimização dos sistemas de controlo de direção bem como a interatividade entre o PLC e o programa de interface/supervisão do posto de trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos o aumento exponencial da utilização de dispositivos móveis e serviços disponibilizados na “Cloud” levou a que a forma como os sistemas são desenhados e implementados mudasse, numa perspectiva de tentar alcançar requisitos que até então não eram essenciais. Analisando esta evolução, com o enorme aumento dos dispositivos móveis, como os “smartphones” e “tablets” fez com que o desenho e implementação de sistemas distribuidos fossem ainda mais importantes nesta área, na tentativa de promover sistemas e aplicações que fossem mais flexíveis, robutos, escaláveis e acima de tudo interoperáveis. A menor capacidade de processamento ou armazenamento destes dispositivos tornou essencial o aparecimento e crescimento de tecnologias que prometem solucionar muitos dos problemas identificados. O aparecimento do conceito de Middleware visa solucionar estas lacunas nos sistemas distribuidos mais evoluídos, promovendo uma solução a nível de organização e desenho da arquitetura dos sistemas, ao memo tempo que fornece comunicações extremamente rápidas, seguras e de confiança. Uma arquitetura baseada em Middleware visa dotar os sistemas de um canal de comunicação que fornece uma forte interoperabilidade, escalabilidade, e segurança na troca de mensagens, entre outras vantagens. Nesta tese vários tipos e exemplos de sistemas distribuídos e são descritos e analisados, assim como uma descrição em detalhe de três protocolos (XMPP, AMQP e DDS) de comunicação, sendo dois deles (XMPP e AMQP) utilzados em projecto reais que serão descritos ao longo desta tese. O principal objetivo da escrita desta tese é demonstrar o estudo e o levantamento do estado da arte relativamente ao conceito de Middleware aplicado a sistemas distribuídos de larga escala, provando que a utilização de um Middleware pode facilitar e agilizar o desenho e desenvolvimento de um sistema distribuído e traz enormes vantagens num futuro próximo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A crescente tendencia no acesso móvel tem sido potenciada pela tecnologia IEEE 802.11. Contudo, estas redes têm alcance rádio limitado. Para a extensão da sua cobertura é possível recorrer a redes emalhadas sem fios baseadas na tecnologia IEEE 802.11, com vantagem do ponto de vista do custo e da flexibilidade de instalação, face a soluções cabladas. Redes emalhadas sem fios constituídas por nós com apenas uma interface têm escalabilidade reduzida. A principal razão dessa limitação deve-se ao uso do mecanismo de acesso ao meio partilhado Carrier Sense Multiple Access with Collision Avoidance (CSMA/CA) em topologias multi-hop. Especificamente, o CSMA/CA não evita o problema do nó escondido levando ao aumento do número de colisões e correspondente degradação de desempenho com impacto direto no throughput e na latência. Com a redução da tecnologia rádio torna-se viável a utilização de múltiplos rádios por nó, sem com isso aumentar significativamente o custo da solução final de comunicações. A utilização de mais do que um rádio por nó de comuniações permite superar os problemas de desempenho inerentes ás redes formadas por nós com apenas um rádio. O objetivo desta tese, passa por desenvolver uma nova solução para redes emalhadas multi-cana, duar-radio, utilizando para isso novos mecanismos que complementam os mecanismos definidos no IEEE 802.11 para o estabelecimento de um Basic Service Set (BSS). A solução é baseada na solução WiFIX, um protocolo de routing para redes emalhadas de interface única e reutiliza os mecanismos já implementados nas redes IEEE 802.11 para difundir métricas que permitam à rede escalar de forma eficaz minimizando o impacto na performance. A rede multi-hop é formada por nós equipados com duas interfaces, organizados numa topologia hierárquica sobre múltiplas relações Access Point (AP) – Station (STA). Os resultados experimentais obtidos mostram a eficácia e o bom desempenho da solução proposta face à solução WiFIX original.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Mestre em Engenharia Biomédica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As we move more closely to the practical concept of the Internet of Things and, our reliance on public and private APIs increases, web services and their related topics have become utterly crucial to the informatics community. However, the question about which style of web services would best solve a particular problem, can raise signi cant and multifarious debates. There can be found two implementation styles that highlight themselves: the RPC-oriented style represented by the SOAP protocol’s implementations and the hypermedia style, which is represented by the REST architectural style’s implementations. As we search examples of already established web services, we can nd a handful of robust and reliable public and private SOAP APIs, nevertheless, it seems that RESTful services are gaining popularity in the enterprise community. For the current generation of developers that work on informatics solutions, REST seems to represent a fundamental and straightforward alternative and even, a more deep-rooted approach than SOAP. But are they comparable? Do both approaches have each speci c best suitable scenarios? Such study is brie y carried out in the present document’s chapters, starting with the respective background study, following an analysis of the hypermedia approach and an instantiation of its architecture, in a particular case study applied in a BPM context.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Manipulator systems are rather complex and highly nonlinear which makes difficult their analysis and control. Classic system theory is veil known, however it is inadequate in the presence of strong nonlinear dynamics. Nonlinear controllers produce good results [1] and work has been done e. g. relating the manipulator nonlinear dynamics with frequency response [2–5]. Nevertheless, given the complexity of the problem, systematic methods which permit to draw conclusions about stability, imperfect modelling effects, compensation requirements, etc. are still lacking. In section 2 we start by analysing the variation of the poles and zeros of the descriptive transfer functions of a robot manipulator in order to motivate the development of more robust (and computationally efficient) control algorithms. Based on this analysis a new multirate controller which is an improvement of the well known “computed torque controller” [6] is announced in section 3. Some research in this area was done by Neuman [7,8] showing tbat better robustness is possible if the basic controller structure is modified. The present study stems from those ideas, and attempts to give a systematic treatment, which results in easy to use standard engineering tools. Finally, in section 4 conclusions are presented.