874 resultados para Robust tori


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vivemos cada vez mais numa era de crescentes avanços tecnológicos em diversas áreas. O que há uns anos atrás era considerado como praticamente impossível, em muitos dos casos, já se tornou realidade. Todos usamos tecnologias como, por exemplo, a Internet, Smartphones e GPSs de uma forma natural. Esta proliferação da tecnologia permitiu tanto ao cidadão comum como a organizações a sua utilização de uma forma cada vez mais criativa e simples de utilizar. Além disso, a cada dia que passa surgem novos negócios e startups, o que demonstra o dinamismo que este crescimento veio trazer para a indústria. A presente dissertação incide sobre duas áreas em forte crescimento: Reconhecimento Facial e Business Intelligence (BI), assim como a respetiva combinação das duas com o objetivo de ser criado um novo módulo para um produto já existente. Tratando-se de duas áreas distintas, é primeiramente feito um estudo sobre cada uma delas. A área de Business Intelligence é vocacionada para organizações e trata da recolha de informação sobre o negócio de determinada empresa, seguindo-se de uma posterior análise. A grande finalidade da área de Business Intelligence é servir como forma de apoio ao processo de tomada de decisão por parte dos analistas e gestores destas organizações. O Reconhecimento Facial, por sua vez, encontra-se mais presente na sociedade. Tendo surgido no passado através da ficção científica, cada vez mais empresas implementam esta tecnologia que tem evoluído ao longo dos anos, chegando mesmo a ser usada pelo consumidor final, como por exemplo em Smartphones. As suas aplicações são, portanto, bastante diversas, desde soluções de segurança até simples entretenimento. Para estas duas áreas será assim feito um estudo com base numa pesquisa de publicações de autores da respetiva área. Desde os cenários de utilização, até aspetos mais específicos de cada uma destas áreas, será assim transmitido este conhecimento para o leitor, o que permitirá uma maior compreensão por parte deste nos aspetos relativos ao desenvolvimento da solução. Com o estudo destas duas áreas efetuado, é então feita uma contextualização do problema em relação à área de atuação da empresa e quais as abordagens possíveis. É também descrito todo o processo de análise e conceção, assim como o próprio desenvolvimento numa vertente mais técnica da solução implementada. Por fim, são apresentados alguns exemplos de resultados obtidos já após a implementação da solução.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A função de escalonamento desempenha um papel importante nos sistemas de produção. Os sistemas de escalonamento têm como objetivo gerar um plano de escalonamento que permite gerir de uma forma eficiente um conjunto de tarefas que necessitam de ser executadas no mesmo período de tempo pelos mesmos recursos. Contudo, adaptação dinâmica e otimização é uma necessidade crítica em sistemas de escalonamento, uma vez que as organizações de produção têm uma natureza dinâmica. Nestas organizações ocorrem distúrbios nas condições requisitos de trabalho regularmente e de forma inesperada. Alguns exemplos destes distúrbios são: surgimento de uma nova tarefa, cancelamento de uma tarefa, alteração na data de entrega, entre outros. Estes eventos dinâmicos devem ser tidos em conta, uma vez que podem influenciar o plano criado, tornando-o ineficiente. Portanto, ambientes de produção necessitam de resposta imediata para estes eventos, usando um método de reescalonamento em tempo real, para minimizar o efeito destes eventos dinâmicos no sistema de produção. Deste modo, os sistemas de escalonamento devem de uma forma automática e inteligente, ser capazes de adaptar o plano de escalonamento que a organização está a seguir aos eventos inesperados em tempo real. Esta dissertação aborda o problema de incorporar novas tarefas num plano de escalonamento já existente. Deste modo, é proposta uma abordagem de otimização – Hiper-heurística baseada em Seleção Construtiva para Escalonamento Dinâmico- para lidar com eventos dinâmicos que podem ocorrer num ambiente de produção, a fim de manter o plano de escalonamento, o mais robusto possível. Esta abordagem é inspirada em computação evolutiva e hiper-heurísticas. Do estudo computacional realizado foi possível concluir que o uso da hiper-heurística de seleção construtiva pode ser vantajoso na resolução de problemas de otimização de adaptação dinâmica.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Competition between public and private firms exists in a range of industries like telecommunications, electricity, natural gas, airlines industries, as weel as services including hospitals, banking and education. Some authors studied mixed oligopolies under Cournot competition (firms move simultaneously) and some others considered Stackelberg models (firms move sequentially). Tomaru [1] analyzed, in a Cournot model, how decision-making upon cost-reducing R&D investment by a domestic public firm is affected by privatization when competing in the domestic market with a foreign firm. He shows that privatization of the domestic public firm lowers productive efficiency and deteriorates domestic social welfare. In this paper, we examine the same question but in a Stackelberg formulation instead of Cournot. The model is a three-stage game. In the first stage, the domestic firm chooses the amount of cost-reducing R&D investment. Then, the firms compete à la Stackelberg. Two cases are considered: (i) The domestic firm is the leader; (ii) The foreign firm is the leader. We show that the results obtained in [1] for Cournot competition are robust in the sence that they are also true when firms move sequentially.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Astringency is an organoleptic property of beverages and food products resulting mainly from the interaction of salivary proteins with dietary polyphenols. It is of great importance to consumers, but the only effective way of measuring it involves trained sensorial panellists, providing subjective and expensive responses. Concurrent chemical evaluations try to screen food astringency, by means of polyphenol and protein precipitation procedures, but these are far from the real human astringency sensation where not all polyphenol–protein interactions lead to the occurrence of precipitate. Here, a novel chemical approach that tries to mimic protein–polyphenol interactions in the mouth is presented to evaluate astringency. A protein, acting as a salivary protein, is attached to a solid support to which the polyphenol binds (just as happens when drinking wine), with subsequent colour alteration that is fully independent from the occurrence of precipitate. Employing this simple concept, Bovine Serum Albumin (BSA) was selected as the model salivary protein and used to cover the surface of silica beads. Tannic Acid (TA), employed as the model polyphenol, was allowed to interact with the BSA on the silica support and its adsorption to the protein was detected by reaction with Fe(III) and subsequent colour development. Quantitative data of TA in the samples were extracted by colorimetric or reflectance studies over the solid materials. The analysis was done by taking a regular picture with a digital camera, opening the image file in common software and extracting the colour coordinates from HSL (Hue, Saturation, Lightness) and RGB (Red, Green, Blue) colour model systems; linear ranges were observed from 10.6 to 106.0 μmol L−1. The latter was based on the Kubelka–Munk response, showing a linear gain with concentrations from 0.3 to 10.5 μmol L−1. In either of these two approaches, semi-quantitative estimation of TA was enabled by direct eye comparison. The correlation between the levels of adsorbed TA and the astringency of beverages was tested by using the assay to check the astringency of wines and comparing these to the response of sensorial panellists. Results of the two methods correlated well. The proposed sensor has significant potential as a robust tool for the quantitative/semi-quantitative evaluation of astringency in wine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Monitoring organic environmental contaminants is of crucial importance to ensure public health. This requires simple, portable and robust devices to carry out on-site analysis. For this purpose, a low-temperature co-fired ceramics (LTCC) microfluidic potentiometric device (LTCC/μPOT) was developed for the first time for an organic compound: sulfamethoxazole (SMX). Sensory materials relied on newly designed plastic antibodies. Sol–gel, self-assembling monolayer and molecular-imprinting techniques were merged for this purpose. Silica beads were amine-modified and linked to SMX via glutaraldehyde modification. Condensation polymerization was conducted around SMX to fill the vacant spaces. SMX was removed after, leaving behind imprinted sites of complementary shape. The obtained particles were used as ionophores in plasticized PVC membranes. The most suitable membrane composition was selected in steady-state assays. Its suitability to flow analysis was verified in flow-injection studies with regular tubular electrodes. The LTCC/μPOT device integrated a bidimensional mixer, an embedded reference electrode based on Ag/AgCl and an Ag-based contact screen-printed under a micromachined cavity of 600 μm depth. The sensing membranes were deposited over this contact and acted as indicating electrodes. Under optimum conditions, the SMX sensor displayed slopes of about −58.7 mV/decade in a range from 12.7 to 250 μg/mL, providing a detection limit of 3.85 μg/mL and a sampling throughput of 36 samples/h with a reagent consumption of 3.3 mL per sample. The system was adjusted later to multiple analyte detection by including a second potentiometric cell on the LTCC/μPOT device. No additional reference electrode was required. This concept was applied to Trimethoprim (TMP), always administered concomitantly with sulphonamide drugs, and tested in fish-farming waters. The biparametric microanalyzer displayed Nernstian behaviour, with average slopes −54.7 (SMX) and +57.8 (TMP) mV/decade. To demonstrate the microanalyzer capabilities for real applications, it was successfully applied to single and simultaneous determination of SMX and TMP in aquaculture waters.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Proceedings of the International Conference on Computer Vision Theory and Applications, 361-365, 2013, Barcelona, Spain

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertation presented to obtain the degree of Doctor in Electrical and Computer Engineering, specialization on Collaborative Enterprise Networks

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Optimization methods have been used in many areas of knowledge, such as Engineering, Statistics, Chemistry, among others, to solve optimization problems. In many cases it is not possible to use derivative methods, due to the characteristics of the problem to be solved and/or its constraints, for example if the involved functions are non-smooth and/or their derivatives are not know. To solve this type of problems a Java based API has been implemented, which includes only derivative-free optimization methods, and that can be used to solve both constrained and unconstrained problems. For solving constrained problems, the classic Penalty and Barrier functions were included in the API. In this paper a new approach to Penalty and Barrier functions, based on Fuzzy Logic, is proposed. Two penalty functions, that impose a progressive penalization to solutions that violate the constraints, are discussed. The implemented functions impose a low penalization when the violation of the constraints is low and a heavy penalty when the violation is high. Numerical results, obtained using twenty-eight test problems, comparing the proposed Fuzzy Logic based functions to six of the classic Penalty and Barrier functions are presented. Considering the achieved results, it can be concluded that the proposed penalty functions besides being very robust also have a very good performance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A globalização dos sistemas financeiros, ao longo dos anos, tem estimulado uma crescente necessidade de supervisão bancária nas instituições financeiras. O Comité de Supervisão Bancária de Basileia tem tido um papel crucial nesta área, estabelecendo princípios por via dos seus acordos entre as várias entidades nacionais de regulação e supervisão das maiores economias mundiais. Em 1988, foi criado o Acordo de Basileia (Basileia I) pelo Comité de Supervisão Bancária de forma a harmonizar os padrões de supervisão bancária. Este acordo estabeleceu mínimos de solvabilidade para o sistema bancário internacional no sentido de reforçar a sua solidez e estabilidade. Com o desenvolvimento de novas potências económicas e novas necessidades regulamentares, em Junho de 2004, foi publicado o novo Acordo de Capital – o Basileia II. Este acordo pretendia tornar os requisitos de capital mais sensíveis ao risco, promover a atuação das autoridades de supervisão e a disciplina de mercado (através do seu Pilar II) e encorajar a capacidade de cada instituição mensurar e gerir o seu risco. Em Setembro de 2010, o Acordo de Basileia III, com adoção prevista até 2019, veio reforçar estas medidas com a criação de um quadro regulamentar e de supervisão mais sólido, por parte das instituições de crédito. Surge, assim neste contexto, o Modelo de Avaliação de Risco (MAR) para o sector bancário. Em Portugal, o MAR tem como objetivo avaliar o perfil de risco das instituições de crédito, sujeitas à supervisão do Banco de Portugal, assim como apresentar o perfil de risco e a solidez da situação financeira de cada instituição de crédito. Este trabalho pretende avaliar o surgimento e a caracterização deste modelo e identificar as variáveis a ter em conta nos modelos de avaliação de risco a nível qualitativo e quantitativo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os robots de movimentação de chapa são bastantes úteis para as empresas de metalomecânica. De facto, cada vez mais existem máquinas de corte por jato de água, laser ou outros processos, nos quais os robots apresentam um papel importante na carga e descarga do material. O trabalho realizado apresenta novas soluções aos sistemas de movimentação existentes no mercado, e permite reduzir os custos na movimentação do material. Este projeto serve essencialmente para chapas em trajetória retilínea, e efetuar o seu levantamento do equipamento e deposição em estrutura de suporte (ou viceversa). A vantagem a ter em conta é a diminuição dos custos de movimentação do material. Neste trabalho apresentou-se a metodologia de dimensionamento de um robot automatizado que transporta chapas com um peso máximo de 3500 kg, tendo por base as normas do EC3-P1.8 e o Método de Elementos Finitos (MEF). No decurso do projeto foram abordadas os seguintes temas: Abordagem inicial da geometria através do Solidworks; Dimensionamento da estrutura por software de Elementos Finitos, o Solidworks; Dimensionamento das correntes, carretos/discos ou coroas e rolamentos; Dimensionamento e seleção dos moto-redutores, bomba de vácuo e ventosas; Cálculo das solicitações em cada membro da estrutura por software de análise estrutural, o Multiframe3D, e respetivo dimensionamento das ligações aparafusadas e soldadas; Elaboração dos desenhos de projeto finais, processos de fabrico e custos; Dimensionamento do acionamento, MG e disposição dos dispositivos no quadro elétrico. Como conclusão refere-se que se conseguiu realizar o projeto e obter uma solução final otimizada, com a ajuda de ferramentas importantes, como sejam o MEF, resultando num equipamento cujas solicitações para a estrutura e sistema de movimentação foram otimizadas, resultando num equipamento eficiente, robusto, seguro e de custo reduzido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dissertação para obtenção do Grau de Doutor em Engenharia Biomédica

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os adesivos têm sido alvo de estudo ao longo dos últimos anos para ligação de componentes a nível industrial. Devido à crescente utilização das juntas adesivas, torna-se necessária a existência de modelos de previsão de resistência que sejam fiáveis e robustos. Neste âmbito, a determinação das propriedades dos adesivos é fundamental para o projeto de ligações coladas. Uma abordagem recente consiste no uso de modelos de dano coesivo (MDC), que permitem simular o comportamento à fratura das juntas de forma bastante fiável. Esta técnica requer a definição das leis coesivas em tração e corte. Estas leis coesivas dependem essencialmente de 2 parâmetros: a tensão limite e a tenacidade no modo de solicitação respetivo. O ensaio End-Notched Flexure (ENF) é o mais utilizado para determinar a tenacidade em corte, porque é conhecido por ser o mais expedito e fiável para caraterizar este parâmetro. Neste ensaio, os provetes são sujeitos a flexão em 3 pontos, sendo apoiados nas extremidades e solicitados no ponto médio para promover a flexão entre substratos, o que se reflete numa solicitação de corte no adesivo. A partir deste ensaio, e após de definida a tenacidade em corte (GIIc), existem alguns métodos para estimativa da lei coesiva respetiva. Nesta dissertação são definidas as leis coesivas em corte de três adesivos estruturais através do ensaio ENF e um método inverso de ajuste dos dados experimentais. Para o efeito, foram realizados ensaios experimentais considerado um adesivo frágil, o Araldite® AV138, um adesivo moderadamente dúctil, o Araldite® 2015 e outro dúctil, o SikaForce® 7752. O trabalho experimental consistiu na realização dos ensaios ENF e respetivo tratamento dos dados para obtenção das curvas de resistência (curvas-R) através dos seguintes métodos: Compliance Calibration Method (CCM), Direct Beam Theory (DBT), Corrected Beam Theory (CBT) e Compliance-Based Beam Method (CBBM). Os ensaios foram simulados numericamente pelo código comercial ABAQUS®, recorrendo ao Métodos de Elementos Finitos (MEF) e um MDC triangular, com o intuito de estimar a lei coesiva de cada um dos adesivos em solicitação de corte. Após este estudo, foi feita uma análise de sensibilidade ao valor de GIIc e resistência coesiva ao corte (tS 0), para uma melhor compreensão do efeito destes parâmetros na curva P- do ensaio ENF. Com o objetivo de testar adequação dos 4 métodos de obtenção de GIIc usados neste trabalho, estes foram aplicados a curvas P- numéricas de cada um dos 3 adesivos, e os valores de GIIc previstos por estes métodos comparados com os respetivos valores introduzidos nos modelos numéricos. Como resultado do trabalho realizado, conseguiu-se obter uma lei coesiva única em corte para cada um dos 3 adesivos testados, que é capaz de reproduzir com precisão os resultados experimentais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento aplicacional é uma área em grande expansão no mercado das tecnologias de informação e como tal, é uma área que evolui rápido. Os impulsionadores para esta característica são as comunicações e os equipamentos informáticos, pois detêm características mais robustas e são cada vez mais rápidos. A função das aplicações é acompanhar esta evolução, possuindo arquiteturas mais complexas/completas visando suportar todos os pedidos dos clientes, através da produção de respostas em tempos aceitáveis. Esta dissertação aborda várias arquiteturas aplicacionais possíveis de implementar, mediante o contexto que esteja inserida, como por exemplo, um cenário com poucos ou muitos clientes, pouco ou muito capital para investir em servidores, etc. É fornecido um nivelamento acerca dos conceitos subjacentes ao desenvolvimento aplicacional. Posteriormente é analisado o estado de arte das linguagens de programação web e orientadas a objetos, bases de dados, frameworks em JavaScript, arquiteturas aplicacionais e, por fim, as abordagens para definir objetivos mensuráveis no desenvolvimento aplicacional. Foram implementados dois protótipos. Um deles, numa arquitetura multicamada com várias linguagens de programação e tecnologias. O segundo, numa única camada (monolítica) com uma única linguagem de programação. Os dois protótipos foram testados e comparados com o intuito de escolher uma das arquiteturas, num determinado cenário de utilização.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este documento contém todo o estudo e planeamento para a implementação de um novo sistema de monitorização e alarmística, desenvolvido para o serviço de informática, no decorrer do estágio profissional no Instituto Português de Oncologia do Porto. Observou-se que o sistema já existente, apesar de facilitar algumas ações da equipa, apresentava muitas lacunas, mas ao mesmo tempo uma boa abertura para evolução. A criação desse sistema teve que contemplar um conjunto de objetivos que levaram a elaboração de estudos, permitindo uma análise e fundamento na tomada de decisões e na criação de tarefas e testes. É apresentado também um estudo de uma nova arquitetura, pois devido a falta de recursos que a solução já implementada tinha, que permitisse ao serviço de informática obter um sistema robusto, redundante, fiável, seguro e sempre disponível.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O veículo guiado automaticamente (AGV) adquirido pelo Departamento de Engenharia Mecânica (DEM) tem vindo a ficar obsoleto devido ao hardware, que nos dias de hoje começa a dar sinais de falhas bem como falta de peças de substituição, e ao software, sendo o PLC (Programmable Logic Controller) usado muito limitado quanto às suas funções de controlo, ficando as principais tarefas de controlo do AGV a cargo de placas eletrónicas de controlo. Para promover o controlo autónomo do AGV, foi decidido retirar toda a parte de hardware que detinha o controlo do mesmo e passou a ser um novo PLC, com maior capacidade de processamento, a executar todo o tipo de controlo necessário ao funcionamento do mesmo. O hardware considerado apenas incluí, de forma resumida, os motores responsáveis pelo movimento e direção, placa de controlo de potência dos motores, placa de interface entre as saídas digitais do PLC e as entradas da placa de controlo de potência dos motores e os demais sensores necessários à deteção de obstáculos, fins de curso da direção, sensores dos postos de trabalho e avisadores de emergência. Todo o controlo de movimento e direção bem como a seleção das ações a executar passou a ficar a cargo do software programado no PLC assim como a interação entre o sistema de supervisão instalado num posto de controlo e o PLC através de comunicação via rádio. O uso do PLC permitiu a flexibilidade de mudar facilmente a forma como as saídas digitais são usadas, ao contrário de um circuito eletrónico que necessita de uma completa remodelação, tempo de testes e implementação para efetuar a mesma função. O uso de um microcontrolador seria igualmente viável para a aplicação em causa, no entanto o uso do PLC tem a vantagem de ser robusto, mais rápido na velocidade de processamento, existência de software de interface de programação bastante intuitivo e de livre acesso, facilidade de alterar a programação localmente ou remotamente, via rádio, acesso a vários protocolos de comunicação robustos como Modbus, Canbus, Profinet, Modnet, etc., e acesso integrado de uma consola gráfica totalmente programável. iv É ainda possível a sua expansão com adição de módulos de entradas e saídas digitais e/ou analógicas permitindo expandir largamente o uso do AGV para outros fins. A solução está a ser amplamente testada e validada no Laboratório de Automação (LabA) do Departamento de Engenharia Mecânica do ISEP (Instituto Superior de Engenharia do Porto), permitindo a otimização dos sistemas de controlo de direção bem como a interatividade entre o PLC e o programa de interface/supervisão do posto de trabalho.