101 resultados para Calibração de câmaras de placas paralelas


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação tem como objetivo central conhecer os sistemas de recompensas em empresas portuguesas. Primeiramente é realizada uma abordagem aos conceitos subjacentes ao sistema de recompensas e, simultaneamente é exposta teoria sobre o tipo de recompensas mais utilizadas e como estas diferem consoante o cargo/função. Foi aplicado um inquérito por questionário a uma amostra de 144 empresas localizadas por todo o país. Foram testadas hipóteses de estudo capazes de permitir caraterizar o sistema de recompensas desenvolvido nas empresas em estudo. Os resultados do estudo permitem concluir que: 1) os sistemas de recompensas baseados na antiguidade estão atualmente em desuso, ao contrário dos sistemas de recompensas baseados na função/cargo, no desempenho e nas competências; 2) o principal objetivo do sistema de recompensas das empresas do estudo é a motivação dos colaboradores; 3) a conjugação das recompensas monetárias e não monetárias são as mais valorizadas pelas empresas; 4) predomina a compensação variável nos sistemas de recompensas das empresas bem como os incentivos mistos (individuais e de grupo); 5) predominam os incentivos de curto-prazo no sistema de recompensas; 6) o bónus anual é o incentivo mais utilizado; 7) os benefícios e alguns dos incentivos tendem a ser maiores à medida que se sobe na hierarquia funcional da empresa; 8) o benefício predominante é a atribuição de telemóvel e o seguro de saúde; 9) as formas de reconhecimento mais comuns são os prémios de desempenho, o feedback contínuo, as promoções e as placas comemorativas; 10) a maioria dos inquiridos acredita que as oportunidades de desenvolvimento de carreira é uma importante medida para a retenção dos colaboradores; 11) as oportunidades de desenvolvimento são mais utilizadas pelas empresas de maior dimensão e; 12) os benefícios sociais são considerados a componente mais importante para garantir a retenção dos colaboradores. Com base nestes resultados, na parte final da dissertação são apresentadas algumas implicações teóricas e práticas, algumas limitações do estudo, bem como pistas para investigações futuras.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta um estudo sobre os problemas de sequenciamento de tarefas de produção do tipo job shop scheduling. Os problemas de sequenciamento de tarefas de produção pretendem encontrar a melhor sequência para o processamento de uma lista de tarefas, o instante de início e término de cada tarefa e a afetação de máquinas para as tarefas. Entre estes, encontram-se os problemas com máquinas paralelas, os problemas job shop e flow shop. As medidas de desempenho mais comuns são o makespan (instante de término da execução de todas as tarefas), o tempo de fluxo total, a soma dos atrasos (tardiness), o atraso máximo, o número de tarefas que são completadas após a data limite, entre outros. Num problema do tipo job shop, as tarefas (jobs) consistem num conjunto de operações que têm de ser executadas numa máquina pré-determinada, obedecendo a um determinado sequenciamento com tempos pré-definidos. Estes ambientes permitem diferentes cenários de sequenciamento das tarefas. Normalmente, não são permitidas interrupções no processamento das tarefas (preemption) e pode ainda ser necessário considerar tempos de preparação dependentes da sequência (sequence dependent setup times) ou atribuir pesos (prioridades) diferentes em função da importância da tarefa ou do cliente. Pretende-se o estudo dos modelos matemáticos existentes para várias variantes dos problemas de sequenciamento de tarefas do tipo job shop e a comparação dos resultados das diversas medidas de desempenho da produção. Este trabalho contribui para demonstrar a importância que um bom sequenciamento da produção pode ter na sua eficiência e consequente impacto financeiro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho aqui apresentado é a Dissertação da minha Tese do curso de Mestrado em Engenharia Eletrotécnica e de Computadores do ISEP, realizada em parceria com o INESC TEC. O trabalho consiste no desenvolvimento de um sistema avançado de interação entre homem-robô, usando ferramentas de software livres e de domínio público e hardware pouco dispendioso e facilmente acessível. Pretende-se que o sistema desenvolvido possa ser adotado por pequenas ou micro empresas, daí a restrição monetária. Este tipo de empresas tem, por norma, uma capacidade de investimento pequena, e ficam impossibilitadas de aceder a este tipo de sistemas automatizados se estes forem caros. No entanto, o robô continua a ser um componente fundamental, sendo dispendioso. Os trabalhos realizados pelos sistemas robóticos podem por um lado, ser repetitivos sem necessidade de grandes ajustes; por outro lado, o trabalho a realizar pode ser bastante diverso, sendo necessários bastantes ajustes com (possivelmente) programação do robô. As empresas podem não ter disponível mão-de-obra qualificada para realização da programação do robô. Pretende-se então um sistema de “ensino” que seja simples e rápido. Este trabalho pretende satisfazer as necessidades de um sistema de interação homem-robô intuitivo mesmo para operadores que não estejam familiarizados com a robótica. Para simplificar a transferência de informação da tarefa a desempenhar pelo sistema robótico é usado um sistema de infravermelhos para delinear a operação a desempenhar, neste caso concreto uma operação de soldadura. O operador usa um apontador com marcadores, a posição destes marcadores é detetada usando duas câmaras para permitir o posicionamento tridimensional no espaço. As câmaras possuem filtros infravermelhos para separar o espectro de luz. Para o controlo do sistema e interface com o robô é usado um computador de baixos recursos computacionais e energéticos, e também de baixo custo. O sistema desenvolvido é portanto computacionalmente leve para poder ser executado neste computador.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente documento relata todas as atividades que foram desenvolvidas no estágio curricular realizado na empresa Bosch Car Multimédia em Braga, no âmbito da disciplina "Dissertação/ Projeto/Estágio Profissional"do Mestrado em Engenharia de Instrumentação e Metrologia, do Instituto Superior de Engenharia do Porto. Sendo a Bosch uma empresa de grandes dimensões, necessita de inúmeros equipamentos elétricos devido aos elevados padrões de qualidade exigidos, para poder estar em conformidade a nível das calibrações. A redução de custos e dos tempos de calibração foram as principais motivações para a implementação de um Laboratório de Metrologia Elétrica na empresa. Inicialmente, foi destinado um espaço para o laboratório e adquirido todo o equipamento necessário. Além disto, foi necessário treinar e formar os colaboradores destinados ao laboratório, quer na área das normas a aplicar no processo, quer em específico, com a empresa fornecedora do software de calibração. Ao longo dos doze meses, o estágio teve diversas fases, desde a aprendizagem do software utilizado, METCAL, elaboração de procedimentos de calibração para cada tipo de equipamentos na fábrica, realização de calibrações em coordenação com as diferentes áreas da empresa nos tempos e datas programados e análise dos certificados com sentido crítico, nomeadamente a nível de layout apresentado e incertezas associadas, para que o processo possa constantemente ser melhorado. Todas estas fases possibilitaram a aquisição e aplicação de vários conceitos importantes na área da Metrologia Elétrica. A implementação de um Laboratório de Metrologia é um processo bastante longo e complexo, e por estas razões, atualmente ainda se realizam procedimentos para novos tipos de equipamentos, sendo feitas melhorias e estudos para que no futuro, a sua capacidade seja cada vez maior e melhor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação tem com objetivo o desenvolvimento de um biossensor com base nos polímeros de impressão molecular para a deteção de uma molécula alvo, o ácido glutâmico que é convertido em glutamina pela glutamina sintetase, recorrendo à potenciometria. Nas células neoplásicas a glutamina não é sintetizada podendo-se considerar que o ácido glutâmico é um potencial agente anti-cancro. A técnica de impressão molécular utilizada foi a polimerização em bulk, combinando a acrilamida e a bis acrilamida com o ácido glutâmico. Para se verificar se a resposta potenciométrica obtida era de facto da molécula alvo foram preparados em paralelo com os sensores, materiais de controlo, ou seja, moléculas sem impressão molécular (NIP). Para se controlar a constituíção química dos vários sensores nomeadamente, do NIP e do polímero de impressão molecular (MIP) antes e após a remoção bem como a molécula foram realizados estudos de Espetroscopia de Infravermelhos de Transformada de Fourier (FTIR), Scanning electron microscope (SEM) e Espetroscopia de Raios X por dispersão em energia (EDS). Os materiais desenvolvidos foram aplicados em várias membranas que diferiam umas das outras, sendo seletivas ao ião. A avaliação das características gerais das membranas baseou-se na análise das curvas de calibração, conseguidas em meios com pHs diferentes, comparando os vários elétrodos. O pH 5 foi o que apresentou melhor resultado, associado a uma membrana que continha um aditivo, o p-tetra-octilphenol, e com o sensor com percentagem de 3%. Posto isto, testou-se em material biológico, urina, com as melhores características quer em termos de sensibilidade (18,32mV/década) quer em termos de linearidade (1,6x10-6 a 1,48x10-3 mol/L). Verificou-se ainda que aplicando iões interferentes na solução, estes não interferem nesta, podendo ser aplicados na amostra sem que haja alteração na resposta potenciométrica. O elétrodo é capaz de distinguir o ácido glutâmico dos restantes iões presentes na solução.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O veículo guiado automaticamente (AGV) adquirido pelo Departamento de Engenharia Mecânica (DEM) tem vindo a ficar obsoleto devido ao hardware, que nos dias de hoje começa a dar sinais de falhas bem como falta de peças de substituição, e ao software, sendo o PLC (Programmable Logic Controller) usado muito limitado quanto às suas funções de controlo, ficando as principais tarefas de controlo do AGV a cargo de placas eletrónicas de controlo. Para promover o controlo autónomo do AGV, foi decidido retirar toda a parte de hardware que detinha o controlo do mesmo e passou a ser um novo PLC, com maior capacidade de processamento, a executar todo o tipo de controlo necessário ao funcionamento do mesmo. O hardware considerado apenas incluí, de forma resumida, os motores responsáveis pelo movimento e direção, placa de controlo de potência dos motores, placa de interface entre as saídas digitais do PLC e as entradas da placa de controlo de potência dos motores e os demais sensores necessários à deteção de obstáculos, fins de curso da direção, sensores dos postos de trabalho e avisadores de emergência. Todo o controlo de movimento e direção bem como a seleção das ações a executar passou a ficar a cargo do software programado no PLC assim como a interação entre o sistema de supervisão instalado num posto de controlo e o PLC através de comunicação via rádio. O uso do PLC permitiu a flexibilidade de mudar facilmente a forma como as saídas digitais são usadas, ao contrário de um circuito eletrónico que necessita de uma completa remodelação, tempo de testes e implementação para efetuar a mesma função. O uso de um microcontrolador seria igualmente viável para a aplicação em causa, no entanto o uso do PLC tem a vantagem de ser robusto, mais rápido na velocidade de processamento, existência de software de interface de programação bastante intuitivo e de livre acesso, facilidade de alterar a programação localmente ou remotamente, via rádio, acesso a vários protocolos de comunicação robustos como Modbus, Canbus, Profinet, Modnet, etc., e acesso integrado de uma consola gráfica totalmente programável. iv É ainda possível a sua expansão com adição de módulos de entradas e saídas digitais e/ou analógicas permitindo expandir largamente o uso do AGV para outros fins. A solução está a ser amplamente testada e validada no Laboratório de Automação (LabA) do Departamento de Engenharia Mecânica do ISEP (Instituto Superior de Engenharia do Porto), permitindo a otimização dos sistemas de controlo de direção bem como a interatividade entre o PLC e o programa de interface/supervisão do posto de trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente relatório de estágio foi elaborado no âmbito da Unidade Curricular de DIPRE, Dissertação/Projeto/Estágio, do 2.º ano de Mestrado em Engenharia Civil do Instituto Superior de Engenharia do Porto, do ramo de estruturas, tendo como principal foco, a análise e dimensionamento de madres de aço enformado a frio e sua utilização com painéis do tipo sandwich em coberturas. Seções enformadas a frio são cada vez mais utilizadas em construções modernas, especificamente como estrutura secundária em coberturas, onde geralmente são fixas a painéis através de ligações aparafusadas. A presença de painéis e fixações através de parafusos permitem a estabilização lateral e torsional de madres aumentando desta forma a capacidade resistente, mas por serem elementos estruturais de espessura reduzida, os enformados a frio são suscetíveis a fenómenos de instabilidade associados. Desta forma, a norma EN 1993-1-3 [4] permite a análise e dimensionamento deste tipo de elementos através das disposições regulamentares preconizadas nas partes 1-1 [3] e 1-5 [5] da mesma norma. Num primeiro estudo, o presente trabalho tem como objetivo o dimensionamento e verificação de segurança de elementos enformados a frio com base na seção efetiva determinada com o auxílio das normas EN 1993-1-1 (regras gerais) e EN 1993-1-5 (regras para elementos estruturais constituídos por placas). Numa segunda fase, este trabalho pretende apresentar um estudo do comportamento de interação entre os sistemas madres-painéis. Para tal, são quantificadas as rigidezes das conexões dos sistemas e dos painéis para se realizarem a análise relativamente à restrição lateral e restrição torsional de madres. Neste contexto, concluiu-se que os painéis, quando fixos de forma adequada às madres, contribuem para a estabilidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho consistiu no desenvolvimento e caracterização de sensores potenciométricos com base em polímeros de impressão molecular para a determinação de um antibiótico, a norfloxacina, em aquacultura. A simplicidade, o baixo custo e a interação rápida e reversível dos sensores potenciométricos com os analitos fizeram com que este fosse o tipo de sensor escolhido. O material sensor foi obtido por tecnologia de impressão molecular, baseada em polimerização em bulk, em que a NOR foi a molécula molde e foram utilizados como monómeros para autoconstrução dos sensores o pirrol, isoladamente, ou em conjunto com partículas de sílica gel funcionalizadas com 3-aminopropil. Também foi obtido material sensor, para controlo, em que a molécula molde NOR não estava presente (NIP). As características dos materiais sensores foram sujeitas a análise de microscopia eletrónica SEM e análise por espectrómetro de infravermelhos com transformada de Fourier. Os materiais sensores foram incluídos em membranas poliméricas, que seriam incorporadas em elétrodos. A avaliação do desempenho dos elétrodos foi feita através de curvas de calibração em diferentes meios (PBS, MES e HEPES). Também foi efetuada com sucesso a análise da sensibilidade dos elétrodos em água dopada. As diversas avaliações e análises efetuadas levaram a concluir que o MIP de pirrol com aditivo aniónico, foi o material sensor testado que permitiu obter melhores propriedades de resposta.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os sistemas de monitorização de estruturas fornecem diversas vantagens, não só no que diz respeito à durabilidade da obra, ao aumento da segurança e do conhecimento relativamente ao comportamento das estruturas ao longo do tempo, à otimização do aspeto estrutural, bem como aos aspetos económicos do processo de construção e manutenção. A monitorização deve realizar-se durante a fase de construção e/ou de exploração da obra para permitir o registo integral do seu comportamento no meio externo. Deve efetuar-se de forma contínua e automática, executando intervenções de rotina para que se possa detetar precocemente sinais de alterações, respetivamente à segurança, integridade e desempenho funcional. Assim se poderá manter a estrutura dentro de parâmetros aceitáveis de segurança. Assim, na presente dissertação será concebido um demonstrador experimental, para ser estudado em laboratório, no qual será implementado um sistema de monitorização contínuo e automático. Sobre este demonstrador será feita uma análise de diferentes grandezas em medição, tais como: deslocamentos, extensões, temperatura, rotações e acelerações. Com carácter inovador, pretende-se ainda incluir neste modelo em sintonia de medição de coordenadas GNSS com o qual se torna possível medir deslocamentos absolutos. Os resultados experimentais alcançados serão analisados e comparados com modelos numéricos. Conferem-se os resultados experimentais de natureza estática e dinâmica, com os resultados numéricos de dois modelos de elementos finitos: um de barras e outro de casca. Realizaram-se diferentes abordagens tendo em conta as características identificadas por via experimental e calculadas nos modelos numéricos para melhor ajuste e calibração dos modelos numéricos Por fim, recorre-se a algoritmos de processamento e tratamento do respetivo sinal com aplicação de filtros, que revelam melhorar com rigor o sinal, de forma a potenciar as técnicas de fusão multisensor. Pretende-se integrar o sinal GNSS com os demais sensores presentes no sistema de monitorização. As técnicas de fusão multisensor visam melhor o desempenho deste potencial sistema de medição, demonstrando as suas valências no domínio da monitorização estrutural.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os modelos a ser analisados pelo Método de Elementos Finitos são cada vez mais complexos e, nos tempos que correm, seria impensável realizar tais análises sem um apoio computorizado. Existe para esta finalidade uma vasta gama de programas que permitem realizar tarefas que passam pelo desenho de estruturas, análise estática de cargas, análise dinâmica e vibrações, visualização do comportamento físico (deformações) em tempo real, que permitem a otimização da estrutura. Sob o pretexto de permitir a qualquer utilizador uma análise de estruturas simples com o Método dos Elementos Finitos, surge esta tese, onde se irá criar de raiz um programa com interface gráfica no ambiente MATLAB® para análise de estruturas simples com dois tipos de elemento finito, triangular de deformação constante e quadrangular de deformação linear. O software desenvolvido, verificado por comparação com um software comercial dedicado para o efeito, efetua malhagem com elementos bidimensionais triangulares e quadriláteros e resolve modelos arbitrados pelo Método de Elementos Finitos, representando estes resultados visualmente e em formato tabular.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Face à estagnação da tecnologia uniprocessador registada na passada década, aos principais fabricantes de microprocessadores encontraram na tecnologia multi-core a resposta `as crescentes necessidades de processamento do mercado. Durante anos, os desenvolvedores de software viram as suas aplicações acompanhar os ganhos de performance conferidos por cada nova geração de processadores sequenciais, mas `a medida que a capacidade de processamento escala em função do número de processadores, a computação sequencial tem de ser decomposta em várias partes concorrentes que possam executar em paralelo, para que possam utilizar as unidades de processamento adicionais e completar mais rapidamente. A programação paralela implica um paradigma completamente distinto da programação sequencial. Ao contrário dos computadores sequenciais tipificados no modelo de Von Neumann, a heterogeneidade de arquiteturas paralelas requer modelos de programação paralela que abstraiam os programadores dos detalhes da arquitectura e simplifiquem o desenvolvimento de aplicações concorrentes. Os modelos de programação paralela mais populares incitam os programadores a identificar instruções concorrentes na sua lógica de programação, e a especificá-las sob a forma de tarefas que possam ser atribuídas a processadores distintos para executarem em simultâneo. Estas tarefas são tipicamente lançadas durante a execução, e atribuídas aos processadores pelo motor de execução subjacente. Como os requisitos de processamento costumam ser variáveis, e não são conhecidos a priori, o mapeamento de tarefas para processadores tem de ser determinado dinamicamente, em resposta a alterações imprevisíveis dos requisitos de execução. `A medida que o volume da computação cresce, torna-se cada vez menos viável garantir as suas restrições temporais em plataformas uniprocessador. Enquanto os sistemas de tempo real se começam a adaptar ao paradigma de computação paralela, há uma crescente aposta em integrar execuções de tempo real com aplicações interativas no mesmo hardware, num mundo em que a tecnologia se torna cada vez mais pequena, leve, ubíqua, e portável. Esta integração requer soluções de escalonamento que simultaneamente garantam os requisitos temporais das tarefas de tempo real e mantenham um nível aceitável de QoS para as restantes execuções. Para tal, torna-se imperativo que as aplicações de tempo real paralelizem, de forma a minimizar os seus tempos de resposta e maximizar a utilização dos recursos de processamento. Isto introduz uma nova dimensão ao problema do escalonamento, que tem de responder de forma correcta a novos requisitos de execução imprevisíveis e rapidamente conjeturar o mapeamento de tarefas que melhor beneficie os critérios de performance do sistema. A técnica de escalonamento baseado em servidores permite reservar uma fração da capacidade de processamento para a execução de tarefas de tempo real, e assegurar que os efeitos de latência na sua execução não afectam as reservas estipuladas para outras execuções. No caso de tarefas escalonadas pelo tempo de execução máximo, ou tarefas com tempos de execução variáveis, torna-se provável que a largura de banda estipulada não seja consumida por completo. Para melhorar a utilização do sistema, os algoritmos de partilha de largura de banda (capacity-sharing) doam a capacidade não utilizada para a execução de outras tarefas, mantendo as garantias de isolamento entre servidores. Com eficiência comprovada em termos de espaço, tempo, e comunicação, o mecanismo de work-stealing tem vindo a ganhar popularidade como metodologia para o escalonamento de tarefas com paralelismo dinâmico e irregular. O algoritmo p-CSWS combina escalonamento baseado em servidores com capacity-sharing e work-stealing para cobrir as necessidades de escalonamento dos sistemas abertos de tempo real. Enquanto o escalonamento em servidores permite partilhar os recursos de processamento sem interferências a nível dos atrasos, uma nova política de work-stealing que opera sobre o mecanismo de capacity-sharing aplica uma exploração de paralelismo que melhora os tempos de resposta das aplicações e melhora a utilização do sistema. Esta tese propõe uma implementação do algoritmo p-CSWS para o Linux. Em concordância com a estrutura modular do escalonador do Linux, ´e definida uma nova classe de escalonamento que visa avaliar a aplicabilidade da heurística p-CSWS em circunstâncias reais. Ultrapassados os obstáculos intrínsecos `a programação da kernel do Linux, os extensos testes experimentais provam que o p-CSWS ´e mais do que um conceito teórico atrativo, e que a exploração heurística de paralelismo proposta pelo algoritmo beneficia os tempos de resposta das aplicações de tempo real, bem como a performance e eficiência da plataforma multiprocessador.