60 resultados para Automação bancária


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Baseado na tecnologia de interligação de redes, este trabalho apresenta uma proposta de conexão de dois sistemas com processamento próprio com o intuito de troca de informações, utilizando a pilha de protocolos TCP/IP. Este sistema será empregado em ambientes de controle industrial, permitindo o envio de informações do servidor de dados para o cliente. Os dados são constituídos de leituras feitas em equipamentos de campo, apresentando ao cliente remoto, medições dos mais diversos tipos. Por outro lado, o cliente poderá enviar comandos aos equipamentos de campo visando o telecontrole. Como ponto de partida para a elaboração do trabalho prático, foi utilizado o ambiente de controle do sistema de potência da companhia energética do estado do Rio Grande do Sul (CEEE). Um microcomputador com um browser acessa, através de uma rede local, os equipamentos controlados, que poderão ser qualquer tipo de equipamento de campo empregado em subestações de energia elétrica, como disjuntores, transformadores ou chaves. Para permitir o acesso remoto de tais equipamentos, foi elaborado um servidor de dados constituído de um controlador de rede do tipo Ethernet e um microcontrolador de aplicação específica que se encarrega do processamento da pilha de protocolos. O controlador Ethernet utilizado é um circuito integrado dedicado comercial, que executa o tratamento dos sinais de nível físico e de enlace de dados conforme o padrão IEEE 802.2. O processador TCP/IP, enfoque principal deste trabalho, foi elaborado através da linguagem de programação C, e a seguir traduzido para o Java, que é o ponto de partida para a ferramenta SASHIMI, de geração da descrição em VHDL do microcontrolador de aplicação específica utilizado. O processador TCP/IP encarrega-se da aquisição de dados do equipamento de campo, do processamento da pilha de protocolos TCP/IP, e do gerenciamento do controlador Ethernet. A partir desta descrição VHDL, foi sintetizado o hardware do microcontrolador em um FPGA, que juntamente com o software aplicativo, também fornecido pela ferramenta utilizada, desempenha o papel de processador TCP/IP para o sistema proposto. Neste ambiente, então, o cliente localizado no centro de operação, acessa através de um browser o equipamento de campo, visando obter suas medições, bem como enviar comandos, destacando o aspecto bidirecional para a troca de dados e a facilidade de conexão de dois sistemas heterogêneos. Este sistema pretende apresentar baixo custo de aquisição e de instalação, facilidade de interconexão local ou remota e transparência ao usuário final.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta Dissertação tem como objetivo analisar o Papel do Sistema Financeiro no Desenvolvimento Econômico Regional, no período de 1991 a 2000. No primeiro capítulo se procura caracterizar, de forma geral, o sistema financeiro e, de forma específica, a firma bancária, onde se confrontam a visão convencional e a visão pós-keynesiana, os modelos de financiamento do desenvolvimento econômico e seu papel nesse processo. É analisada, também, a experiência histórica e o modelo de alguns países. No segundo capítulo é abordada a evolução histórica do Sistema Financeiro Nacional, e a forma de como atuam os bancos públicos e privados, em nível nacional e regional. Neste mesmo capítulo, também se procura destacar o papel do sistema financeiro no processo do desenvolvimento econômico e justificar a manutenção das instituições financeiras públicas, para desempenhar a função de agente financiador do crédito, especialmente nas regiões menos desenvolvidas. No terceiro capítulo, é feita uma análise dos agregados monetários correspondente ao volume de depósitos e de crédito, em nível regional, no período de 1991 a 2000, enfatizando a distribuição dos recursos, entre bancos públicos e privados nas cinco regiões brasileiras. Procurou-se, também, comparar essas duas variáveis em relação ao PIB regional. Por fim, na conclusão, sugere-se a criação de mecanismos alternativos de financiamento, como o fomento e os incentivos fiscais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A competitividade cada vez mais acirrada e globalizada tem forçado as empresas a desenvolver produtos com maior qualidade em um menor tempo com custos cada vez mais baixos. Para isto, passaram a utilizar tecnologias de ponta na manufatura de seus produtos, que envolvem desde a concepção do produto até sua efetiva produção. Uma das etapas mais importantes na concepção de um produto manufaturado, a partir de um projeto, é o planejamento do processo produtivo. A essência dessa atividade é disponibilizar uma gama de informações bem detalhadas e organizadas para o chão de fábrica que pode incluir a seleção da máquinaferramenta, determinação dos parâmetros de corte, geração do programa NC e as instruções de trabalho. Na maioria das empresas o planejamento do processo é feito por processistas experientes que utilizam técnicas manuais, onde despedem tempo considerável fazendo cálculos, recuperando informações, escrevendo, digitando e detalhando o plano, e nenhuma dessas tarefas agrega valor diretamente ao produto. Assim somente uma pequena parcela do tempo total é utilizado na concepção e análise do produto. A introdução dos computadores na confecção do plano de processo torna o planejamento mais eficiente podendo dispor de mais alternativas além daquelas exploradas manualmente, e ainda há vantagens adicionais, como a realização de várias comparações de planos semelhantes para selecionar o melhor para cada caso, reduzindo o tempo de planejamento, exigindo menor experiência técnica dos processistas, resultando em aumento da produtividade com planos otimizados. O sistema desenvolvido dentro da filosofia de planejamento de processo variante-interativo, um método que se utiliza da tecnologia de grupo para formar famílias de peças, onde para cada família é desenvolvido um plano padrão, no qual torna-se a base de dados para novas peças, exigindo alterações apenas nos detalhes que não forem similares. Quando não existir um plano semelhante para nova peça este é gerado de forma interativa onde o processista tem o auxílio do computador na definição da folha de processo, ao contrário de um sistema generativo que utiliza uma programação mais complexa e cria automaticamente planos de processo distintos para a nova peça. Os planos de processo gerados contem os processos de usinagem, as máquinas para realizar os mesmos, ferramentas e portaferramentas, sistemas de fixação, os parâmetros de corte e o sequenciamento das operações. O sistema foi projetado em Visual Basic, uma linguagem que disponibiliza uma interface gráfica amigável com o usuário. O conjunto das informações estritamente necessárias para o desenvolvimento do programa é armazenado em um sistema de gerenciamento de banco de dados relacional (ACCESS), sistema esse escolhido por ter a vantagem de permitir manipular mais de um aplicativo ao mesmo tempo, estabelecendo relações entre eles, buscando eliminar a duplicidade de informações, impondo integridade referencial, reduzindo o espaço de armazenamento e facilitando a atualização dos dados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na era de sistemas embarcados complexos, a interface direta de dispositivos e sistemas integrados para o mundo real demanda o uso de sensores e seus circuitos analógicos de suporte. Desde que a maioria das características físicas de um sensor requer algum tipo de calibração, este trabalho compara e discute quatro técnicas digitais de calibração adaptadas para aplicação em sistemas embarcados. Para fins de comparação, estes métodos de calibração foram implementados em Matlab5.3, e em um DSP (Digital Signal Processor) . Através das medidas realizadas durante a operação em regime do DSP, pode-se determinar parâmetros importantes de projeto, como potência dissipada e tempo de processamento. Outros critérios de comparação, como área consumida, tempo de processamento, facilidade de automação e taxa de crescimento do custo área e do custo velocidade com o aumento de resolução também foram analisados. Os resultados das implementações são apresentados e discutidos com o objetivo de descobrir qual o melhor método de calibração para aplicações em sistemas embarcados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Internet. Desde a versão 2.0 do HTML, entretanto, pouco foi melhorado no modelo de formulários proposto. Ao mesmo tempo, as necessidades dos desenvolvedores e os requisitos dos usuários cresceram dramaticamente. O W3C apontou uma resposta para as necessidades levantadas, o padrão XForms. O padrão XForms visa substituir o modelo de formulários definido no HTML por um modelo que separa o propósito da apresentação, adicionando, desta forma, a característica de independência de plataforma. A proposta deste trabalho é analisar o padrão XForms em relação à utilização de formulários HTML tradicionais, e à outras soluções existentes para automação de formulários na Internet, utilizando para isto uma aplicação piloto que procure utilizar alguns dos principais recursos disponíveis no padrão. Os pontos fortes, pontos fracos, dificuldades e lições aprendidas capturadas durante o desenvolvimento da aplicação piloto formam uma base de conhecimento apresentada neste trabalho.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho de safra no beneficiamento do fumo, em Santa Cruz do Sul, no Rio Grande do Sul, se articula significativamente com as discussões contemporâneas sobre precarização do trabalho e sobre tempo. Este trabalho sazonal traz a marca da precarização desde seus primórdios, indicando que práticas precarizantes já existem há muito tempo, embora sua discussão seja atual. A progressiva redução do número de postos de trabalho, a redução do período da safra, a automação do processo do trabalho desenvolvida pelas empresas e o aumento de exigência para a admissão de safristas, em relação à escolaridade, indicam a instabilidade e exclusão social que perpassam estes trabalhadores e que não ocorrem sem reflexos em seu processo de subjetivação. A partir de uma pesquisa com safristas do sexo feminino, sindicalizadas, de diferentes funções e empresas, procedemos, neste trabalho, a uma análise de como os safristas vivenciam este trabalho de poucos meses, com repetição e interrupção previsível, quais os elementos de precarização que estão presentes nas condições de trabalho, bem como os efeitos que produzem na subjetivação destes trabalhadores. Para realizar a pesquisa e a análise dos dados, utilizamos o aporte teórico da Psicologia, Sociologia, Psicodinâmica do Trabalho e Filosofia, em uma metodologia qualitativa em que o tratamento dos dados baseou-se na análise de conteúdo. Os resultados indicam que os safristas se subjetivam pela negativa do emprego pleno, efetivo, sendo perpassados pela lógica da desfiliação mesmo em período de safra, tendo inscrição social nesta condição de espera, à margem do modelo imposto pelo capital.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Uma organização é um arranjo sistemático composto de duas ou mais pessoas que compartilham um objetivo comum. A estrutura organizacional envolve um conjunto de aspectos ou parâmetros estruturais, os quais são freqüentemente conhecidos através da análise de documentos de planejamento existentes na organização, além de entrevistas com os funcionários e com a direção. Todavia, nem sempre a organização apresenta estas fontes de informação, dificultando o seu entendimento. Autores e profissionais da administração argumentam que a estrutura de uma organização deve ser delineada em função das necessidades dos seus processos de negócio e não vice-versa. Seguindo esta linha de raciocínio, pode-se, concluir que a estrutura dos processos de negócio está refletida na estrutura organizacional. Um processo de negócio é um conjunto de um ou mais procedimentos ou atividades relacionadas as quais, coletivamente, realizam um objetivo de negócio no contexto de uma estrutura organizacional. As organizações modernas apresentam demandas relacionadas à automação de seus processos de negócio devido à alta complexidade dos mesmos e a necessidade de maior eficiência na execução. Por este motivo é crescente a difusão de sistemas baseados em tecnologias de informação capazes de proporcionar uma melhor documentação, padronização e coordenação dos processos de negócio. Neste contexto, a tecnologia de workflow tem se mostrado bastante eficaz, principalmente, para a automatização dos processos de negócio. Contudo, por ser uma tecnologia emergente e em evolução, workflow apresenta algumas limitações. Uma das principais é a ausência de técnicas que garantam correção e eficiência ao projeto de workflow nas fases de análise de requisitos e modelagem. Nestas fases, os projetistas precisam adquirir conhecimento sobre a organização e seus processos de negócio. O entendimento da organização pode ser dificultado devido à ausência de documentos de planejamento e a problemas de conflitos de linguagem e resistências culturais que podem surgir nas entrevistas. Este trabalho tem por objetivo investigar as relações entre diferentes tipos de estrutura organizacional e (sub)processos de workflow específicos. Caso existentes, tais relações podem tanto facilitar o Projeto de workflow a partir do conhecimento da estrutura organizacional, como, também, permitir o entendimento da organização a partir de processos de workflow já existentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os controladores programáveis tornaram-se fator decisivo para o controle de processos em ambientes industriais. Permitir o gerenciamento desses, eleva-os ao mesmo grupo de outros equipamentos da rede. Gerenciar esses dispositivos e o processo controlado tende a facilitar a identificação de falhas, as intervenções no processo e demais vantagens trazidas por um bom esquema de gerência. Uma maneira de realizar esse gerenciamento é por meio de programas conhecidos como supervisórios. Além das aplicações de supervisão, uma nova classe de ferramentas, que também possibilita o gerenciamento tanto do controlador quanto do processo a esse submetido, vem sendo disponibilizada. A presença de protocolos de gerenciamento, tal qual o SNMP, já é uma realidade em alguns dos modelos de equipamentos oferecidos por vários fabricantes, promovendo uma integração com plataformas de gerência já existentes no mercado. A proposta deste trabalho inclui a elaboração de um modelo de gerenciamento usando XML, atualmente em ampla ascensão e aceitação. Está, também, previsto a construção de um protótipo capaz de realizar as funções de um agente. A criação de um modelo de gerenciamento baseado em tecnologias e especificações abertas, tais como XML e Web, possibilita desde a utilização de um navegador, até o desenvolvimento de novas ferramentas para a requisição/aquisição de dados em controladores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Comitê de Supervisão Bancária da Basiléia, um dos organismos mais respeitados no mundo em normatização da indústria bancária, emitiu, em setembro de 1998, o documento: Framework for Internal Control Systems in Banking Organizations, que trata da necessidade da manutenção de controles internos adequados para a natureza e para a escala dos negócios das instituições financeiras. O documento originou-se a partir de pressões internacionais por controles internos mais eficientes e eficazes. De acordo com o documento, os instrumentos de controle devem incluir disposições claras para a delegação de competência e responsabilidade; a separação de funções que envolvam a assunção de compromissos pelos bancos, a utilização de seus recursos financeiros e a responsabilidade por seus ativos e passivos; a reconciliação de tais processos; a proteção de seus ativos; e as funções apropriadas de auditoria e de conformidades independentes, internas ou externas, para verificar a adesão a tais controles, assim como às leis e regulamentos aplicáveis. O Comitê de Supervisão Bancária da Basiléia verificou que diversos problemas ocorridos em grandes organizações bancárias poderiam ser evitados com um sistema eficiente de controles internos. Vários casos estudados demonstraram que controles internos inadequados resultaram em perdas significativas para os bancos. Assim, esta dissertação apresenta, com base no documento acima citado, os tipos de perdas e a análise dos princípios de controles internos recomendados pelo Comitê de Supervisão Bancária da Basiléia e adotados no Brasil a partir da publicação pelo Conselho Monetário Nacional da Resolução 2.554, de 24 de setembro de 1998.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O fornecimento de facilidades de QoS em redes de computadores tem por objetivo introduzir níveis das garantias que são ausentes, por exemplo, no paradigma de melhor-esforço das redes IP. Diferentes arquiteturas de QoS possuem padrões diferentes para os serviços fornecidos, que conduzem a um cenário em que a QoS prevista não possa ser sempre fornecida corretamente pela arquitetura utilizada. Neste contexto, uma monitoração da QoS é necessária para verificar a QoS observada e para compará-la com a QoS esperada/ contratada. Em uma rede que utilize gerenciamento baseado em políticas, a QoS esperada é definido pelas políticas que regem o comportamento da rede. O Internet Engineering Task Force (IETF) tem padronizado vários elementos para um sistema de gerenciamento de redes baseado em políticas (PBNM), no qual políticas são definidas utilizando-se linguagem de alto nível, armazenadas em repositórios para políticas, aplicadas com o auxilio de Policy Decision Points (PDPs) e mantidas por Enforcement Points (PEPs). Pela definição do IETF, uma vez que uma política é aplicada com sucesso, o sistema de PBNM não mais checará o comportamento desta, e a QoS definida é assumida com a fornecida pela rede. De fato, isso nem sempre é verdade. A arquitetura da qual provém a QoS pode apresentar-se instável ou mediante problemas, logo a QoS esperada não seria atingida. Para verificar a degradação na QoS em ambientes de gerenciamento reais, atualmente, o administrador da rede monitora a rede e determina a QoS fornecida. Tal QoS é, por sua vez, manualmente comparada com a QoS definida pelas políticas de rede. Finalmente, se diferenças são encontradas, o administrador procede com medidas que levem a arquitetura a um estado consistente Nos dias de hoje, as definições e aplicações de políticas e monitoração de QoS são tarefas executadas separadamente pelas soluções disponíveis. Além disso, como demonstrado anteriormente, a verificação da QoS fornecida contra a QoS definida pelas políticas da rede é deixada a cargo do administrador da rede. Nesse contexto, a automação da monitoração das políticas de QoS e a integração entre as tarefas citadas são necessárias do ponto de vista do administrador da rede. Nesta dissertação, é proposta uma definição (e um sistema) para a monitoração de QoS em que as definições de políticas são dados de entrada utilizados para checar a QoS observada. No momento em que uma degradação na QoS é detectada, o sistema de monitoração notifica um gerente com suporte a SNMP utilizando mensagens do tipo InformRequest. A arquitetura do sistema é dividida internamente em monitores de QoS e controladores de monitores de QoS. Cada controlador de monitor de QoS controla vários monitores de QoS, os quais coletam dados da rede. Tais dados são comparados com as políticas traduzidas pelo controlador, e, caso sejam detectadas degradações, o controlador de monitor de QoS notifica o gerente. A comunicação entre controlador de monitores de QoS e monitores de QoS também é baseada em SNMP. O principal objetivo do trabalho é fornecer uma solução que integre monitoração de QoS e PBNM em um único ambiente de gerenciamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta a sistemática do Desdobramento da Função Qualidade (QFD), como método de planejamento, aplicado numa empresa do ramo oftalmológico. A premissa básica utilizada é o levantamento dos requisitos do cliente e a transformação destes requisitos em metas a serem alcançadas pela empresa. O QFD foi utilizado como meio de translado destas informações. A utilização do QFD, como forma de captar as necessidades do mercado, interpretá-las e conduzi-las, ao longo do processo de desenvolvimento das matrizes, atingindo os setores na organização, é o estudo abordado neste trabalho. O modelo de QFD utilizado neste trabalho é uma adaptação do modelo de AKAO, proposto por Ribeiro et al., para processos de manufatura. O modelo foi aplicado em uma empresa do grupo Bausch&Lomb. Os resultados encontrados ao desdobrar os requisitos de qualidade dos clientes permitiram que a empresa desenvolvesse planos de ação objetivando conquistar uma maior fatia de mercado. A área de pintura foi priorizada e como principais ações pode-se citar o desenvolvimento de uma nova tinta e automação do processo de pintura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta a estruturação de um controle difuso, para a automação de reatores seqüenciais em batelada (RSB), no processo de remoção biológica de matéria orgânica e nitrogênio em águas residuárias domésticas, utilizando parâmetros inferenciais, pH, ORP e OD, em que as variáveis controladas foram as durações da reação aeróbia e anóxica. O experimento, em escala de bancada, foi composto por dois reatores seqüenciais em batelada, com volume útil de 10 L, no qual 6 L foram alimentados com esgoto sintético, com características de águas residuárias domésticas. O sistema de automação foi composto pela aquisição dos parâmetros eletroquímicos (pH, ORP e OD), pelos dispositivos atuadores (motor-bomba, aerador e misturador) e pelo controle predeterminado ou difuso. O programa computacional CONRSB foi implementado de forma a integrar o sistema de automação. O controle difuso, implementado, foi constituído pelos procedimentos de: normalização, nebulização, inferência, desnebulização e desnormalização. As variáveis de entrada para o controlador difuso, durante o período: aeróbio foram dpH/dt, dpH/d(t-1) e o pH ; anóxico foram dORP/dt, dORP/d(t-1) e o OD. As normalizações das variáveis crisps estiveram no universo de [0,1], utilizando os valores extremos do ciclo 1 ao 70. Nas nebulizações foram aplicadas as funções triangulares, as quais representaram, satisfatoriamente, as indeterminações dos parâmetros. A inferência nebulosa foi por meio da base heurística (regras), com amparo do especialista, em que a implicação de Mamdani foi aplicada Nessas implicações foram utilizadas dezoito expressões simbólicas para cada período, aeróbio e anóxico. O método de desnebulização foi pelo centro de áreas, que se mostrou eficaz em termos de tempo de processamento. Para a sintonia do controlador difuso empregou-se o programa computacional MATLAB, juntamente com as rotinas Fuzzy logic toolbox e o Simulink. O intervalo entre as atuações do controlador difuso, ficou estabelecido em 5,0 minutos, sendo obtido por meio de tentativas. A operação do RSB 1, durante os 85 ciclos, apresentou a relação média DBO/NTK de 4,67 mg DBO/mg N, sendo classificado como processo combinado de oxidação de carbono e nitrificação. A relação média alimento/microrganismo foi de 0,11 kg DBO/kg sólido suspenso volátil no licor misto.dia, enquadrando nos sistemas com aeração prolongada, em que a idade do lodo correspondeu aos 29 dias. O índice volumétrico do lodo médio foi de 117,5 mL/g, indicando uma sedimentação com características médias. As eficiências médias no processo de remoção de carbono e nitrogênio foram de 90,8% (como DQO) e 49,8%, respectivamente. As taxas específicas médias diárias, no processo de nitrificação e desnitrificação, foram de 24,2g N/kg SSVLM.dia e 15,5 g N/kg SSVLM.dia, respectivamente. O monitoramento, em tempo real, do pH, ORP e OD, mostrou ter um grande potencial no controle dos processos biológicos, em que o pH foi mais representativo no período aeróbio, sendo o ORP e o OD mais representativos no período anóxico. A operação do RSB com o controlador difuso, apresentou do ciclo 71 ao 85, as eficiências médias no processo de remoção de carbono e nitrogênio de 96,4% (como DQO) e 76,4%, respectivamente. A duração média do período aeróbio foi de 162,1 minutos, que tomando como referência o período máximo de 200,0 minutos, reduziu em 19,0% esses períodos. A duração média do período anóxico foi de 164,4 minutos, que tomando como referência o período máximo de 290,0 minutos, apresentou uma redução de 43,3%, mostrando a atuação robusta do controlador difuso. O estudo do perfil temporal, no ciclo 85, mostrou a atuação efetiva do controlador difuso, associada aos pontos de controle nos processos biológicos do RSB. Nesse ciclo, as taxas máximas específicas de nitrificação e desnitrificação observadas, foram de 32,7 g NO3 --N/kg sólido suspenso volátil no licor misto.dia e 43,2g NO3 --N/kg sólido suspenso volátil no licor misto.dia, respectivamente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A década de 1990 é caracterizada pela liberalização financeira internacional, e pelo aumento da importância do setor bancário na intermediação destes recursos. Com a ocorrência de diversas crises cambiais e bancárias em economias emergentes nesta década, cresce a necessidade de reformulação das teorias tradicionais sobre crises cambiais, para comportar esta nova realidade. Neste sentido, este trabalho pretende contribuir teoricamente ao sugerir, em linhas gerais, um modelo analítico que relacione a expansão do crédito doméstico à fragilidade bancária e ao papel do Banco Central de emprestador em última instância para os bancos. Empiricamente, é formulado um índice de pressão no mercado cambial, incluindo os componentes tradicionais de variação da taxa de câmbio, das reservas e do diferencial entre as taxas de juros doméstica e internacional, acrescido de um componente novo de variação dos depósitos bancários. Além disso, é estimado um modelo em painel para 13 países emergentes, do primeiro trimestre de 1995 ao quarto trimestre de 2000, o qual procura identificar a influência de algumas variáveis econômicas e políticas na pressão no mercado cambial. Os resultados sugerem que o crédito do Banco Central ao setor bancário, o aumento das exigibilidades de curto prazo em relação às reservas, o contágio de da tensão cambial nos outros países emergentes e o risco político são significativos para explicar o aumento da vulnerabilidade dos países à ocorrência de crises cambiais. Em relação ao déficit público, não foram encontradas evidências de que esta variável seja significativa para explicar a tensão no mercado cambial.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho trata do desenvolvimento de um sistema para comunicação bidirecional entre um robô ABB IRB 1400, originalmente desprovido de uma interface de comunicação de dados, e um microcomputador PC padrão. Para a implementação utilizou-se a porta paralela do PC e uma Placa E/S Digital para sinais discretos disponível no controlador do robô. Devido à diferença de caracterìsticas elétricas entre as interfaces utilizadas, foi necessáio projetar um dispositivo que permitisse o ajuste dos niveis de tensão entre os sinais. Osistema foi elaborado visando sua utilização por programas desenvolvidos pelos usuários em ambiente Windows, sendo disponibilizadas rotinas para envio e recebimento de dados através de um protocolo próprio. Na plataforma PC as rotinas estão encapsuladas em um arquivo compilado no formato DDL (Dynamic Link Library). No controlador do robô as rotinas foram criadas em linguagem ABB RAPID. O programa desenvolvido pelo usuário é responsável por todo o processamento das informações, que são então enviadas através do sistema de comunicação a um outro programa específico sendo executado no controlador do robô, o qual interpreta os dados e ativa as tarefas correspondentes. Os resultados obtidos foram satisfatórios, sendo a velocidade de transmissão limitada pela velocidade da Placa E/S do robô. Utilizando-se uma placa ABB DSQC 223, atingiram taxas de transmissão da ordem de 12,5 bytes/s para envio e 6,1 bytes/s para o recbimento de informaçãoes a partir do PC. O sistema demonstrou ser uma alternativa viável para o controle do robô através de um microcomputador PC, apresentando boa confiabilidade, baixo custo e faciliadade de implementação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa compreende o estudo ergonômico no setor bancário, dando ênfase aos aspectos biomecânicos e posturais, desenvolvido junto a um grupo de funcionários de uma instituição financeira localizada em Curitiba e Região Metropolitana no Estado do Paraná. Teve como objetivo contribuir para um melhor entendimento das questões relativas à redução de problemas e queixas músculo-esqueléticas em instituições bancárias. A metodologia elaborada, foi aplicada em quatro etapas: análise da demanda (levantamento das queixas e afastamentos devidos a suspeita de DORT; diagnose primária (compreendeu uma avaliação in loco dos problemas nos postos de trabalho e a aplicação de dois checklist, sendo um para análise das condições de trabalho e outro para inspeção ergonômica quanto ao risco de tenossinovites e outras lesões por traumas cumulativos, seguido de aplicação de dois questionários: o de Corlett para avaliação da percepção de desconforto muscular durante a jornada de trabalho e de Qualidade de Vida no Trabalho – QVT); ações corretivas primárias (palestras de sensibilização com as chefias e com os trabalhadores, dinâmicas de realização de micropausas e orientações individuais nos postos de trabalho com acompanhamento semanal durante três meses em cada agência). A última etapa, a avaliação geral da abordagem empregada, foi levada a efeito com nova aplicação dos questionários de auto avaliação de Corlett e QVT. São apresentados resultados que evidenciam melhoria na percepção dos funcionários sobre sintomas de dor e desconforto e também sobre Qualidade de Vida no Trabalho. Ficou evidente a necessidade do desenvolvimento de um processo continuado de educação em saúde, visando a percepção corporal durante a jornada de trabalho e para que saibam gerenciar seu estilo de vida. Os resultados mostram também que uma das causas de queixas de dor ou desconforto dos trabalhadores eram biomecânicas e tensionais. Conclui-se que a instituição bancária se volta cada vez mais para os aspectos ergonomia e qualidade, por entender que, ela necessita oferecer uma qualidade superior de vida para seus trabalhadores, em seus ambientes de trabalho, para então, e somente assim, poder oferecer qualidade a seus clientes. Para tanto, a ergonomia deve ser posta a serviço do homem, buscando a adaptação das condições de trabalho ao homem, de forma saudável, segura, confortável e produtiva.