1000 resultados para Falhas normais


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho foca a comunicação entre aplicações, em especial o caso em que estas são tecnologicamente diferentes entre si. Pretende-se uma forma de as aplicações trocarem informação em segurança, abstraindo-se das suas diferenças e localização física. Para tal, é necessário um meio transversal às tecnologias/plataformas, capaz de esconder as especificidades de cada interveniente e tornar a comunicação transparente entre os seus interlocutores. Um bus de mensagens apresenta-se neste cenário como o meio de alcançar tais necessidades. O bus de mensagens desenvolvido neste projecto dispõe de mecanismos de tolerância a falhas, encaminhamento, transformação e segurança. O encaminhamento suporta comunicação ponto–a–ponto e publicador–subscritor. A transformação de mensagens pode ser feita ao nível dos tipos de dados, do formato e do transporte. Relativamente à segurança, é controlado o acesso a cada aplicação e protegida a informação trocada entre clientes. A solução implementada apresenta ainda vários pontos de extensibilidade ao nível das funcionalidades, dos comandos e dos protocolos de comunicação com os clientes. O bus de mensagens implementado foi testado e avaliado em diferentes cenários de carga, que verificam a conformidade das funcionalidades desenvolvidas e permitiram medir o seu nível de serviço.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente dissertação expõe os conhecimentos adquiridos ao longo da experiência acumulada a nível profissional na Alstom Portugal, conjuntamente com os que foram transmitidos durante a frequência do curso de Mestrado de Engenharia Mecânica – Perfil de Manutenção e Produção. O tema da tese aborda o estudo do aço X10CrMoVNb9-1 (P91), com particular incidência em juntas soldadas, que têm estado associadas nos últimos anos ao aparecimento de falhas em centrais termoeléctricas numa fase prematura do seu funcionamento, designadas por fissuração do tipo IV, que ocorrem na zona termicamente afectada pela soldadura onde o grão é mais refinado. A optimização de parâmetros de soldadura e tratamento térmico é essencial para que se consigam obter tempos de resistência à rotura por fluência que estejam em consonância com o definido em fase de projecto. Tendo em consideração a durabilidade dos ensaios de fluência, optou-se para este estudo por efectuar-se uma recolha de dados relativos a estes ensaios realizados em materiais base e juntas soldadas nos últimos quinze anos, com o objectivo de optimização de parâmetros de soldadura e tratamentos térmicos associados. Como conclusões, verificou-se que os diferentes processos de soldadura utilizados não têm uma influência significativa no que corresponde à variação do tempo de rotura por fluência. A utilização de um tratamento térmico de normalização e revenido após soldadura permite uma melhoria de valores de resistência à fluência comparativamente ao tratamento térmico convencional, que é normalmente aplicado em fabrico de componentes sob pressão que utilizam este material. Dada a dimensão e complexidade da maioria destes componentes, estes tratamentos térmicos só podem ser utilizados quando as dimensões dos mesmos possibilitarem a sua colocação em fornos de tratamento térmico habitualmente existentes nos fabricantes. Uma opção viável a ser tomada , no caso de utilização destes materiais, passa por uma redução da tensão de serviço por aumento de espessura dos respectivos componentes. No entanto, este aumento de espessura deve ter em consideração mecanismos de fadiga térmica que devem ser equacionados conjuntamente com os mecanismos de fluência, com o objectivo de se obter os melhores compromissos para cada situação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os ensaios acelerados de vida são testes que se realizam com o objectivo de estimar determinados parâmetros fiabilísticos, referentes a um dado bem, provocando-lhe a ocorrência de um dado modo de falha específico num espaço de tempo mais curto do que aquele em que normalmente este evento ocorreria. É através dos ensaios acelerados, e de modelos analíticos específicos, que se torna então possível prever as falhas antes de estas ocorrerem, potenciando atempadamente possíveis alterações de projecto ou concepção, antes do bem entrar no mercado. Este tipo de ensaios possibilita, por exemplo ao fabricante, uma economia de tempo na determinação da informação de dados de vida (considerados relevantes) que deverá acompanhar o produto na sua comercialização. Para uma melhor compreensão da temática, abordam-se no trabalho duas áreas essenciais, nomeadamente: O conceito de Fiabilidade e o conceito de Ensaios Acelerados de Vida. Ao longo do documento podem-se analisar os modelos mais utilizados em Ensaios Acelerados, como o Modelo de Arrhenius, o Modelo de Eyring, o Modelo de Potência Inversa e o Modelo de Temperatura e Humidade. Também são apresentadas algumas distribuições importantes relacionadas com esses modelos, como a Distribuição Normal, a Distribuição Lognormal, a Distribuição Exponencial e a Distribuição de Weibull. Para verificação da metodologia, realizou-se uma aplicação experimental, tendo por base a normalização existente e os parâmetros seguidos pelo fabricante do componente estudado. Para tratamento dos dados resultantes dos ensaios acelerados utiliza-se o programa ALTA 7.0 PRO, que de uma forma expedita permite extrapolar das condições de ensaio para uma utilização normal, e assim determinar os parâmetros fiabilísticos correspondentes ao bem. De salientar que este ‘’software’’ pode trabalhar com um ou mais níveis de aceleração, como por exemplo conjugar a influência da temperatura com a humidade. O conhecimento dos modelos usados nesta área permite compreender a metodologia de ensaios acelerados e o comportamento dos componentes. Os dados demonstram uma alta precisão dos resultados, num período de tempo reduzido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Ministério da Saúde, considerando a existência de falhas do ponto de vista quantitativo (cobertura) no registro de nascidos vivos, no Brasil, e a impossibilidade de conhecer a distribuição dos nascidos vivos segundo algumas variáveis importantes sob a óptica clínico/epidemiológica (peso ao nascer, Índice de Apgar, duração da gestação, tipo de parto, paridade, idade e instrução da mãe), implantou em 1990, no Brasil, o Sistema de Informações sobre Nascidos Vivos - SINASC- tendo como documento-base a Declaração de Nascido Vivo - DN - com a finalidade de suprir essas lacunas. Com o objetivo de avaliar a cobertura e a fidedignidade das informações geradas pelo SINASC, foi analisada a distribuição dos nascidos vivos hospitalares segundo características epidcmiológicas relativas ao produto de concepção, à gravidez, ao parto e à mãe. A população de estudo compreendeu 15.142 nascidos vivos hospitalares ocorridos em cinco municípios do Estado de São Paulo, Brasil, no período de janeiro a julho de 1992. Os resultados permitiram reconhecer excelente cobertura do SINASC (emissão de DN acima de 99,5%) e ótima fidedignidade do preenchimento das DNs, para a maioria das variáveis, quando comparadas aos documentos hospitalares. Para algumas características foi observada maior fragilidade (Índice de Apgar, duração da gestação, instrução da mãe, número total de filhos tidos e nome do pai). São apresentadas sugestões para o aperfeiçoamento do SINASC e recomendados treinamentos/reciclagens do pessoal envolvido no preenchimento das DNs. O estudo confirma o fato de os dados permitirem análise válida para o conhecimento de aspectos ligados à saúde materno-infantil. Do ponto de vista epidemiológico, o estudo permitiu detectar proporções elevadas de parto operatório (48,4%), mães adolescentes (17,5%) e o valor estimado para o baixo peso ao nascer foi de 8,5%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No actual ambiente competitivo, o baixo custo, a alta qualidade e um grau crescente de personalização são exigências para a sobrevivência das empresas que têm influenciado as acções dos profissionais de manutenção com vista ao aperfeiçoamento das políticas de manutenção. Como resultado, surgiu na área de manutenção industrial uma grande quantidade de métodos, softwares, modelos e ferramentas de gestão, onde se destaca o RCM (Reliability Centered Maintenance ou Manutenção Centrada na Fiabilidade) de origem Norte Americana na década de 60. Inicialmente começou-se a utilizar este método na indústria de aviação passando posteriormente a ser utilizada também pelo Exército dos E.U.A. e a partir da década de 80 por outras indústrias comerciais. Após a explicação da metodologia RCM e tendo como base o modelo da moto Softail, começou-se por definir o sistema através da preparação para a análise, selecção do equipamento a ser analisado e identificação das funções. Após definição do sistema passa-se à sua análise. Neste caso optou-se pela análise FMEA onde se identificam as falhas funcionais, os efeitos e causas dessas mesmas falhas, conhecendo-se o histórico de avarias do modelo Softail durante o período de garantia, desde 1999 até ao presente ano. Do histórico de avarias durante o período de garantia, e após estudo do mesmo, conclui-se que 28,35% das avarias são cosméticas, relativas a problemas de cromados (danos ou qualidade dos cromados) avarias essas que não influenciam o desempenho do motociclo; 9,58% de problemas relativos a baterias, problemas esses que poderão influenciar o normal funcionamento do motociclo e que se deverá ter mais atenção; 7,66% dos motociclos tiveram problemas de entrada de água para o interior do velocímetro, uma vez mais este problema não interfere com o bom desempenho do motociclo; 4,6% relativos a danos na pintura, uma vez mais problema cosmético que não interfere com o bom desempenho do motociclo; segue-se 4,21% devido a barulhos na frente do motociclo e que deverá requerer alguma atenção; 4,21% de mau funcionamento da instrumentação eléctrica, onde se deverá ter também atenção. No estudo da FMEA conclui-se que o principal efeito/consequência gerado pela falha da bateria (falha com maior frequência) é o não funcionamento do motor por falta de alimentação do sistema de gestão electrónica do motociclo e consequente imobilização do mesmo. Com base na FMEA realizada foram salientados os aspectos, em termos de modos de falha, que são mais importantes, com base nas reclamações em prazo de garantia, tais como questões estéticas dos cromados e pinturas e problemas relacionados com o funcionamento da bateria, entre outros. Na FMEA podem ser vistos em termos criticidade todos os modos de falha, através do RPN (Risk Priority Number), ou em português Número de Prioridade de Risco, mostrando assim onde a marca pode aplicar prioridades em termos de acções de projecto ou manutenção. Com estas alterações pretende-se aumentar a fiabilidade do modelo Softail, podendo no futuro alargar este novo plano de manutenção às restantes famílias da gama Harley-Davidson.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho aborda-se as rodas (pneus + jantes) e travões das frotas A319,A320, A320 SATA, A330 e A340 da TAP. Procurou-se realizar uma análise ao actual estado destes componentes, tendo sempre em mente eventuais melhorias a propor caso fosse possível. O estudo dividiu-se nas seguintes partes: prestação, custos, tipo de falhas, manutenção e fiabilidade. Nos três primeiros referenciados pretendeu-se analisar o estado dos componentes e ver potenciais padrões de falhas e irregularidades analisando também os custos de modo a sugerir potenciais reduções caso o cenário assim o permitisse. Salienta-se também que, para este trabalho, as temáticas manutenção e fiabilidade encontram-se interligadas. Teve-se em mente a realização de um estudo da probabilidade de falha dos componentes e assim, averiguar a possibilidade de melhorias no actual estado de manutenção praticado. Para tal, para os dados fiabilisticos recorreu-se ao programa Reliasoft Weibull++7 de modo a podermos observar a evolução do estado do componente ao longo dos ciclos. Por fim, deu-se uso a uma ferramenta fiabilistica, com o auxílio do software Maple 12 que visa a obtenção de um ponto mínimo de custo da manutenção de um componente, tendo a finalidade de comparar com o actual cenário de manutenção correctiva.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Foi realizado em Pelotas, RS, Brasil, estudo de intervenção randomizado, para a promoção do aleitamento materno. Grupo de 450 mães e lactentes foram visitados em casa aos 5, 10 e 20 dias após o nascimento, e comparados com um grupo-controle do mesmo número. Noventa e dois por cento das famílias no grupo de intervenção receberam as três visitas planejadas. A avaliação do padrão de aleitamento materno e causas de desmame aconteceu seis meses depois do nascimento para ambos os grupos. Noventa e quatro por cento do grupo de intervenção e noventa e dois por cento do grupo-controle foram encontrados na visita de avaliação. A intervenção aumentou a duração do aleitamento (mediana de 120 dias no grupo de intervenção, contra 105 dias no grupo-controle; p=0,03) e retardou a introdução do leite artificial (mediana de idade de 90 dias no grupo de intervenção e 60 dias no grupo-controle; p=0,01). As causas de desmame foram classificadas como subjacentes, intermediárias, e imediatas. A causa subjacente mais comum foi "o bebê chora muito", sugerindo que as mães devem ser instruídas a respeito dos padrões normais de comportamento do lactente nas primeiras semanas de vida, em particular da necessidade que a criança tem de chorar e o fato de que isto, não necessariamente, significa fome.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O processo de estampagem metálica é dos processos mais utilizados na indústria. Como resultado, qualquer pequeno avanço tecnológico, representa uma enorme melhoria no processo. O processo de estampagem metálica é realizado num curto período de tempo, com forças muito elevadas que promovem deformações elasto-plásticas, endurecimento do material e geração de calor por deformação plástica e também por atrito. Como resultado, muitos problemas podem ocorrer, tais como micro-fissuras, macro-fissuras, engelhamento, defeitos de forma estricções localizadas, fracturas, etc. Quando uma destas falhas ocorre, é importante fazer um diagnóstico das causas do problema. O método de elementos finitos, pode ajudar a fazer uma previsão destes problemas. Os resultados obtidos por este método, são utilizados para se modificarem algumas variáveis do processo, tais como: força do encostador, geometria de punções e matrizes. Neste trabalho foi efectuado um estudo da evolução de uma ferramenta progressiva, recorrendo a um software de elementos finitos (LS-DYNA). O objectivo do estudo da ferramenta progressiva, é o de fazer uma comparação dos resultados obtidos pelo LS-DYNA, com o componente obtido na fase de produção. A ferramenta em estudo passou por três grandes evoluções, tendo sido essencialmente alteradas as geometrias de punções e matrizes. Foi feita uma comparação das espessuras obtidas no processo real, com espessuras obtidas na simulação. Os resultados obtidos na simulação são muito semelhantes ao processo real, com uma margem de erro máximo de 4,08%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em 1993 ocorreu um surto alimentar em escola, com 211 afetados. Os dados epidemiológicos levantados por entrevista de amostragem de afetados e não afetados mostraram que os sintomas predominantes foram diarréia, febre (77,7%), dor abdominal (67,7%), vômito (65,8%), calafrios (54,5%) e cefaléia (44,5%). A mediana de incubação foi de 17 horas, com limites entre 3 e 29 horas. A duração da doença foi de 3 a 4 dias. O alimento consumido foi um tipo de patê, mistura de molho de maionese preparada com ovos crus com batata cozida, passado em pão. A análise de material biológico (3 coproculturas) e de restos de alimentos revelou a presença do mesmo microrganismo, a Salmonella Enteritidis. No caso dos alimentos, o número encontrado desta bactéria por gramo de produto era compatível com a quantidade de células necessária para desencadear a doença (10(4)e 10(5)/g). O antibiograma de todas as cepas isoladas revelou o mesmo padrão de sensibilidade. As falhas no preparo do alimento relacionadas com o levantamento indicam a possibilidade de contaminação endógena dos ovos; contaminação cruzada - o surto afetou três períodos escolares, sendo que para cada um o alimento foi preparado em separado - e as condições de manutenção do alimento após preparo e até o consumo. A observação por uma semana seguida das 3 merendeiras envolvidas, através de coprocultura, não indicaram que as mesmas fossem portadoras assintomáticas desta bactéria ou que tivessem sido envolvidas no surto em questão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectivos de estudo: identificar as principais variáveis estudadas na prova de esforço cardio-pulmonar (PECP); caracterizar as suas respostas normais durante a PECP; discutir a selecção dos valores de referência.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A vibração em equipamento industrial pode ser tanto um sinal de que o equipamento está a funcionar normalmente como pode revelar que o mesmo apresenta problemas. É assim importante que o técnico de manutenção consiga distinguir entre níveis normais e aceitáveis de vibração e os que requerem atenção imediata para monitorar. Nesta dissertação é estudado o problema de análise de vibrações em caixas redutoras - uma em bom estado e outra com desgaste no par de engrenagens. A escolha desta dissertação prende-se com a importância e uso generalizado de caixas de engrenagens - neste caso de caixas redutoras - nas grandes indústrias. Como tal, hoje em dia, as caixas redutoras estão geralmente providas de sistema de monitorização “online” que alertam o técnico responsável de quando algo foge dos parâmetros definidos pelo utilizador - aumento súbito de temperatura, de amplitude de vibração, entre outros. Esta dissertação pretende assim responder a algumas questões pertinentes: • Como responde uma caixa redutora quando se variam os parâmetros de velocidade e carga e como as variações dos mesmos se traduzem nos espectros de frequência? • Qual dos parâmetros - velocidade e carga - tem uma maior influência nas amplitudes de vibração registadas para as várias frequências típicas de uma caixa redutora? • O que é registado ao nível do espectro de frequências, no estudo de uma caixa redutora com o defeito de desgaste? • A teoria consultada para as caixas redutoras é comparável com os dados obtidos na prática? • Porquê a importância de utilizar a análise de vibrações quando se monitorizam caixas redutoras? Para ajudar a responder estas questões foi utilizada uma aplicação designada de Enlive, um programa de controlo de condição de máquinas para sistemas “online” - ou seja, para sistemas em contínua monitorização. A análise dos sinais provenientes das caixas redutoras foi realizada com recurso à transformada rápida de Fourier - Fast Fourier Trabsform. No fim da realização desta dissertação foi possível responder a todos os pontos referidos anteriormente. Foi possível confirmar a maior importância do factor carga no aumento da amplitude de engrenamento, harmónicas e bandas laterais. Este aumento é mais pronunciado no caso da caixa redutora com desgaste. A análise de vibrações assume-se assim, mais uma vez, como uma ferramenta importante no diagnóstico de avarias, permitindo poupar tempo e recursos - tanto financeiros como humanos - e salvaguardar a contínua eficácia e produtividade de uma empresa, pois permite diminuir o tempo que uma máquina não se encontra em funcionamento.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A rápida evolução dos dispositivos móveis e das tecnologias de comunicação sem fios transformou o telemóvel num poderoso dispositivo de computação móvel. A necessidade de estar sempre contactável, comum à civilização moderna, tem aumentado a dependência deste dispositivo, sendo transportado pela maioria das pessoas num ambiente urbano e assumindo um papel talvez mais importante que a própria carteira. A ubiquidade e capacidade de computação dos telemóveis aumentam o interesse no desenvolvimento de serviços móveis, além de tradicionais serviços de voz. Um telemóvel pode em breve tornar-se um elemento activo nas nossas tarefas diárias, servindo como um instrumento de pagamento e controlo de acessos, proporcionando assim novas interfaces para serviços existentes. A unificação de vários serviços num único dispositivo é um desafio que pode simplificar a nossa rotina diária e aumentar o conforto, no limite deixaremos de necessitar de dinheiro físico, cartões de crédito ou débito, chaves de residência e de veículos automóveis, ou inclusive documentos de identificação como bilhetes de identidade ou passaportes. O interesse demonstrado pelos intervenientes, desde os fabricantes de telemóveis e operadores de rede móvel até às instituições financeiras, levaram ao aparecimento de múltiplas soluções de serviços móveis. Porém estas soluções respondem geralmente a problemas específicos, apenas contemplando um fornecedor de serviços ou uma determinada operação de pagamento, como seja a compra de bilhetes ou pagamento de estacionamento. Estas soluções emergentes consistem também tipicamente em especificações fechadas e protocolos proprietários. A definição de uma arquitectura genérica, aberta interoperável e extensível é necessária para que os serviços móveis possam ser adoptados de uma forma generalizada por diferentes fornecedores de serviços e para diversos tipos de pagamento. A maior parte das soluções actuais de pagamento móvel depende de comunicações através da rede móvel, algumas utilizam o telemóvel apenas como uma interface de acesso à internet enquanto outras possibilitam o envio de um SMS (Short Message Service) para autorizar uma transacção, o que implica custos de comunicação em todas as operações de pagamento. Este custo de operação torna essas soluções inadequadas para a realização de micropagamentos e podem por isso ter uma aceitação limitada por parte dos clientes. As soluções existentes focam-se maioritariamente em pagamentos à distância, não tirando partido das características do pagamento presencial e não oferecendo por isso uma verdadeira alternativa ao modelo actual de pagamento com cartões de crédito/débito. As capacidades computacionais dos telemóveis e suporte de diversos protocolos de comunicação sem fio local não têm sido aproveitadas, vendo o telemóvel apenas como um terminal GSM (Global System for Mobile Communications) e não oferecendo serviços adicionais como seja a avaliação dinâmica de risco ou controlo de despesas. Esta dissertação propõe e valida, através de um demonstrador, uma aquitectua aberta para o pagamento e controlo de acesso baseado em dispositivos móveis, intitulada WPAC (Wireless Payment and Access Control). Para chegar à solução apresentada foram estudadas outras soluções de pagamento, desde o aparecimento dos cartões de débito até a era de pagamentos electrónicos móveis, passando pelas soluções de pagamento através da internet. As capacidades dos dispositivos móveis, designadamente os telemóveis, e tecnologias de comunicação sem fios foram também analisadas a fim de determinar o estado tecnológico actual. A arquitectura WPAC utiliza padrões de desenho utilizados pela indústria em soluções de sucesso, a utilização de padrões testados e a reutilização de soluções com provas dadas permite aumentar a confiança nesta solução, um destes exemplos é a utilização de uma infra-estrutura de chave pública para o estabelecimento de um canal de comunicação seguro. Esta especificação é uma arquitectura orientada aos serviços que utiliza os Web Services para a definição do contracto do serviço de pagamento. A viabilidade da solução na orquestração de um conjunto de tecnologias e a prova de conceito de novas abordagens é alcançada com a construção de um protótipo e a realização de testes. A arquitectura WPAC possibilita a realização de pagamentos móveis presenciais, isto é, junto do fornecedor de bens ou serviços, seguindo o modelo de pagamento com cartões de crédito/débito no que diz respeito aos intervenientes e relações entre eles. Esta especificação inclui como aspecto inovador a avaliação dinâmica de risco, que utiliza o valor do pagamento, a existência de pagamentos frequentes num período curto de tempo, e a data, hora e local do pagamento como factores de risco; solicitando ao cliente o conjunto de credenciais adequado ao risco avaliado, desde códigos pessoais a dados biométricos. É também apresentada uma alternativa ao processo normal de pagamento, que apesar de menos cómoda permite efectuar pagamentos quando não é possível estabelecer um canal de comunicação sem fios, aumentando assim a tolerância a falhas. Esta solução não implica custos de operação para o cliente na comunicação com o ponto de venda do comerciante, que é realizada através de tecnologias de comunicação local sem fios, pode ser necessária a comunicação através da rede móvel com o emissor do agente de pagamento para a actualização do agente de software ou de dados de segurança, mas essas transmissões são ocasionais. O modelo de segurança recorre a certificados para autenticação dos intervenientes e a uma infra-estrutura de chave pública para cifra e assinatura de mensagens. Os dados de segurança incluídos no agente de software móvel, para desabilitar a cópia ou corrupção da aplicação mas também para a comparação com as credenciais inseridas pelo cliente, devem igualmente ser encriptados e assinados de forma a garantir a sua confidencialidade e integridade. A arquitectura de pagamento utiliza o standard de Web Services, que é amplamente conhecido, aberto e interoperável, para definição do serviço de pagamento. Existem extensões à especificação de Web Services relativas à segurança que permitem trocar itens de segurança e definem o modo de cifra e assinatura de mensagens, possibilitando assim a sua utilização em aplicações que necessitem de segurança como é o caso de serviços de pagamento e controlo de acesso. O contracto de um Web Service define o modo de invocação dos serviços, transmissão de informação e representação de dados, sendo normalmente utilizado o protocolo SOAP que na prática não é mais que um protocolo de troca de mansagens XML (eXtensible Markup Language). O envio e recepção de mensagens XML; ou seja, a transmissão de simples sequências de caracteres, é suportado pela maioria dos protocolos de comunicação, sendo portanto uma solução abrangente que permite a adopção de diversas tecnologias de comunicação sem fios. O protótipo inclui um agente de software móvel, implementado sobre a forma de uma MIDlet, aplicação Java para dispositivos móveis, que implementa o protocolo de pagamento comunicando sobre uma ligação Bluetooth com o ponto de venda do comerciante, simulado por uma aplicação desenvolvida sobre a plataforma .NET e que por isso faz prova da heterogeneidade da solução. A comunicação entre o comerciante e o seu banco para autorização do pagamento e transferência monetária utiliza o protocolo existente para a autorização de pagamentos, com base em cartões de crédito/débito. A definição desta especificação aberta e genérica em conjunto com o forte interesse demonstrado pelos intervenientes, proporciona uma boa perspectiva em termos de adopção da solução, o que pode impulsionar a implementação de serviços móveis e dessa forma simplificar as rotinas diárias das pessoas. Soluções móveis de pagamento reduzem a necessidade de transportar vários cartões de crédito/débito na nossa carteira. A avaliação dinâmica de risco permite aumentar a segurança dos pagamentos, com a solicitação de mais credenciais ao cliente para pagamentos com um maior risco associado, sendo um ponto importante quer para os clientes quer para as instituições financeiras pois diminui o risco de fraude e aumenta a confiança no sistema. Esta solução de pagamento electrónico pode também facilitar a consulta de pagamentos efectuados e saldos, mantendo um histórico dos movimentos, o que não é possível nos cartões de crédito/débito sem uma visita a uma ATM (Automated Teller Machine) ou utilização de homebanking.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos tempos actuais os equipamentos para Aquecimento Ventilação e Ar Condicionado (AVAC) ocupam um lugar de grande importância na concepção, desenvolvimento e manutenção de qualquer edifício por mais pequeno que este seja. Assim, surge a necessidade premente de racionalizar os consumos energéticos optimizando-os. A alta fiabilidade desejada nestes sistemas obriga-nos cada vez mais a descobrir formas de tornar a sua manutenção mais eficiente, pelo que é necessário prevenir de uma forma proactiva todas as falhas que possam prejudicar o bom desempenho destas instalações. Como tal, torna-se necessário detectar estas falhas/anomalias, sendo imprescíndivel que nos antecipemos a estes eventos prevendo o seu acontecimento num horizonte temporal pré-definido, permitindo actuar o mais cedo possível. É neste domínio que a presente dissertação tenta encontrar soluções para que a manutenção destes equipamentos aconteça de uma forma proactiva e o mais eficazmente possível. A ideia estruturante é a de tentar intervir ainda numa fase incipiente do problema, alterando o comportamento dos equipamentos monitorizados, de uma forma automática, com recursos a agentes inteligentes de diagnóstico de falhas. No caso em estudo tenta-se adaptar de forma automática o funcionamento de uma Unidade de Tratamento de Ar (UTA) aos desvios/anomalias detectadas, promovendo a paragem integral do sistema apenas como último recurso. A arquitectura aplicada baseia-se na utilização de técnicas de inteligência artificial, nomeadamente dos sistemas multiagente. O algoritmo utilizado e testado foi construído em Labview®, utilizando um kit de ferramentas de controlo inteligente para Labview®. O sistema proposto é validado através de um simulador com o qual se conseguem reproduzir as condições reais de funcionamento de uma UTA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho tem como objectivo apresentar as ferramentas do Lean Thinking e realizar um estudo de caso numa organização em que este sistema é utilizado. Numa primeira fase do trabalho será feito uma análise bibliográfica sobre o ―Lean Thinking”, que consiste num sistema de negócios, uma forma de especificar valor e delinear a melhor sequência de acções que criam valor. Em seguida, será realizado um estudo de caso numa Empresa – Divisão de Motores – no ramo da aeronáutica com uma longa e conceituada tradição com o objectivo de reduzir o TAT (turnaround time – tempo de resposta), ou seja, o tempo desde a entrada de um motor na divisão até à entrega ao cliente. Primeiramente, analisando as falhas existentes em todo o processo do motor, isto é, a análise de tempos de reparação de peças à desmontagem do motor que têm que estar disponíveis à montagem do mesmo, peças que são requisitadas a outros departamentos da Empresa e as mesmas não estão disponíveis quando são precisas passando pelo layout da divisão. Por fim, fazer uma análise dos resultados até então alcançados na divisão de Motores e aplicar as ferramentas do ―Lean Thinking‖ com o objectivo da implementação. É importante referir que a implementação bem-sucedida requer, em primeiro lugar e acima de tudo, um firme compromisso da administração com uma completa adesão à cultura da procura e eliminação de desperdício. Para concluir o trabalho, destaca-se a importância deste sistema e quais são as melhorias que se podem conseguir com a sua implantação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O Programa Nacional de Avaliação Externa da Qualidade (PNAEQ) foi criado em 1978 como sendo uma das atribuições do Instituto Nacional de Saúde Doutor Ricardo Jorge (INSA). A sua missão é promover, organizar e coordenar programas de avaliação externa da qualidade (AEQ) para laboratórios que exerçam atividade no setor da saúde. O primeiro programa de AEQ do PNAEQ para avaliação da Fase Pré-Analítica foi distribuído em 2007. Os ensaios são pluridisciplinares, podendo incluir o envio de amostras para avaliação das condições para processamento (aceitação ou rejeição, preparação, acondicionamento), a simulação de requisições médicas, a resposta a questionários, a interpretação de casos-estudo, o levantamento de dados (auditorias ou monitorização de indicadores) ou a realização de chamadas anónimas (“cliente mistério”). O PNAEQ disponibiliza ainda 4 programas em colaboração com a Labquality (Flebotomia e POCT, Química Clínica, Microbiologia e Gases no Sangue) e 1 programa com a ECAT (Hemostase). Em 2015 e 2016, o objetivo dos programas da Fase Pré-Analítica do PNAEQ foi proporcionar o envolvimento do laboratório no processo de avaliação e monitorização da fase pré-analítica, conferindo-lhe ferramentas que lhe permitam realizar a sua autoavaliação. A fase pré-analítica é a que absorve o maior número de erros na análise de amostras biológicas, representando 40% a 70% de todas as falhas ocorridas no processamento analítico (Codagnone et al, 2014). A principal razão está na dificuldade em controlar as variáveis pré-analíticas , uma vez que esta fase envolve inúmeras atividades não automatizadas como a colheita, o manuseamento, o transporte e a preparação das amostras.