868 resultados para Detecção de erros grosseiros


Relevância:

100.00% 100.00%

Publicador:

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho propõe um estudo sobre códigos numéricos e detecção de erros de transmissão. Os códigos são de uso rotineiro, sua estrutura é simples e motiva alguns aspectos da teoria de divisibilidade, de uma forma diferenciada. A pesquisa trata da estrutura de alguns códigos e, com cálculos simples, detecta-se a presença de um erro de transmissão. Por fim, fazemos uma proposta pedagógica, a qual almeja fomentar hábitos de pesquisa no aprendiz e, especialmente, colocar a Matemática como uma ciência do seu cotidiano.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Neste trabalho discutimos vários sistemas de dígitos verificadores utilizados no Brasil, muitos deles semelhantes a esquemas usados mundialmente, e fazemos uma análise da sua capacidade de detectar os diversos tipos de erros que são comuns na entrada de dados em sistemas computacionais. A análise nos mostra que os esquemas escolhidos constituem decisões subotimizadas e quase nunca obtêm a melhor taxa de detecção de erros possível. Os sistemas de dígitos verificadores são baseados em três teorias da álgebra: aritmética modular, teoria de grupos e quasigrupos. Para os sistemas baseados em aritmética modular, apresentamos várias melhorias que podem ser introduzidas. Desenvolvemos um novo esquema ótimo baseado em aritmética modular base 10 com três permutações para identificadores de tamanho maior do que sete. Descrevemos também o esquema Verhoeff, já antigo, mas pouquíssimo utilizado e que também é uma alternativa de melhoria para identificadores de tamanho até sete. Desenvolvemos ainda, esquemas ótimos para qualquer base modular prima que detectam todos os tipos de erros considerados. A dissertação faz uso ainda de elementos da estatística, no estudo das probabilidades de detecção de erros e de algoritmos, na obtenção de esquemas ótimos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A alteração no sistema de controles internos da empresa estudada teve como marco principal a mudança do foco no trabalho da auditoria interna, que começou a desempenhar suas atividades de forma estruturada e seguindo uma metodologia específica; além, de perseguir um objetivo estratégico da organização. A auditoria interna, antes do processo de certificação do sistema de controles internos exigido pela seção 404 da SOX, era apenas um instrumento de detecção de erros e compliance fiscal, que baseava seus trabalhos somente em fatos passados, com a constatação de deficiências de controles. Todavia, sem assessorar a alta a administração da empresa na resolução das deficiências, objetivando a implementação das melhorias dos controles internos. Com a necessidade de certificação da eficácia dos controles internos, a partir do ano de 2005, o foco dos trabalhos de auditoria interna foi direcionado para lograr melhorias nos métodos de controle, gestão de riscos, prevenção de fraudes e erros, nos processos operacionais, contábeis e financeiros da organização. O objetivo dessa pesquisa foi, por meio de estudo de caso único, mensurar os principais procedimentos realizados para a implantação do sistema de controles internos da empresa estudada, incluindo a metodologia adotada, o modelo escolhido, o processo de controle estabelecido, a identificação e avaliação dos principais riscos e controles, bem como a forma de seleção, avaliação e teste dos controles internos existentes. Buscou-se coletar dados preconizados pela literatura de autores renomados e analisar as diversas bibliografias, com o objetivo de comparar com a pesquisa que foi realizada nos documentos fornecidos pela empresa analisada. Este estudo levantou pontos importantes sobre o processo de gestão da empresa e da forma como se utilizou da auditoria interna como ferramenta para a melhoria de seus controles internos. Destacam-se a geração de valor empresarial que um bom ambiente de controle interno traz e os motivos que levam uma organização a implementar uma área de auditoria interna, com especial atenção ao foco de assessoramento e consultoria, alinhado as práticas internacionais de auditoria interna. Entretanto, apesar de observar melhorias na atuação da auditoria interna da organização, constata-se a necessidade de alinhamento de algumas práticas internacionais, ainda não implementadas. Descobriu-se, também, que a auditoria interna, com o devido emporwerment da alta administração, e utilizando-se das técnicas atuais e internacionais, aumentam a confiabilidade do sistema de controles internos e com isso geram valor às suas organizações. Nesta pesquisa pôde-se constatar a utilização da auditoria interna como ferramenta de gestão de recursos organizacionais, ocasionando melhorias no sistema de controles internos da empresa, e ficando constatada, por meio de auditoria executada por firma independente, a irrefutável melhoria dos controles internos da organização estudada.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Simulador de processos é uma ferramenta valiosa, pois possibilita desde a validação de projetos e sua operabilidade prática até aumentos de produção e redução de custos. Devido a estes e outros fatores, o interesse industrial em técnicas e pacotes computacionais para a modelagem, simulação e otimização de processos tem crescido muito nos últimos anos. Juntamente com este interesse cresce a qualidade das ferramentas disponíveis no mercado para tal, mas estas ainda não satisfazem totalmente as expectativas de seus usuários. Este trabalho consiste no projeto de um novo simulador genérico para processos dinâmicos que satisfaça os usuários de forma mais completa do que os disponíveis atualmente no mercado. Para tanto, foram reunidas e, quando necessário, desenvolvidas novas técnicas relativas à descrição, análise e solução de problemas dinâmicos. Uma nova linguagem de modelagem orientada a objetos e um sistema de tradução da representação nesta linguagem para sistemas de equações foram propostos. Métodos de análise dos sistemas de equações provenientes da modelagem foram desenvolvidos com o intuito de auxiliar o usuário na detecção de erros de modelagem. Algoritmos para solução de sistemas dinâmicos e estacionários foram reunidos e uma arquitetura interna foi proposta. Por fim, o sistema como um todo foi testado através de sua aplicação em problemas típicos e outros que não podem ser resolvidos diretamente com os pacotes computacionais disponíveis no mercado. O teste com os problemas práticos provou que a estrutura proposta é adequada e apresenta uma série de vantagens quando comparada com softwares largamente utilizados na simulação de processos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

No início dos anos 90, o Brasil e a Grã-Bretanha, juntos, deram um passo, no sentido de produzir estudos microclimáticos dentro da área que compreende a floresta Amazônica, visando quantificar e verificar o impacto do desmatamento dessa floresta sobre o clima. Para isso escolheu-se três regiões para a instalação de estações meteorológicas automáticas de superfície (Estados do Amazonas, Pará e Rondônia). Cada região recebeu uma estação em uma área florestada e outra em área desmatada. Esse projeto binacional foi chamado de "ESTUDO ANGLO-BRASILEIRO DE OBSERVAÇÃO DO CLIMA DA AMAZONIA, (ABRACOS - Anglo-Braz11ian Amazonian Climate Observation Study)". Esse trabalho apresenta a aplicação de dois métodos de controle de qualidade para os dados coletados pelas estações meteorológicas automáticas de superfície. Um desses métodos leva em consideração o comportamento estatístico das variáveis coletadas, e o outro método o comportamento físico e climatológico das mesmas. Por último se faz o uso desses dados com e sem erros no cálculo da evapotranspiração, no sentido de se ver o impacto de uma informação errônea no cálculo de um parametro. O método estatístico demonstrou ter um bom potencial na detecção de erros pequenos (com tamanhos variando de 5 a 20%).(Continua). Esse método apresentou rendimentos na obtenção de erros que oscilam entre 43% e 80% para a radiação solar global. Quando se testou os valores da temperatura do ar e temperatura do bulbo úmido, obteve-se um dos melhores rendimentos do método estatístico, que chegou a 91%. Os piores desempenhos foram quando se testou a radiação refletida, alcançando-se apenas 11,1%. O método físico mostrou-se eficiente na detecção de erros maiores (30 a 90%). Os melhores desempenhos aconteceram quando se testaram as temperaturas. Em um caso o rendimento chegou a 100%. Em seu pior desempenho o método detectou apenas 20% (Teste" A" ). O método físico somente detectou informações suspeitas, dentro dos erros inseridos nas séries de dados.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Este estudo visa desenvolver um sistema portátil de radiocomunicação de radiação restrita, indicado para biotelemetria digital de curta distância aplicada ao Teste da Caminhada de Seis Minutos (TC6M) em pacientes com doença pulmonar obstrutiva crônica ou hipertensão pulmonar. A saturação periférica da hemoglobina (SpO2) e a freqüência cardíaca (FC) são monitoradas em tempo real. É utilizada a banda destinada a aplicações médicas, industriais e científicas (ISM), com freqüência de portadora em 916MHz e potência de transmissão de 0,75mW. Este sistema foi projetado para operar através de um enlace half duplex e codificação Manchester NRZ incorporando um protocolo para correção de erros do tipo automatic repeat request error com utilização de um código CRC-16 para detecção de erros. A velocidade máxima de transmissão de dados é de 115.2 kbps. O sistema é constituído de três partes: unidade portátil (Master), unidade estacionária (Slave) e software de visualização em tempo real. A unidade portátil recebe do oxímetro os parâmetros de monitorização que são transmitidos via enlace de rádio-freqüência. A interface da unidade estacionária com o software é feita através da porta de comunicação serial padrão RS-232. Os testes de laboratório e de campo demonstraram que o sistema de biotelemetria é adequado a realizar o TC6M com precisão de SpO2 de ±3 dígitos (com ±1 desvio padrão) e FC de ±3% ambos com taxa de Frame Error Rate < 10-4 (0,01%), sem restrigir os movimentos do usuário durante o processo de monitorização.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

O relatório refere-se ao estágio efectuado no Club Sport Marítimo, secção de Natação onde se realizou um trabalho dedicado à detecção de erros técnicos em nadadores, para proceder posteriormente à sua correcção. Partiu-se da observação e posterior registo (check list) para a elaboração de um plano de acção através de “drills” adequados para cada situação, de modo a corrigir os erros detectados. Para este efeito, utilizando a metodologia observacional, observaram-se os 18 nadadores que constituem a amostra, recorrendo a um instrumento adaptado e validado de acordo com os objectivos a alcançar. Estes nadadores foram observados ao longo da época desportiva 2010/2011, em três provas do Calendário Regional de Natação Pura Desportiva (NPD) da Associação de Natação da Madeira (ANM). Os resultados atingidos parecem-nos claramente positivos, já que foram corrigidos 84% e 86,9% dos erros inicialmente detectados, respectivamente, na técnica de Costas e de Crol. Podemos afirmar também que, a maior parte dos erros, foram colmatados num período de tempo relativamente curto. Outros, contudo, levarão mais tempo a serem ultrapassados, o que dependerá do grau de complexidade do erro e da maior ou menor capacidade no que toca à aprendizagem motora do nadador em questão. Esperamos com este pequeno estudo poder contribuir para que os treinadores dêem a devida atenção à vertente técnica durante a planificação das épocas desportivas, o que se traduz na construção das sessões de treino com drills, visando uma melhor preparação dos atletas para a competição, promovendo, desta forma o sucesso. Pensamos que vale a pena “perder tempo” com a aplicação de drills em situação de treino, o que na realidade faz consumir muito tempo de treino (é um trabalho minucioso e de qualidade) para ganhar tempo e nível técnico em situação de competição – objectivo premente para o nadador e o treinador envolvidos num contexto desta natureza.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this paper artificial neural network (ANN) based on supervised and unsupervised algorithms were investigated for use in the study of rheological parameters of solid pharmaceutical excipients, in order to develop computational tools for manufacturing solid dosage forms. Among four supervised neural networks investigated, the best learning performance was achieved by a feedfoward multilayer perceptron whose architectures was composed by eight neurons in the input layer, sixteen neurons in the hidden layer and one neuron in the output layer. Learning and predictive performance relative to repose angle was poor while to Carr index and Hausner ratio (CI and HR, respectively) showed very good fitting capacity and learning, therefore HR and CI were considered suitable descriptors for the next stage of development of supervised ANNs. Clustering capacity was evaluated for five unsupervised strategies. Network based on purely unsupervised competitive strategies, classic "Winner-Take-All", "Frequency-Sensitive Competitive Learning" and "Rival-Penalize Competitive Learning" (WTA, FSCL and RPCL, respectively) were able to perform clustering from database, however this classification was very poor, showing severe classification errors by grouping data with conflicting properties into the same cluster or even the same neuron. On the other hand it could not be established what was the criteria adopted by the neural network for those clustering. Self-Organizing Maps (SOM) and Neural Gas (NG) networks showed better clustering capacity. Both have recognized the two major groupings of data corresponding to lactose (LAC) and cellulose (CEL). However, SOM showed some errors in classify data from minority excipients, magnesium stearate (EMG) , talc (TLC) and attapulgite (ATP). NG network in turn performed a very consistent classification of data and solve the misclassification of SOM, being the most appropriate network for classifying data of the study. The use of NG network in pharmaceutical technology was still unpublished. NG therefore has great potential for use in the development of software for use in automated classification systems of pharmaceutical powders and as a new tool for mining and clustering data in drug development

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Pós-graduação em Agronomia (Irrigação e Drenagem) - FCA

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Pós-graduação em Matemática em Rede Nacional - IBILCE

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)