107 resultados para CODIGOS CORRETORES DE ERROS

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este estudo preliminar descreve uma proposta de correção de erros nas produções escritas de doze (12) alunos de nível básico de língua inglesa da Universidade de Caxias do Sul (UCS). O objetivo é investigar a relevância da reescrita como estratégia de conscientização, de acordo com a Hipótese do Noticing de Schmidt (1990), buscando promover a correção gramatical e o aprimoramento da produção textual. Nesse contexto, a correção passa a ser uma aliada e não inimiga do aprendiz. O feedback corretivo fornecido através do uso de uma Tabela de Marcação, a conscientização dos erros através da reescrita e o envolvimento dos aprendizes no processo de auto-análise de seus textos revelaram-se condições facilitadoras na busca das formas corretas e na prevenção do erro. A análise dos dados demonstrou uma possível ruptura com a previsibilidade implícita na Hipótese do Noticing, que propõe que prestar atenção a determinados aspectos lingüísticos possibilita sua melhor assimilação e a não recorrência de erros. Os trabalhos evidenciaram uma melhoria progressiva na qualidade da produção escrita apesar do aumento do número de erros, possivelmente devido a uma desinibição por parte dos aprendizes em escrever e a sua opção em assumir riscos na produção de estruturas lingüísticas mais complexas, o que não inviabiliza a proposta da reescrita como estratégia de conscientização.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O Brasil é um país grande, com poucos laboratórios dedicados ao diagnóstico de Erros Inatos do Metabolismo (EIM), e com escassos centros que se dedicam ao manejo dessas doenças. A área de doenças genético-metabólicas é ainda nova no país, e poucos profissionais da área médica estão familiarizados com essas doenças. Os EIM incluem cerca de 500 doenças causadas por distúrbios que envolvem o acúmulo de substratos tóxicos ou a falta de produtos vitais para o funcionamento adequado do organismo. Por serem patologias raras e pouco conhecidas em nosso meio, o diagnóstico correto é tardio e, na maioria das vezes, compromet a eficácia das medidas de manejo dos afetados. Para tentar melhorar essa situação, foi criado o Serviço de Informações sobre Erros Inatos do Metabolismo (SIEM) um serviço com acesso gratuito, pioneiro no Brasil e na América Latina. Implantado em outubro de 2001, em Porto Alegre, no sul do Brasil, o serviço tem o objetivo de fornecer suporte aos profissionais da área da saúde envolvidos com o diagnóstico e manejo de pacientes com suspeita de uma doença metabólica. O SIEM é dirigido por uma equipe especializada, constituída por geneticistas, nutricionistas e biólogos treinados para prestar o serviço proposto. O objetivo principal do presente estudo foi analisar as características demográficas e clínicas das consultas dirigidas a este serviço em seus primeiros dois anos e meio de funcionamento, para identificar o perfil dos profissionais que buscam esse tipo de serviço e dos casos que são objeto de consulta. Foram analisadas 376 consultas feitas nesse período. Verificamos que, na maior parte das vezes, a suspeita de uma doença metabólica esteve associada à presença da sintomatologia neurológica, a um início precoce dos sintomas e a uma tendência à presença de consangüinidade entre os pais. Nessa amostra tivemos 47 (24,4%) casos com diagnóstico de EIM, com predomínio de acidúrias orgânicas e aminoacidopatias. Acreditamos que serviços como este podem prestar apoio a profissionais da área da saúde, incluindo aqueles que estão distantes de centros de referência, podendo contribuir para o melhor diagnóstico e manejo de EIM, mudando para melhor o desfecho clínico dos pacientes em muitas situações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho busca a implementação da replicação de objetos através da linguagem Java e de seu sistema de invocação remota de métodos (Remote Method Invocation - RMI). A partir deste sistema, define-se uma classe de replicação - a máquina de replicação – onde a implementação de grupos de objetos é estruturada de acordo com a arquitetura cliente/servidor, sendo o cliente o representante (a interface) de um grupo de objetos e os servidores representam os demais componentes do grupo. A classe de replicação atende a uma necessidade importante dos sistemas distribuídos - o desenvolvimento de aplicações tolerantes a falhas. Fundamentalmente, a tolerância a falhas é obtida por redundância e, no caso de mecanismos de tolerância a falhas por software, esta redundância significa basicamente replicação de dados, processos ou objetos. A tolerância a falhas para tal tipo de sistema é importante para garantir a transparência do mesmo, visto que, assim como um sistema distribuído pode auxiliar muito o usuário pelas facilidades oferecidas, o não cumprimento de suas atividades de acordo com o esperado pode, em algumas situações, causar-lhe transtornos e erros irrecuperáveis nas aplicações. Finalmente, como principal contribuição, este trabalho descreve e implementa a solução completa para a construção de uma biblioteca de classes que oferece a replicação de forma totalmente transparente para o usuário.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esse trabalho foi desenvolvido com o objetivo de verificar como os professores de Inglês como Língua Estrangeira (LE) corrigem as composições dos seus aprendizes de nível intermediário e como o feedback avaliativo e corretivo são fornecidos. Os dados dessa pesquisa foram coletados em quatro cursos livres de inglês localizados em Porto Alegre, RS (Brasil). Todos os onze professores participantes são falantes do Português como língua materna. Os dados incluem como amostra a coleta de 79 composições de diferentes aprendizes já corrigidas pelos professores, bem como um questionário aplicado aos mesmos e aos seus respectivos aprendizes. As informações provenientes dos questionários objetivaram caracterizar esses participantes mostrando suas opiniões a respeito do erro e correção na escrita. Além disso, o modelo avaliativo de Gaudiani (Gaudiani, 1981 apud Hadley, 1993) foi utilizado para verificarmos a homogeneidade em termos de notas ou conceitos a serem atribuídos ao mesmo conjunto de composições quando avaliadas pelos onze professores. Alguns dos nossos resultados indicaram que: a) os professores não têm critérios claros de correção; b) os professores corrigem mais erros gramaticais em detrimento aos demais erros; c) os professores não corrigem erros relativos à organização; d) os professores fornecem a resposta correta ao erro do aprendiz; não havendo espaço para a auto-correção; e) a grande maioria dos professores atribuiu a mesma nota ou conceito quando utilizado o modelo avaliativo de Gaudiani. Esses resultados sugerem a riqueza desta área bem como destacam a necessidade de trabalhar de modo mais intenso a questão do tratamento do erro e feedback na escrita. Na parte final do trabalho são apresentadas sugestões práticas para os professores de língua estrangeira para que, desta forma, esses profissionais estejam melhor preparados para oferecer um feedback mais eficaz na escrita dos aprendizes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A literatura sobre Teste de Software apresenta diversas estratégias e metodologias que definem critérios eficazes e automatizáveis para selecionar casos de teste capazes de detectar erros em softwares. Embora eficientes na descoberta de erros, as técnicas de seleção de casos de teste exigem que uma quantidade relativamente grande de testes seja realizada para satisfazer os seus critérios. Essa característica acarreta, em parte, um alto custo na atividade de teste, uma vez que, ao fim de cada teste deve-se verificar se o comportamento do software está ou não de acordo com os seus requisitos. Oráculo para teste de software é um mecanismo capaz de determinar se o resultado de um teste está ou não de acordo com os valores esperados. Freqüentemente, assume-se que o próprio projetista de teste é o responsável por esta tarefa. A automatização da atividade dos oráculos deu origem a oráculos automáticos, os quais são capazes de determinar o bom ou mau funcionamento do software a partir de uma fonte de informação confiável. Ao longo dos anos, a especificação formal vêm sendo largamente utilizada como fonte de informação para oráculos automáticos. Diversas estratégias vêm propondo geradores de oráculos baseados em especificações formais. Dentre as características marcantes dessas estratégias, cita-se aquelas que são aplicáveis a implementações derivadas a partir da estrutura da especificação e aquelas que geram oráculos a partir de técnicas específicas de seleção de casos. Essas características, entretanto, limitam a aplicação abrangente dos oráculos por restringi-los tanto a implementações derivadas diretamente de especificações como ao uso de técnicas específicas de seleção de casos de teste. Este trabalho apresenta um estudo sobre os geradores de oráculos para teste de software, identifica aspectos fundamentais que regem seu processo de construção e propõe uma estratégia que permite a geração de oráculos semi-automaticamente, mesmo para implementações não derivadas diretamente da estrutura da especificação. A estratégia proposta é, também, aplicável aos casos de teste derivados de qualquer técnica de seleção de casos de teste.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma metodologia para a geração automática de ASICs, em VHDL, a partir da linguagem de entrada Java. Como linguagem de especificação adotou-se a Linguagem Java por esta possuir características desejáveis para especificação a nível de sistema, como: orientação a objetos, portabilidade e segurança. O sistema é especificamente projetado para suportar síntese de ASICs a partir dos modelos de computação Máquina de Estados Finita e Pipeline. Neste trabalho, adotou-se estes modelos de computação por serem mais usados em sistemas embarcados As principais características exploradas são a disponibilização da geração de ASICs para a ferramenta SASHIMI, o alto nível de abstração com que o projetista pode contar em seu projeto, as otimizações de escalonamento realizadas automaticamente, e o sistema ser capaz de abstrair diferentes modelos de computação para uma descrição em VHDL. Portanto, o ambiente permite a redução do tempo de projeto e, consequentemente, dos custos agregados, diminuindo a probabilidade de erros na elaboração do projeto, portabilidade e reuso de código – através da orientação a objetos de Java – podendo-se proteger os investimentos prévios em desenvolvimento de software. A validação desses conceitos foi realizada mediante estudos de casos, utilizando-se algumas aplicações e analisando os resultados obtidos com a geração dos ASICs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este estudo visa abordar a situação do crédito rural como instrumento de política pública no Estado do Rio Grande do Sul, voltado para a agricultura familiar. Para tanto se concentrou no caso do Fundo Estadual de Apoio ao Desenvolvimento dos Pequenos Produtores Rurais – FEAPER – nos seus 10 anos de existência. A justificativa está baseada nos resultados atuais do Fundo bem como da interpretação das dificuldades que o FEAPER atravessa, revelada pela inadimplência de financiamentos concedidos. A metodologia consistiu em mapear a inadimplência por região e por atividade financiada. Diante dos resultados obtidos foi possível observar que a inadimplência é significativa para os projetos financiados em grupos ou associações, concedidos por intermédio do Programa de Condomínios Rurais. Como conclusão, observa-se uma sucessão de erros no planejamento e gerenciamento dos recursos disponíveis para o crédito rural, bem como a utilização de projetos precariamente elaborados. Visando manter o FEAPER como instrumento de crédito rural público propõe-se um alongamento das dívidas dos inadimplentes, além de tornar o Fundo menos dependente do Gabinete do Secretário de Agricultura e Abastecimento. Em relação a novos projetos recomenda-se uma análise de crédito mais aprofundada apontando elementos a montante e a jusante da atividade financiada para, desta forma, diminuir o risco do investimento para os agricultores e para o FEAPER.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A comparação de dados de mercado é o método mais empregado em avaliação de imóveis. Este método fundamenta-se na coleta, análise e modelagem de dados do mercado imobiliário. Porém os dados freqüentemente contêm erros e imprecisões, além das dificuldades de seleção de casos e atributos relevantes, problemas que em geral são solucionados subjetivamente. Os modelos hedônicos de preços têm sido empregados, associados com a análise de regressão múltipla, mas existem alguns problemas que afetam a precisão das estimativas. Esta Tese investigou a utilização de técnicas alternativas para desenvolver as funções de preparação dos dados e desenvolvimento de modelos preditivos, explorando as áreas de descobrimento de conhecimento e inteligência artificial. Foi proposta uma nova abordagem para as avaliações, consistindo da formação de uma base de dados, ampla e previamente preparada, com a aplicação de um conjunto de técnicas para seleção de casos e para geração de modelos preditivos. Na fase de preparação dos dados foram utilizados as técnicas de regressão e redes neurais para a seleção de informação relevante, e o algoritmo de vizinhança próxima para estimação de valores para dados com erros ou omissões. O desenvolvimento de modelos preditivos incluiu as técnicas de regressão com superficies de resposta, modelos aditivos generalizados ajustados com algoritmos genéticos, regras extraídas de redes neurais usando lógica difusa e sistemas de regras difusas obtidos com algoritmos genéticos, os quais foram comparados com a abordagem tradicional de regressão múltipla Esta abordagem foi testada através do desenvolvimento de um estudo empírico, utilizando dados fornecidos pela Prefeitura Municipal de Porto Alegre. Foram desenvolvidos três formatos de avaliação, com modelos para análise de mercado, avaliação em massa e avaliação individual. Os resultados indicaram o aperfeiçoamento da base de dados na fase de preparação e o equilíbrio das técnicas preditivas, com um pequeno incremento de precisão, em relação à regressão múltipla.Os modelos foram similares, em termos de formato e precisão, com o melhor desempenho sendo atingido com os sistemas de regras difusas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O presente trabalho, através da interdisciplinaridade entre Sistemas de Informação e Marketing, foi desenvolvido com o objetivo de fornecer uma avaliação do grau de satisfação do cliente bancário, pessoa-física, com a utilização das tecnologias de informática e telecomunicações na realização dos serviços bancários, na cidade de Porto Alegre. Foram consideradas como tecnologias da informação os terminais de autoatendimento, Automated Teller Machines (ATMs) para saques e depósitos, cash-dispenser, terminais de depósitos, terminais de extratos e saldos e dispensadores de cheques, localizados em agências, ante-salas de agências, quiosques em locais públicos e em postos de atendimento, e centrais telefônicas com atendimento humano e URA (Unidade de Resposta Audível). O método seguido foi o proposto por ROSSI & SLONGO (1998), com duas etapas distintas, uma exploratória e a outra descritiva. Os indicadores de satisfação foram selecionados através de levantamento de dados secundários. A pesquisa foi realizada nos meses de julho e agosto 2000, nas salas de auto-serviço do Banco do Brasil. Os clientes entrevistados deveriam estar familiarizados com os serviços telefônicos da empresa pesquisada e terem realizado alguma transação nos terminais de autoatendimento. Para as análises da pesquisa, foram considerados fatores sobre postos de auto-atendimento, processamento de transações, comunicação com clientes, segurança, atendimento nas centrais telefônicas e erros relacionados a computadores. Concluiu-se que o Banco do Brasil está muito bem posicionado quanto à satisfação de seus clientes no que se refere às centrais telefônicas e auto-atendimento, ao seu site Internet Banking e à empresa como um todo. Todos com uma satisfação próxima ao nível máximo. Através de técnicas estatísticas, identificou-se que o indicador que trata de “pagamentos de contas, taxas e tributos nos terminais de auto-atendimento” recebeu o maior índice de satisfação, assim como o fator comunicação com clientes; e o indicador “agilidade na solução e problemas registrados nas centrais telefônicas” recebeu o maior índice de importância, assim como o fator postos de auto-atendimento. Assim, analisou-se, definiu-se e realizouse um modelo para avaliação da satisfação do cliente com as tecnologias da informação.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os erros inatos do metabolismo (EIM) constituem um grupo de doenças genéticas causadas pela deficiência ou ausência de uma proteína, geralmente uma enzima. A hiperargininemia é um erro inato do ciclo da uréia causado pela deficiência de arginase, enzima que converte a arginina em ornitina e uréia. O bloqueio desta reação resulta no acúmulo tecidual e plasmático de arginina e seus metabólitos, os compostos guanidínicos. As manifestações clínicas desta doença diferem substancialmente das demais doenças metabólicas do ciclo da uréia. Seus principais sintomas, que manifestam-se progressivamente, são caracterizados por espasticidade, epilepsia e retardo mental. A correlação entre o metabolismo da arginina e do óxido nítrico ocorre no chamado ciclo arginina-citrulina. A arginina é o substrato para a síntese de óxido nítrico pela ação da enzima óxido nítrico sintetase (ONS). Como os pacientes hiperargininêmicos apresentam altos níveis de arginina no plasma e tecidos, é provável que, devido ao excesso deste substrato, ocorra um aumento na síntese de óxido nítrico. O óxido nítrico em concentrações elevadas está associado à produção de radicais livres, neurotoxicidade e inibição da enzima Na+,K+-ATPase. A Na+,K+-ATPase é uma enzima fundamental ao funcionamento normal do sistema nervoso central (SNC), pois regula a transmissão do impulso nervoso, o volume celular e o transporte de moléculas ligadas ao cotransporte de Na+, tais como aminoácidos, glicose e neurotransmissores. A inibição da atividade da Na+,K+-ATPase nos sítios pré-sinápticos resulta na inibição da recaptação de glutamato, bem como na estimulação de sua liberação. A inibição desta enzima também tem sido associada a diversas neuropatologias. A Na+,K+-ATPase também está envolvida na LTP (long term potentiation – potenciação de longa duração), que é um tipo de neuroplasticidade celular que provoca alterações nas cascatas bioquímicas no SNC, que são, muitas vezes, idênticas àquelas que ocorrem durante o processo de formação da memória. Assim, acredita-se que a LTP seja um dos diversos mecanismos bioquímicos importantes para a formação da memória. Neste estudo investigamos o efeito in vivo da administração aguda de arginina, L-NAME (um potente inibidor da ONS) e a co-administração de Arg + L-NAME sobre a atividade da Na+,K+-ATPase de membrana plasmática sináptica de hipocampo de ratos adultos e sobre testes 6 comportamentais utilizados para avaliar o aprendizado e memória: campo aberto e esquiva inibitória. Os resultados obtidos demonstraram que a arginina inibiu significativamente a atividade da enzima Na+,K+-ATPase de membrana plasmática sináptica de hipocampo de ratos. A administração de L-NAME não alterou a atividade da enzima, mas preveniu a diminuição da atividade da Na+,K+-ATPase causada pela arginina. Nos experimentos de comportamento foram avaliados o aprendizado, a consolidação e a evocação da memória de longa duração pela administração das soluções em três momentos diferentes. A arginina diminuiu o desempenho do teste de esquiva inibitória nos três momentos, o L-NAME isoladamente não alterou o comportamento dos animais, mas quando co-administrado com a arginina aumentou a capacidade de memorização desta tarefa. Estes resultados indicam que a administração de arginina in vivo reduz tanto a atividade da Na+,K+-ATPase como a modulação da memória em ratos, e que isso ocorreu, provavelmente, pelo aumento da síntese de óxido nítrico. Assumindo a possibilidade de que isso possa ocorrer em pacientes com hiperargininemia, os resultados obtidos podem ser relevantes para explicar, pelo menos em parte, a disfunção neurológica associada a essa doença.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As discrepâncias nos resultados de análises de materiais informados tanto pelo produtor quanto pelo consumidor são um problema comum na maioria das indústrias. Os contratos comerciais na indústria mineral normalmente penalizam o produtor quando uma determinada caraterística do minério exceder os limites estabelecidos. As diferenças nos resultados de análise são devidas a muitas formas de erro. Contratos rígidos impõem ao minerador o emprego de um rigoroso programa de controle de qualidade e nestas situações a amostragem possui um papel fundamental. Esta tese tem por objetivo propor um novo protocolo de amostragem e preparação de amostras que garanta a representatividade desejada pelas partes, produtor e consumidor. O estudo inicia fazendo-se uma abordagem qualitativa da amostragem, sendo enfocados os conceitos de representatividade e amostragem probabilística. É feita uma apresentação dos tipos de erros existentes em um protocolo amostral e são apresentados exemplos de problemas que ocorrem devido à falta de cuidado no dimensionamento e operação de amostradores e durante o processo de preparação da amostra. A seguir, é efetuada uma abordagem quantitativa da amostragem onde é apresentado o equacionamento matemático da teoria da amostragem de Gy. Tendo em vista as diferenças de resultados que usualmente ocorrem entre laboratórios é introduzida uma metodolo gia para a verificação da equidade destas determinações através do estudo de alguns casos. A definição do novo protocolo de amostragem foi baseada na teoria da amostragem de Gy. Para tanto, foi realizado o estudo de quatro casos com a finalidade de confirmar os princípios mais importantes da teoria da amostragem Nos ensaios foram realizadas a medição do erro total da amostragem em pilha e a verificação da existência de significância estatística deste erro em relação à disposição do carvão no depósito, foi realizada a verificação da significância do erro total na amostragem mecânica probabilística, a verificação das etapas mais críticas do processo de preparação de amostras, a determinação do erro de integração dos vários tipos de carvões testados e foi verificada a aplicabilidade da análise variográfica para a determinação do erro de integração. Os resultados encontrados mostraram a validade dos conceitos empregados pela teoria da amostragem e indicaram a impropriedade das normas brasileiras de amostragem e preparação de carvão, NBR 8291 e 8292, para garantir a representatividade da caracterização de um determinado lote de carvão. É proposto um novo protocolo de amostragem de carvão mineral, o qual leva em consideração a variabilidade das partículas componentes do lote e as formas de amostragem e preparação da amostra. Conclui-se que é possível dimensionar um sistema de controle de qualidade do carvão que seja capaz de estimar a precisão desejada e que garanta a representatividade do resultado acordada entre as partes. Por fim, é sugerida a modificação das normas brasileiras existentes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Partindo do pressuposto de que foco na forma pode beneficiar o processo de aprendizagem, este estudo foi desenvolvido com o objetivo de verificar o efeito de dois tipos de feedback corretivo, recast e elicitação, no desempenho de alunos de inglês como língua estrangeira. O estudo foi realizado com duas turmas de nível intermediário em um curso particular de idiomas que segue os princípios da abordagem comunicativa. É uma investigação experimental na qual o desempenho dos alunos foi testado antes e depois de receberem feedback corretivo durante a realização de tarefas ministradas pelos seus professores dentro de suas próprias salas de aula, sendo que uma turma recebeu feedback corretivo através de recast e a outra através de elicitação. A hipótese norteadora deste estudo foi que feedback corretivo fornecido ao aluno através de elicitação gera melhor desempenho do aluno do que recast, devido à exigência de que o aluno reformule seus próprios enunciados utilizando, para este fim, seus próprios recursos lingüísticos. Por outro lado, devido à natureza reformuladora de recast, este comportamento corretivo, no qual o professor faz a correção, não estimula o aprendiz a focalizar sua produção errônea com o intuito de corrigí-la. Os dados obtidos apontam que utilizar feedback corretivo na forma de elicitação é benéfico à aprendizagem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sendo um segmento de mercado intensivo em capital, o segmento petroquímico nacional necessita inovar incrementalmente os processos e qualidade de seus produtos para a manutenção e melhoria de sua posição no mercado. Sob essa perspectiva, o presente estudo visa a identificar como ocorre a inovação tecnológica em uma Média Empresa (ME) petroquímica sem estrutura formal local de Pesquisa e Desenvolvimento (P&D). Para tanto, foram investigados os processos que se sucederam na empresa estudada, então, focalizando o período em que seu capital era nacional (1992 a 1995), bem como o período posterior quando a mesma foi adquirida por um grupo multinacional (1996 a 2001), detentor de estrutura formal de P&D, assim analisando-se a diferença entre os períodos. De modo a se caracterizar a atividade de inovação tecnológica na EMPRESA, concentrou-se a atenção nas fontes internas relacionadas às competências existentes. Para isso, foram executadas duas pesquisas aplicando-se um questionário para cada um dos períodos, pesquisou-se a documentação da EMPRESA e posteriormente entrevistou-se 8% da população, de modo a se complementar as informações que não ficaram claras nas respostas do questionário. Como resultado, detectou-se que para a inovação em uma empresa sem P&D deve-se investir pesadamente nos recursos humanos através da criação de condições motivadoras às pessoas, que se tenha liberdade para a experimentação, que haja um sentimento de co-propriedade nos empregados e exista apoio da administração para o aceite da ocorrência de erros passíveis inerentes ao processo de melhorias incrementais.