957 resultados para Validação de métodos


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O desenvolvimento de projetos de interfaces gráficas está apoiado em guias de recomendações. Estes guias apresentam regras genéricas aos projetos de Interfaces Homem Computador–IHC. Entretanto, aplicações particulares, como as educacionais, não encontram regras específicas que atendam as necessidades do usuário-alvo. Ainda, a análise comparativa entre guias disponíveis aponta contradições entre as recomendações genéricas com aquelas específicas aplicadas a um determinado ambiente. A necessidade de um modelo de referência para a construção de interfaces gráficas amigáveis ao usuário e a escassez e contradições de recomendações específicas às aplicações educacionais motivaram o trabalho de pesquisa prática junto aos usuáriosalvo. Para a identificação das recomendações sobre aspectos gráficos básicos e elementos de navegação necessários a uma efetiva interação com interfaces dedicadas a aplicações educacionais, foi desenvolvido um instrumento de pesquisa que permitiu a investigação das preferências relativas aos aspectos pesquisados junto ao público-alvo. Os dados coletados foram tratados estatisticamente e os resultados obtidos contrariam tanto critérios adotados em interfaces de sistemas de ensino disponíveis na Internet como algumas recomendações sobre os mesmos disponíveis na literatura. Os resultados obtidos apontam, também, para a preferência dos usuários por elementos de navegação que não são referidos nos guias de recomendações consultados. A análise dos resultados possibilitou a geração de um modelo básico que recomenda preferências sobre aspectos gráficos básicos, como aplicação de cores em fontes e fundos de tela, tipologia de fontes para textos e paginação, e também, sobre componentes de navegação, como posicionamento e preferência por tipo de recurso de navegação. O modelo proposto está fundamentado nas recomendações de Nielsen [NIE 00], o qual recomenda que as necessidades dos usuários na interatividade com a interface sejam identificadas junto a estes usuários. As recomendações apresentadas neste trabalho foram utilizadas, inicialmente, nos ambientes educacionais desenvolvidos dentro dos projetos Tapejara [TAP 00] e LaVia [LAV 00].

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Economic theory deals with a complex reality, which may be seen through various perspectives, using different methods. Economics’ three major branches – development economics, macroeconomics, and microeconomics – cannot be unified because the former two use preferentially a historical-deductive, while the later, an essentially hypothetical-deductive or aprioristic method. Smith, Marx and Keynes used an essentially the method of the new historical facts, while Walras, an aprioristic one to devise the neoclassical general equilibrium model. The historical-deductive method looks for the new historical facts that condition the economic reality. Economic theory remains central, but it is more modest, or less general, as the economist that adopt principally this method is content to analyze stabilization and growth in the framework of a given historical phase or moment of the economic process. As a trade off, his models are more realistic and conducive to more effective economic policies, as long as he is not required to previously abandon, one by one, the unrealistic assumptions required by a excessively general theory, but already starts from more realistic ones

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho foi investigar a aplicação de métodos de ultra-som para avaliação e caracterização da microestrutura de materiais cerâmicos à base de alumina e sua associação com as propriedades mecânicas destes materiais. Para tanto, foram conformados por prensagem uniaxial corpos cerâmicos contendo 94,3% em peso de Al2O3. Os corpos cerâmicos foram sinterizados em forno de resistência elétrica em temperaturas que variaram entre 1100 e 1600 °C. A resistência mecânica e o KIc foram determinados por ensaios de flexão a quatro pontos. Para medir a resistência ao dano por choque térmico, os corpos cerâmicos foram colocados em um forno pré-aquecido na temperatura de teste e permaneceram nesta temperatura por 40 min, quando, então, foram resfriados bruscamente através da imersão dos corpos cerâmicos em água mantida a 0oC. A microestrutura dos corpos cerâmicos foi caracterizada por microscopia eletrônica de varredura e microscopia óptica. Para os ensaios de ultra-som foram utilizados transdutores piezelétricos de 2 e 4 MHz de freqüência nominal. A imagem resultante foi tratada via software e utilizouse um osciloscópio para padronização. Foram utilizados como parâmetros a velocidade da onda ultra-sônica e a sua atenuação. Os resultados indicaram a correlação entre as propriedades acústicas do material com a sua microestrutura e com suas propriedades mecânicas, tais como, resistência mecânica, módulo de elasticidade e dano por choque térmico. Foi possível propor equações relacionando a resistência mecânica com a variação do coeficiente de atenuação e da velocidade de propagação das ondas ultra-sônicas. Sugere-se também a possibilidade de utilização do coeficiente de atenuação para a determinação da confiabilidade do material cerâmico e o seu uso para a estimativa de vida útil do material sob carga constante ou submetido a choque térmico.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O método de análise de solo Mehlich-1 em uso no RS e SC não é adequado para a avaliação da disponibilidade de fósforo em solos adubados recentemente com fosfatos naturais, além de, na comparação com o método da resina de troca iônica, freqüentemente apresentar coeficientes de determinação entre fósforo extraído do solo e parâmetros de plantas menores. Questiona-se também a adequaçãodos teores críticos de fósforo e potássio do solo e as doses de fertilizantes recomendadas atualmente, com base em calibrações feitas entre as décadas de 1960 a 1980, sob sistema convencional e amostragem da camada 0-20 cm de profundidade, para o sistema de plantio direto, com amostragem na camada 0-10 cm.Para equacionar alguns dos aspectos mencionados foram feitos três estudos. No primeiro, correlacionou-se o fósforo extraído, pelos métodos Mehlich-1 e resina de troca iônica, de 100 amostras de solos com diferentes classes de textura e teores de fósforo, com o objetivo de obter um índice de equivalência entre o fósforo determinado por ambos os métodos. No segundo estudo, foram enterradas lâminas de resina para avaliar a capacidade da resina em estimar a disponibilidade de fósforo para as plantas de milho e arroz em diferentes estádios de desenvolvimento. No terceiro estudo, utilizaram-se resultados de experimentos com doses de fósforo e potássio, cultivados com soja, trigo e milho, para re-calibrar os teores críticos de fósforo e potássio do solo pelo método Mehlich-1, e calibrar os resultados obtidos com o método Mehlich-3 e resina Os resultados obtidos no estudo 1 não permitiram estabelecer um índice de equivalência analítico entre os métodos Mehlich-1 e resina, pois a extração depende também da interação entre teores de fósforo e argila do solo. O método da resina enterrada foi eficiente para determinar a disponibilidade de fósforo para o arroz em solos inundados, mas pode não ser adequado para a cultura do milho. Os teores críticos de fósforo e potássio utilizados atualmente para recomendação de adubação estão subestimados, tanto para as amostras na camada 0-20, como na 0-10 cm de profundidade. As doses de fósforo e potássio, recomendadas para as culturas soja e milho, também estão subestimadas. Os coeficientes de determinação, obtidos entre o fósforo e o potássio determinados pelos métodos Mehlich-1 e resina e o rendimento das culturas soja, milho e trigo, foram maiores do que os obtidos com o Mehlich-3 para mesma relação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho procuramos analisar alguns métodos iterativos e os processos de aceleração na solução lineares grandes e esparsos, associando o uso de alguns pré-condicionadores, tais como os métodos de fatoração incompleta. De forma mais específica, nos detivemos no estudo deos métodos de fatoração incompleta LU, ou ILU, e o método de Cholesky incompleto. Para isso procuramos antes definir algumas especificidades sobre esses métodos, tais como, crtérios de existência, limitação. Alguns fatores analisam tais problemas e sugerem algumas técnicas de conserto, ou seja, algumas maneiras de eliminar tais falhas para que os métodos de iteração possam ser utlizados para determinar soluções mais próximas da solução real. Procedemos a uma revisão teórica de alguns dos métodos iterativos, dos pré-condicionadores. Jacobi, fatoração incompleta LU e fatoração incompleta de Cholesky e a sua associação com os métodos iterativos GMRES e Gradiente Conjugado. Utilizando os pré-condionadores associados aos métodos iterativos citados e fixando alguns parâmetros de parada, aplicamos algusn testes. Os resultados e a análise dos mesmos encontram-se neste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A avaliação de resultados em RH tem sido proposta por diversos autores nos últimos anos. As propostas diferem quanto à forma de mensuração da contribuição da área para o desempenho da organização e quanto ao conteúdo do que se propõe, efetivamente, mensurar. Essas divergências refletem, em grande medida, as premissas adotadas em relação ao papel que a área desempenha (ou deveria desempenhar). Esses métodos de avaliação e mensuração são também alvo de inúmeras críticas (Pfeffer, 1997). Levando-se em conta a diversidade de propostas para a avaliação e mensuração, as observações de Pfeffer (1997) e a escassez de trabalhos sobre o tema na literatura brasileira, este trabalho faz um levantamento e análise das propostas encontradas na literatura para avaliação e mensuração de resultados da área de RH.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Introdução O espelho de Glatzel (EG) é correntemente utilizado em consultórios fonoaudiológicos para a avaliação rápida da permeabilidade nasal. O mesmo foi descrito inicialmente em 1898 por Zwaardemaker. Porém, estudos de validação inexistem na literatura. Este estudo teve por objetivos verificar a reprodutibilidade do EG e a correlação intra-sujeito entre área de condensação e percepção subjetiva de permeabilidade nasal. Material e Métodos Vinte e cinco sujeitos foram avaliados com o EG por cinco minutos consecutivos (475 medidas por sujeito); cada meia hora por quatro horas; cada dia no início da tarde, por cinco dias e toda a quinta-feira por cinco semanas consecutivas. Utilizou-se uma escala análoga visual para avaliar a percepção de respiração nos períodos de horas, dias e semanas. Resultados O coeficiente de correlação total (área direita mais esquerda) encontrado entre área de condensação e percepção subjetiva foi de r=0,04 (p=0,3761). No lado esquerdo foi de r=0,08 (p=0,0984) e no lado direito de r=0,05 (p=0,2862). Os coeficientes de variação unilaterais medianos foram menores que 15% e os totais menores que 12%, independente do intervalo de tempo entre teste e re-teste. Conclusão Não se evidenciou correlação significativa entre a percepção subjetiva e a área de condensação nasal. A variabilidade unilateral foi maior do que quando considerados os valores totais (direito mais esquerdo) e não houve diferença na variabilidade das medidas de área de condensação nasal nos diferentes momentos do tempo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As Lesões por Esforços Repetitivos e Doenças Osteomusculares Relacionadas ao Trabalho estão caracterizadas por queixas de grande incapacidade funcional, causadas pelo uso dos membros superiores em tarefas que envolvam movimentos repetitivos. Esses distúrbios também podem ocorrer nas atividades de lazer ou no cotidiano das pessoas, especialmente quando realizadas por períodos longos, sem pausas adequadas para recuperação muscular, ou ainda, sem devido acompanhamento médico. A avaliação de doenças ocupacionais é eminentemente clínica. São raros os casos em que os exames complementares apóiam o diagnóstico médico. Diante disso, o objetivo desta pesquisa foi verificar a eficácia da técnica de Termografia no diagnóstico de LER/DORT. A amostra (n=51) foi dividida em dois grupos. Um grupo experimental (n=41) composto por 26 Taquigrafas da Assembléia Legislativa do Rio Grande do Sul e 15 digitadores da Companhia Estadual de Energia Elétrica do Rio Grande do Sul e um grupo controle (n=10) composto por participantes com outras profissões. Todos eles estavam de acordo com o que prescreve a resolução 196/96 do Conselho Nacional de Saúde. Os resultados do teste Q de Cochran mostraram diferenças estatisticamente significativas entre os 3 observadores da Termografia nas regiões dos punhos, cotovelos e ombros para o teste. Os coeficientes de concordância Kappa de cada observador no teste e reteste foram elevados. O coeficiente de concordância Kappa entre os observadores no teste mostraram que os 3 observadores estavam seguros para diagnosticar punho direito e cotovelos. Tais resultados mostram que a Termografia foi mais sensível e específica que a Ecografia e o Exame Clínico nos punhos direito e esquerdo. Assim, podemos inferir que os dados obtidos através das imagens termográficas permitiram uma melhor visualização das áreas traumatizadas nos componentes da amostra.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os objetivos deste trabalho foram (i) rever métodos numéricos para precificação de derivativos; e (ii) comparar os métodos assumindo que os preços de mercado refletem àqueles obtidos pela fórmula de Black Scholes para precificação de opções do tipo européia. Aplicamos estes métodos para precificar opções de compra da ações Telebrás. Os critérios de acurácia e de custo computacional foram utilizados para comparar os seguintes modelos binomial, Monte Carlo, e diferenças finitas. Os resultados indicam que o modelo binomial possui boa acurácia e custo baixo, seguido pelo Monte Carlo e diferenças finitas. Entretanto, o método Monte Carlo poderia ser usado quando o derivativo depende de mais de dois ativos-objetos. É recomendável usar o método de diferenças finitas quando se obtém uma equação diferencial parcial cuja solução é o valor do derivativo.