980 resultados para Métodos Runge-Kutta
Resumo:
A segurança no ambiente de redes de computadores é um elemento essencial para a proteção dos recursos da rede, dos sistemas e das informações. Os mecanismos de segurança normalmente empregados são criptografia de dados, firewalls, mecanismos de controle de acesso e sistemas de detecção de intrusão. Os sistemas de detecção de intrusão têm sido alvo de várias pesquisas, pois é um mecanismo muito importante para monitoração e detecção de eventos suspeitos em um ambiente de redes de computadores. As pesquisas nessa área visam aprimorar os mecanismos de detecção de forma a aumentar a sua eficiência. Este trabalho está focado na área de detecção de anomalias baseada na utilização de métodos estatísticos para identificar desvios de comportamento e controlar o acesso aos recursos da rede. O principal objetivo é criar um mecanismo de controle de usuários da rede, de forma a reconhecer a legitimidade do usuário através de suas ações. O sistema proposto utilizou média e desvio padrão para detecção de desvios no comportamento dos usuários. Os resultados obtidos através da monitoração do comportamento dos usuários e aplicação das medidas estatísticas, permitiram verificar a sua validade para o reconhecimento dos desvios de comportamento dos usuários. Portanto, confirmou-se a hipótese de que estas medidas podem ser utilizadas para determinar a legitimidade de um usuário, bem como detectar anomalias de comportamento. As análises dos resultados de média e desvio padrão permitiram concluir que, além de observar os seus valores estanques, é necessário observar o seu comportamento, ou seja, verificar se os valores de média e desvio crescem ou decrescem. Além da média e do desvio padrão, identificou-se também a necessidade de utilização de outra medida para refletir o quanto não se sabe sobre o comportamento de um usuário. Esta medida é necessária, pois a média e o desvio padrão são calculados com base apenas nas informações conhecidas, ou seja, informações registradas no perfil do usuário. Quando o usuário faz acessos a hosts e serviços desconhecidos, ou seja, não registrados, eles não são representados através destas medidas. Assim sendo, este trabalho propõe a utilização de uma medida denominada de grau de desconhecimento, utilizada para medir quantos acessos diferentes do seu perfil o usuário está realizando. O sistema de detecção de anomalias necessita combinar as medidas acima descritas e decidir se deve tomar uma ação no sistema. Pra este fim, propõe-se a utilização de sistemas de regras de produção e lógica fuzzy, que permitem a análise das medidas resultantes e execução do processo de decisão que irá desencadear uma ação no sistema. O trabalho também discute a integração do sistema de detecção de intrusão proposto à aplicação de gerenciamento SNMP e ao gerenciamento baseado em políticas.
Resumo:
Economic theory deals with a complex reality, which may be seen through various perspectives, using different methods. Economics’ three major branches – development economics, macroeconomics, and microeconomics – cannot be unified because the former two use preferentially a historical-deductive, while the later, an essentially hypothetical-deductive or aprioristic method. Smith, Marx and Keynes used an essentially the method of the new historical facts, while Walras, an aprioristic one to devise the neoclassical general equilibrium model. The historical-deductive method looks for the new historical facts that condition the economic reality. Economic theory remains central, but it is more modest, or less general, as the economist that adopt principally this method is content to analyze stabilization and growth in the framework of a given historical phase or moment of the economic process. As a trade off, his models are more realistic and conducive to more effective economic policies, as long as he is not required to previously abandon, one by one, the unrealistic assumptions required by a excessively general theory, but already starts from more realistic ones
Resumo:
O objetivo deste trabalho foi investigar a aplicação de métodos de ultra-som para avaliação e caracterização da microestrutura de materiais cerâmicos à base de alumina e sua associação com as propriedades mecânicas destes materiais. Para tanto, foram conformados por prensagem uniaxial corpos cerâmicos contendo 94,3% em peso de Al2O3. Os corpos cerâmicos foram sinterizados em forno de resistência elétrica em temperaturas que variaram entre 1100 e 1600 °C. A resistência mecânica e o KIc foram determinados por ensaios de flexão a quatro pontos. Para medir a resistência ao dano por choque térmico, os corpos cerâmicos foram colocados em um forno pré-aquecido na temperatura de teste e permaneceram nesta temperatura por 40 min, quando, então, foram resfriados bruscamente através da imersão dos corpos cerâmicos em água mantida a 0oC. A microestrutura dos corpos cerâmicos foi caracterizada por microscopia eletrônica de varredura e microscopia óptica. Para os ensaios de ultra-som foram utilizados transdutores piezelétricos de 2 e 4 MHz de freqüência nominal. A imagem resultante foi tratada via software e utilizouse um osciloscópio para padronização. Foram utilizados como parâmetros a velocidade da onda ultra-sônica e a sua atenuação. Os resultados indicaram a correlação entre as propriedades acústicas do material com a sua microestrutura e com suas propriedades mecânicas, tais como, resistência mecânica, módulo de elasticidade e dano por choque térmico. Foi possível propor equações relacionando a resistência mecânica com a variação do coeficiente de atenuação e da velocidade de propagação das ondas ultra-sônicas. Sugere-se também a possibilidade de utilização do coeficiente de atenuação para a determinação da confiabilidade do material cerâmico e o seu uso para a estimativa de vida útil do material sob carga constante ou submetido a choque térmico.
Resumo:
O método de análise de solo Mehlich-1 em uso no RS e SC não é adequado para a avaliação da disponibilidade de fósforo em solos adubados recentemente com fosfatos naturais, além de, na comparação com o método da resina de troca iônica, freqüentemente apresentar coeficientes de determinação entre fósforo extraído do solo e parâmetros de plantas menores. Questiona-se também a adequaçãodos teores críticos de fósforo e potássio do solo e as doses de fertilizantes recomendadas atualmente, com base em calibrações feitas entre as décadas de 1960 a 1980, sob sistema convencional e amostragem da camada 0-20 cm de profundidade, para o sistema de plantio direto, com amostragem na camada 0-10 cm.Para equacionar alguns dos aspectos mencionados foram feitos três estudos. No primeiro, correlacionou-se o fósforo extraído, pelos métodos Mehlich-1 e resina de troca iônica, de 100 amostras de solos com diferentes classes de textura e teores de fósforo, com o objetivo de obter um índice de equivalência entre o fósforo determinado por ambos os métodos. No segundo estudo, foram enterradas lâminas de resina para avaliar a capacidade da resina em estimar a disponibilidade de fósforo para as plantas de milho e arroz em diferentes estádios de desenvolvimento. No terceiro estudo, utilizaram-se resultados de experimentos com doses de fósforo e potássio, cultivados com soja, trigo e milho, para re-calibrar os teores críticos de fósforo e potássio do solo pelo método Mehlich-1, e calibrar os resultados obtidos com o método Mehlich-3 e resina Os resultados obtidos no estudo 1 não permitiram estabelecer um índice de equivalência analítico entre os métodos Mehlich-1 e resina, pois a extração depende também da interação entre teores de fósforo e argila do solo. O método da resina enterrada foi eficiente para determinar a disponibilidade de fósforo para o arroz em solos inundados, mas pode não ser adequado para a cultura do milho. Os teores críticos de fósforo e potássio utilizados atualmente para recomendação de adubação estão subestimados, tanto para as amostras na camada 0-20, como na 0-10 cm de profundidade. As doses de fósforo e potássio, recomendadas para as culturas soja e milho, também estão subestimadas. Os coeficientes de determinação, obtidos entre o fósforo e o potássio determinados pelos métodos Mehlich-1 e resina e o rendimento das culturas soja, milho e trigo, foram maiores do que os obtidos com o Mehlich-3 para mesma relação.
Resumo:
Neste trabalho procuramos analisar alguns métodos iterativos e os processos de aceleração na solução lineares grandes e esparsos, associando o uso de alguns pré-condicionadores, tais como os métodos de fatoração incompleta. De forma mais específica, nos detivemos no estudo deos métodos de fatoração incompleta LU, ou ILU, e o método de Cholesky incompleto. Para isso procuramos antes definir algumas especificidades sobre esses métodos, tais como, crtérios de existência, limitação. Alguns fatores analisam tais problemas e sugerem algumas técnicas de conserto, ou seja, algumas maneiras de eliminar tais falhas para que os métodos de iteração possam ser utlizados para determinar soluções mais próximas da solução real. Procedemos a uma revisão teórica de alguns dos métodos iterativos, dos pré-condicionadores. Jacobi, fatoração incompleta LU e fatoração incompleta de Cholesky e a sua associação com os métodos iterativos GMRES e Gradiente Conjugado. Utilizando os pré-condionadores associados aos métodos iterativos citados e fixando alguns parâmetros de parada, aplicamos algusn testes. Os resultados e a análise dos mesmos encontram-se neste trabalho.
Resumo:
Resumo não disponível.
Resumo:
A avaliação de resultados em RH tem sido proposta por diversos autores nos últimos anos. As propostas diferem quanto à forma de mensuração da contribuição da área para o desempenho da organização e quanto ao conteúdo do que se propõe, efetivamente, mensurar. Essas divergências refletem, em grande medida, as premissas adotadas em relação ao papel que a área desempenha (ou deveria desempenhar). Esses métodos de avaliação e mensuração são também alvo de inúmeras críticas (Pfeffer, 1997). Levando-se em conta a diversidade de propostas para a avaliação e mensuração, as observações de Pfeffer (1997) e a escassez de trabalhos sobre o tema na literatura brasileira, este trabalho faz um levantamento e análise das propostas encontradas na literatura para avaliação e mensuração de resultados da área de RH.
Resumo:
A leflunomida é um pró-fármaco anti-reumático encontrado na forma de comprimidos revestidos com nome comercial ARAVA que, in vivo, é rápida e extensamente convertida a seu metabólito ativo A77 1726. Considerando a ausência de metodologia de controle de qualidade na literatura para a leflunomida, foram desenvolvidos métodos de caracterização e quantificação da leflunomida matéria-prima e na forma de comprimido, além de estudo preliminar de sua estabilidade. As técnicas de ponto de fusão, espectroscopia no IV, RMN 1H e 13C e CLAE associada a detector de arranjo de diiodos foram utilizadas para identificação e caracterização da leflunomida. O A77 1726 foi sintetizado e caracterizado pelas técnicas de espectroscopia no IV, RMN 1H e 13C, CLAE e DSC. Foi desenvolvido e validado método analítico para quantificação da leflunomida em comprimidos por CLAE utilizando coluna C18, ACN:água (50:50) como fase móvel e detecção em 254 nm. O método apresentou parâmetros cromatográficos adequados e parâmetros de desempenho analítico satisfatórios, com limite de detecção de 10 ng/mL. Método por espectroscopia derivada no UV foi desenvolvido e validado como alternativa para quantificação da leflunomida em comprimidos. A comparação do método por UV derivada com a CLAE, para determinação da leflunomida em comprimidos, mostrou que os métodos são intercambiáveis, creditando a técnica de UV para testes de controle de qualidade de rotina. Foram realizados estudos de degradação forçada dos comprimidos de leflunomida submetendo amostras à temperatura de 80 ºC ou exposição à radiação UV a 254 nm com lâmpada germicida. O principal produto de degradação encontrado foi o A77 1726. Além disso, outro produto de degradação, com tempo de retenção de 5,5 min (CLAE), apresentou quantidades significativas no estudo de degradação térmica.
Resumo:
Os objetivos deste trabalho foram (i) rever métodos numéricos para precificação de derivativos; e (ii) comparar os métodos assumindo que os preços de mercado refletem àqueles obtidos pela fórmula de Black Scholes para precificação de opções do tipo européia. Aplicamos estes métodos para precificar opções de compra da ações Telebrás. Os critérios de acurácia e de custo computacional foram utilizados para comparar os seguintes modelos binomial, Monte Carlo, e diferenças finitas. Os resultados indicam que o modelo binomial possui boa acurácia e custo baixo, seguido pelo Monte Carlo e diferenças finitas. Entretanto, o método Monte Carlo poderia ser usado quando o derivativo depende de mais de dois ativos-objetos. É recomendável usar o método de diferenças finitas quando se obtém uma equação diferencial parcial cuja solução é o valor do derivativo.
Resumo:
Industrial segment uses natural resources in a wide scale, but evaluate the use of these resources is a complex and new task. Few is known about existing methodologies of evaluation, mainly because of the fact that the value of this resource is more implicit than explicit. It is known that evaluation methods support the environmental accounting but the industrial community for an effective environmental management of their businesses does not yet use this tool in a regular basis. The main objective of this work is to analyze how companies who develop industrial activities on mining, siderurgy, paper and cellulose segments, are evaluating the use of natural resources for economic development, in terms of methodologies application for environment evaluation. Based on an explore research with companies from the segments previously defined in an intentional sampling and through a case study, it was possible to understand enterprise behavior according to the existing level of knowledge internalized on evaluation methodologies, to go deeper on an analysis of the premises and of the basis of the methodologies in an environmental accounting project of a paper and cellulose segment industry.
Mudanças de métodos de custeio e o impacto no sistema de informação gerencial: um estudo qualitativo
Resumo:
A presente pesquisa consiste em identificar os impactos causados no Sistema de Informações Gerenciais com a mudança de método de Custeio Variável para Unidade de Esforço de Produção (UEP), mediante a realização de um Estudo de Caso sobre a empresa Bistex Alimentos LTDA. A coleta de dados, viabilizada pela análise documental e pela aplicação de entrevista com dois diretores, tornou possível a análise de dados interpretativa dos indicadores de desempenho presentes nas principais alterações após o processo de migração, na forma de um estudo comparativo, levantando controles usados na organização antes e depois da troca de método. Autores como Johnson e Kaplan (1993), que abordam a contabilidade gerencial, Allora (1996), que introduz os custos e controle gerencial de produção, e Wernke (2008), que aborda a aplicação do Método UEP, deram consistência à aplicabilidade operacional desta proposta. Os principais resultados podem ser identificados no ordenamento de informações, fundamental pelo uso da UEP, o que causa alterações na cultura organizacional da empresa. O estudo demonstra que a implementação do método UEP trouxe alterações nos controles da organização, entretanto, ainda falta uma visão holística e a integração com a gestão estratégica
Resumo:
A dificuldade em se caracterizar alocações ou equilíbrios não estacionários é uma das principais explicações para a utilização de conceitos e hipóteses que trivializam a dinâmica da economia. Tal dificuldade é especialmente crítica em Teoria Monetária, em que a dimensionalidade do problema é alta mesmo para modelos muito simples. Neste contexto, o presente trabalho relata a estratégia computacional de implementação do método recursivo proposto por Monteiro e Cavalcanti (2006), o qual permite calcular a sequência ótima (possivelmente não estacionária) de distribuições de moeda em uma extensão do modelo proposto por Kiyotaki e Wright (1989). Três aspectos deste cálculo são enfatizados: (i) a implementação computacional do problema do planejador envolve a escolha de variáveis contínuas e discretas que maximizem uma função não linear e satisfaçam restrições não lineares; (ii) a função objetivo deste problema não é côncava e as restrições não são convexas; e (iii) o conjunto de escolhas admissíveis não é conhecido a priori. O objetivo é documentar as dificuldades envolvidas, as soluções propostas e os métodos e recursos disponíveis para a implementação numérica da caracterização da dinâmica monetária eficiente sob a hipótese de encontros aleatórios.
Resumo:
Aborda Preços de Transferência, métodos de determinação por parte de empresas e governos. Formação das taxas de juros, Preços de Transferência nas operações de transferência internacional de recursos e a legislação brasileira sobre o assunto. Críticas e restrições à abordagem brasileira e proposta de modelos alternativos para o estabelecimento de juros praticados na transferência internacional de recursos entre empresas vinculadas ou situadas em paraísos fiscais.
Resumo:
A segurança dos alimentos é uma preocupação mundial e um fator importante na comercialização de produtos de origem animal. A presença de Salmonella sp. em suínos ao abate e em produtos do tipo frescal podem representar um risco para a saúde do consumidor. A análise de risco prevê a avaliação de diferentes fatores, entre eles a quantificação do microrganismo presente no alimento. A partir disso, a contribuição do presente estudo foi buscar estabelecer um método confiável de quantificação de Salmonella sp. em produtos suínos, uma vez que uma das etapas da análise de risco prevê a quantificação do perigo. No caso de Salmonella sp., a técnica da estimativa do Número Mais Provável (NMP) tem sido adotada. Em uma primeira fase desse trabalho, amostras foram quantificadas, individualmente, com três amostras de Salmonella Typhimurium (ATTCC15290 e 2 amostras de suínos) em três diferentes contagens, 101, 102 e 103 UFC. Para o método A, as amostras quantificadas foram adicionadas a 225 mL de água peptonada tamponada, sendo, posteriormente, fracionadas em 3 alíquotas de 50mL, 5mL e 0,5mL. Para o método B, a amostra fortificada foi diluída em água peptonada tamponada até 10-3, sempre em triplicata. Na segunda fase, foram testadas amostras naturalmente contaminadas, utilizando as mesmas metodologias usadas na primeira fase. Todas as alíquotas de ambos métodos foram incubadas a 370C por 18 horas. Após, cada alíquota foi semeada em caldo Rappaport-Vassiliadis (RV) e incubadas à 420C por 24 h e após, em àgar Xylose-Lysine-Tergitol 4 (XLT4) à 370C por 48 h. Colônias suspeitas foram confirmadas por testes bioquímicos. O número de placas positivas para Salmonella sp. foi utilizado para o cálculo do Número Mais Provável, utilizando tabela apropriada. Na segunda fase, os dois métodos foram avaliados em 20 amostras naturalmente contaminadas, mantidas congeladas por até 115 dias. Em 45 ensaios conduzidos, para cada método, em amostras de lingüiça de carne suína contaminadas artificialmente, 38 do método A e 41 do método B resultaram em NMP (95% de intervalo de confiança) concordante com número de UFC de Salmonella inoculado. A maioria das amostras naturalmente contaminada de massa de embutido apresentaram contagens <10NMP/g. A variabilidade encontrada entre os valores de NMP médio foi bastante elevada, tanto entre os métodos como entre repetições de um mesmo método. Isto reflete uma das limitações do método de NMP para estimar a contagem de microrganismos e deverá ser considerada quando o método for aplicado em alimentos naturalmente contaminados e quando aplicado em um estudo de análise de risco. Uma vez que o método B foi o que demonstrou valores médios de NMP mais próximos das quantidades inoculadas, sugere-se que este seja adotado em estudos futuros de quantificação de Salmonella sp. em produtos de origem suína.