404 resultados para Logaritmo discreto, crittografia.
Resumo:
Amostras de Myoporum laetum foram colhidas durante a primavera e verão e administradas a sete ovinos e seis bovinos em doses únicas de 20 e 30g/kg. Amostras de sangue e biopsias hepáticas foram obtidas destes animais e de 4 ovinos e 3 bovinos controles, antes e 1, 3 e 7 dias após a administração da planta. As biopsias foram analisadas histológica e ultra-estruturalmente. A partir das amostras de sangue analisaram-se os níveis séricos de GGT, AST e bilirrubina total. Os sinais clínicos, em ovinos, caracterizaram-se, especialmente, por depressão, diminuição dos movimentos ruminais, fezes ressequidas, tenesmo, ranger de dentes, dispnéia e lesões de fotossensibilização. Em bovinos, o quadro clínico foi discreto. Em ovinos os níveis enzimáticos de AST, GGT e bilirrubina total elevaram-se 24 horas após a administração da planta, mas não nos controles. Os principais achados histológicos, em ovinos, incluíram vacuolização de hepatócitos, fibrose portal, proliferação de ductos biliares e necrose de hepatócitos periportais. Os estudos ultra-estruturais, em ovinos, revelaram hiperplasia do retículo endoplasmático liso, tumefação de hepatócitos, degranulação e vesiculação do retículo endoplasmático rugoso, presença de cristais aciculares, retenção biliar, tumefação de mitocôndrias e várias outras alterações degenerativas. Em bovinos, os sinais clínicos, achados histológicos e ultra-estruturais e alterações bioquímicas foram menos evidentes. A evolução da doença foi compatível com as alterações clínicas, histopatológicas, ultra-estruturais e com a atividade enzimática.
Resumo:
Este trabalho propõe maneiras alternativas para a estimação consistente de uma medida abstrata, crucial para o estudo de decisões intertemporais, o qual é central a grande parte dos estudos em macroeconomia e finanças: o Fator Estocástico de Descontos (SDF, sigla em Inglês). Pelo emprego da Equação de Apreçamento constrói-se um inédito estimador consistente do SDF que depende do fato de que seu logaritmo é comum a todos os ativos de uma economia. O estimador resultante é muito simples de se calcular, não depende de fortes hipóteses econômicas, é adequado ao teste de diversas especificações de preferência e para a investigação de paradoxos de substituição intertemporal, e pode ser usado como base para a construção de um estimador para a taxa livre de risco. Alternativas para a estratégia de identificação são aplicadas e um paralelo entre elas e estratégias de outras metodologias é traçado. Adicionando estrutura ao ambiente inicial, são apresentadas duas situações onde a distribuição assintótica pode ser derivada. Finalmente, as metodologias propostas são aplicadas a conjuntos de dados dos EUA e do Brasil. Especificações de preferência usualmente empregadas na literatura, bem como uma classe de preferências dependentes do estado, são testadas. Os resultados são particularmente interessantes para a economia americana. A aplicação de teste formais não rejeita especificações de preferências comuns na literatura e estimativas para o coeficiente relativo de aversão ao risco se encontram entre 1 e 2, e são estatisticamente indistinguíveis de 1. Adicionalmente, para a classe de preferência s dependentes do estado, trajetórias altamente dinâmicas são estimadas para a tal coeficiente, as trajetórias são confinadas ao intervalo [1,15, 2,05] e se rejeita a hipótese de uma trajetória constante.
Resumo:
Trata de modelos de avaliação debonds, dentro de uma abordagem evolutiva. Apresenta a evolução das técnicas de precificação desses títulos de renda fixa. Inicialmente discute a abordagem tradicional, que compreende a determinação do valor do fluxo de caixa descontado e a análise de sensibilidade dos preços dos títulós a alterações nas taxas de juros, bem como imunização de carteira de bonds quando seadmite uma estrutura temporal de juros constante. A seguir apresenta as várias formas da curva de juros a vista e as teorias econômicas elaboradas para explicar estas formas. Finalmente, traz modelos dinâmicos de determinação da estrutura temporal de juros, desenvolvidos para tempo contínuo e para tempo discreto.
Resumo:
O presente trabalho consiste em um estudo qualitativo exploratório, com o objetivo geral de analisar se o Termo de Parceria, instrumento pelo qual as organizações sem fins lucrativos qualificadas como OSCIPs (Organização da Sociedade Civil de Interesse Público) podem se relacionar com o Poder Público, está cumprindo o objetivo de ser um mecanismo que proporciona ao Poder Público maior flexibilidade, com a garantia de controle, na transferência da provisão de serviços e implementação de políticas públicas para o setor sem fins lucrativos. A qualificação de OSCIP e o Termo de Parceria foram criados em 1999 pela Lei nº 9.790, dentro do cenário em que se discutiu a Reforma do Estado e o papel das organizações do Terceiro Setor como parceiras do Estado na provisão de serviços. A Reforma teve entre outros princípios, o de aumentar a eficiência dos serviços públicos, flexibilizar procedimentos e instituir novas formas de controle focadas na obtenção de resultados. Passados quase oito anos da criação do novo instrumento de parceria, fomos investigar quantos foram firmados, com quais órgãos, para quais objetivos, entre outras informações. Além disso, procuramos saber como o Termo de Parceria tem sido utilizado pelos órgãos públicos, na relação com as OSCIPs. Os dados mostram que está ocorrendo um crescimento, nos últimos anos, do número de Termos de Parceria firmados, mesmo que discreto. A princípio, a análise que fizemos da legislação que regula o instrumento parece indicar que ele dá conta do dilema flexibilidade versus controle, proporcionando um equilíbrio entre as duas demandas. No entanto, na prática, a utilização do Termo de Parceria parece apresentar problemas em solucionar o desafio da nova gestão pública e muitas das potenciais vantagens da lei ainda não estão sendo plenamente aproveitadas. Acreditamos que, entre outros fatores, isso ocorre pela insegurança dos gestores em utilizar um novo instrumento e pela estrutura de funcionamento e cultura dos órgãos.
Resumo:
Esta dissertação estuda a aplicação da estratégia Pairs Trading no mercado acionário brasileiro. Envolve basicamente a identificação de pares de ações que tenham movimentos de preço semelhantes e posteriormente a operação do diferencial entre seus preços. É possível observar no mercado a existência de um valor de equilíbrio de longo prazo para alguns pares de ações e quando o diferencial divergir de certa quantidade pré-definida opera-se o diferencial no intuito de que o mesmo retorne ao seu valor de equilíbrio de longo prazo, ou seja, espera-se que ocorra uma reversão à média do diferencial. A metodologia para a identificação desses pares de ações que descrevem movimentos semelhantes vem do conceito de cointegração. Essa metodologia é aplicada sobre as ações do índice Bovespa de 04-Jan-1993 a 30-Jun-2005. Inicialmente é feita uma pré-seleção dos pares de ações via correlação, ou medida de distância. Para a seleção final é feito o teste de cointegração, onde é utilizado o método de Dickey-Fuller aumentado (Augmented Dickey-Fuller test – ADF) para verificar a existência de raiz unitária da série de resíduo da combinação linear do logaritmo dos preços. Após a seleção, os pares são simulados historicamente (backtesting) para se analisar a performance dos retornos dos pares de ações, incluindo também os custos operacionais.
Resumo:
Na presente dissertação foi implementado um modelo para execução de hedging de mínima variância de opções de compra européias em mercados incompletos, considerando um espaço de tempo discreto e contínuo de estados. O desempenho foi medido de forma comparativa tomando como base a popular estratégia delta-hedging em um grande número de simulações, a partir de cenários definidos com o objetivo de submeter o modelo a diversas situações. A trajetória do preço do ativo objeto foi representada por um processo de difusão com saltos, composto por duas parcelas: (i) um processo de Wiener, cuja principal característica é ser uma função contínua e diferenciável em todos os pontos, e (ii) por um processo de Poisson, responsável por inserir descontinuidades na trajetória.
Uso de probióticos em crianças HIV positivas : um ensaio clínico randomizado duplo cego (controlado)
Resumo:
Introdução: AIDS é uma infecção caracterizada pela disfunção das células imunes - imunodeficiência, e freqüente disfunção intestinal. Probióticos, suplemento alimentar microbiano vivo, que afeta beneficamente o animal hospedeiro através do balanço da microflora intestinal e promoção de efeitos benéficos à saúde. Objetivos: determinar a resposta imunológica (CD4 cels/mm3) e diminuir os episódios de fezes líquidas. Metodologias: estudo randomizado duplo-cego controlado, com crianças infectadas pelo vírus HIV (2 - 12 anos), divididas em dois grupos – um recebendo probióticos (fórmula contendo Bifidobacterium bifidum e Streptococcus thermophilus – 2,5x1010 ufc) e, o outro, fórmula padrão (grupo controle). Os valores de CD4 foram coletados no início e término do estudo. A consistência e o número de episódios de fezes foram acessados através de um questionário, e duas amostras de fezes foram coletadas para cultura de Cândida. Resultados: observamos aumento da media de células totais de CD4 no grupo (791 cels/mm3), e um pequeno declínio no grupo controle (538 cels/mm3); a diferença das médias foi de 118 cels/mm3 vs. -42 cels/mm3 (p 0.049), analisado estatisticamente pelo delta de logaritmo base 10 do CD4 log10. Observamos uma redução na freqüência de fezes líquidas semelhante nos dois grupos (p 0,06), porém com leve melhora no grupo probiótico, porém sem diferença estatística (p 0,522). Também houve uma leve diminuição da freqüência de fezes pastosa (p 0,955), bem como um aumento na freqüência de fezes normais nos dois grupos (p 0.01). Conclusão: Nosso estudo mostrou as propriedades imunomodulatórias dos probióticos, e que estes podem ser úteis para auxiliar no tratamento de crianças infectadas pelo HIV.
Resumo:
Até os dias de hoje, a abordagem estática tem sido a usualmente empregada para a avaliação da resposta de cabos de Linhas de Transmissão (LTs), apesar da resposta dinâmica ser, em muitos casos, reconhecidamente importante na avaliação do desempenho dos cabos. Para uma análise completa, não se pode desconhecer a natureza dinâmica da maioria dos fenômenos a que as LTs estão submetidas, sendo exemplos típicos as excitações mecânicas causadas pela ação do vento (carregamentos de baixa e alta freqüência) e a ruptura de cabos. Cabe salientar que mesmo a análise estática empregada tem sido simplificada, considerando normalmente apenas casos contemplados com soluções analíticas. A justificativa para emprego da análise estática baseia-se no menor esforço numérico exigido. Entretanto, essa justificativa já não se sustenta dado os grandes avanços na área computacional, possibilitando o estudo do desempenho de LTs na ocorrência de fenômenos que provocam carregamentos dinâmicos. Adicionalmente, há uma crescente demanda para que se obtenha um melhor entendimento de muitas questões relativas ao comportamento dinâmico das LTs, que possam explicar desempenhos observados e/ou sustentar o desenvolvimento de novas alternativas mais arrojadas de projeto e construção Entre os diversos métodos utilizados na engenharia estrutural, a integração direta das equações do movimento, através de métodos numéricos como as diferenças finitas centrais, se constitui numa poderosa ferramenta de cálculo. Esta ferramenta possibilita o tratamento de problemas envolvendo não linearidades geométricas e do material, como são os casos onde se avalia a resposta de cabos suspensos submetidos a carregamentos variáveis no tempo. Esta pesquisa objetiva a aplicação do método da integração direta das equações do movimento na análise de feixes de cabos de LT, quando submetidos à ação de carregamentos mecânicos variáveis no tempo, principalmente à excitação de ventos oriundos de fenômenos com natureza complexa (tormentas elétricas, por exemplo). É apresentado um método para determinar a resposta dinâmica de feixes que considera a interação entre o vento incidente e o movimento do condutor. A solução é obtida por integração numérica, no domínio do tempo, das equações de movimento de um modelo tridimensional não-linear discreto de feixe, as quais definem as forças nos espaçadores e cabos através de coeficientes aerodinâmicos obtidos experimentalmente. Também são apresentados modelos dos fenômenos meteorológicos mais comuns em nosso país (Brasil): tormenta extratropical (EPS) e tormenta elétrica (TS) Como ilustração, são apresentados exemplos de modelagem de vãos de LTs com condutor singelo e com feixes de condutores. Os exemplos demonstram a capacidade de avaliação de Estados Limites relacionados à distância relativa entre subcondutores, à estabilidade do feixe, à representação das suas propriedades e ao comportamento dinâmico, bem como aos carregamentos transmitidos às estruturas. A análise emprega conhecidas relações constitutivas para representar o comportamento tensão-deformação dos cabos. O enfoque utilizado possibilita a avaliação mais precisa de casos reais que ainda não podiam ser convenientemente tratados, além de permitir a extensão para estudos bem mais complexos, tais como feixes com disposições assimétricas.
Resumo:
Pretende-se desenvolver aqui uma reflexão sobre como, a partir do século XIX, no nosso país, a criança passou a ser alvo de forças que dela se apropriaram para forjar o indivíduo obediente e, sobretudo, útil. A submissão ao poder patriarcal foi substituída pela submi~ são a um poder distribuído e organi zado dentro da sociedade que atravessa os corpos e exerce sobre eles um controle tão forte quanto discreto, produzindo no final uma multidão de individua lidades, de "di6e~ença~" ... iguais. Dentro da família a mulher passou a ocupar um lugar de destaque pois, como mãe, papel enaltecido a partir de então, veio a ser a responsável pela formação e educação dos filhos, futuros cidadãos. Sua função viria a ser reforçada pela esco la e por outros dispositivos do poder discipl inar, como o enten de Foucault. Hoje, o conhecimento do mundo infantil, o atendimento das necessidaaes da criança, a compreensão dos seus desejos sa-o, n a ver d a de, p r o d u ç õ e s das p r á t i c a s d e c o n t r o 1 e e v i g i 1 ã n c i a da s crianças. Pensar sobre essas questões e o começo de uma mudança que se quer, aqui, estimular. Por contágio.
Resumo:
Este trabalho visa apresentar uma metodologia para modelagem de motoristas a serem utilizados em simulações de tráfego veicular discreto. Além da metodologia, será apresentada uma plataforma para implementação de motoristas, chamada DRIVER-DFW, baseada neste conceito. Inicialmente, serão apresentados alguns modelos de movimentação de veículos baseados no modelo de autômato celular Nagel–Schreckenberg. O modelo básico será apresentado juntamente com alguns de seus aperfeiçoamentos, que são os modelos utilizados no simulador ITSUMO, que por sua vez é utilizado como base para o trabalho. Além dos modelos de autômato celular, serão apresentados modelos de planejamento de rota, que se utilizam de várias heurísticas para a tomada de decisão dos motoristas. Destes, selecionou-se um para implementação e demonstração. Mostradas as etapas para composição do modelo completo de motorista, isto é, movimentação e planejamento, será apresentada a plataforma para implementação de motoristas desenvolvida neste trabalho. Esta separação é a base da plataforma DRIVER-DFW que é discutida com mais detalhes para auxiliar a compreensão do seu funcionamento. Além disso, é mostrado como a metodologia é aplicada na plataforma para implementação de motoristas DRIVER-DFW. Por fim, conclui-se que este trabalho apresenta uma alternativa bastante atraente para a implementação de modelos de motoristas, com uma metodologia e uma plataforma de desenvolvimento. Também são apresentadas as diretrizes para dar prosseguimento a este.
Resumo:
Neste trabalho é apresentada a solução da equação de difusão-advecção transiente para simular a dispersão de poluentes na Camada Limite Planetária. A solução é obtida através do método analítico GILTT (Generalized Integral Laplace Transform Technique) e da técnica de inversão numérica da quadratura de Gauss. A validação da solução é comprovada utilizando as concentraçãos obtidas a partir do modelo com as obtidas experimentalmente pelo Experimento de Copenhagen. Nesta comparação foram utilizados os perfis de vento potencial e logaritmo e os parâmetros de turbulência propostos por Degrazia et al (1997) [19] e (2002) [17]. Os melhores resultados foram obtidos utilizando o perfil de vento potencial e o coeficiente de difusão propostos por Degrazia et al (1997). A influência da velocidade vertical é mostrada através do comportamento das concentrações de poluentes na pluma. Além disso, as velocidades verticais e longitudinais geradas pelo Large Eddy Simulation (LES) foram colocadas no modelo para poder simular uma camada limite turbulenta mais realística, a qual apresentou resultados satisfatórios quando comparados com os disponíveis na literatura.
Resumo:
O estudo do "Racionamento de Capital", objetivo da presente Dissertação, se ocupa em descrever técnicas quantitativas que nos conduzem a soluções ótimas, maximizadoras do valor de mercado da empresa sob estreiteza orçamentária. Na verdade, as soluções são sub ótimas porque, os próprios tetos orçamentários, a indivisibilidade dos investimentos, a ausência de um "continuum" de soluções tecnológicas, de tamanho e de localização, o tratamento discreto das oportunidades de inversão, o desconhecimento de todas as alternativas presentes e futuras, entre outros fatores, impedem a obtenção do ótimo verdadeiro. Ainda assim, a situação de sub otimização deve ser criteriosamente equacionada e diligentemente perseguida
Resumo:
A teoria do custo padrão ressente-se de um tratamento matemático, como o que aqui é proposto. Conforme foi salientado no início, este tratamento matemático, embora substancialmente simples, é todavia absolutamente rigoroso e também é completo quando visto do prisma que se adotou. Modelamos a distinção necessariamente explícita entre a produção contínua e a produção descreta, através do uso dos modelos algébricos a dois e três fatores, respectivamente. Unificamos de uma maneira sitemática a abordagem dos três elementos básicos do custo, simplificando de um lado e generalizando do outro. Esta unificação levou aos elementos diretos também, como deve ser, todo o rigorismo analítico do elemento indireto. Ampliou-see a estreita visão das variações de preço e quantidade com a consideração da variação de unidades, qua acarretou automaticamente a substituição do conceito de variação total pelo de variação total orçamentária. A modelagem algébrica não tem a vantagem da visualidade que a modelagem gráfica oferece, mas tem, por outro lado, a superioridade que a generalização apresente. Com efeito, foi a generalização das definições das variações que permitiu os resultados obtidos, aqui resumidos. Mas as razões do método gráfico são também apreciáveis.Assim, o desdobramento da variação total em variação de preço e variação de quantidade é ainda mais ressaltada pelo método gráfico, no qual se vê a variação de quantidade como o resultado de um deslocamento horizontal do ponto cuja abcissa é a quantidade e cuja ordenada é o custo total. Também a variação de preço lá aparece como o resultado da variação do coeficiente angular da reta do custo. Implicando em um deslocamento do ponto representativo da produção. Graficamente também se vê a análise das variações de preço e quantidade nas suas componentes pura e mista.Finalmente os modelos tabulares para os sistemas de produção discreto e contínuo apresentam da maneira mais simples possível todas as variações e seus respectivos custos analisadores. A forma tabular é a mais apreciada pelo administrador prático, pouco efeito à algebra e a geometria. Já o mesmo não se pode dizer do desdobramento, feito por muitos autores, da variação de preço em variação de capacidade e variação de orçamento. Da variação de capacidade já se evidenciou a inadequação do nome, dado que ela não é função da variação de preço. Isto não é mera questão teminológica. A terminologia apenas traz à luz a essência da dificuldade. E nossa proposição que este desdobramento seja descartado por ser totalmente sem significação, mesmo para o elemento indireto, para o qual foi proposto. Esta consideração é importante para a consideração da variação das unidades. Assim, introduzido o orçamento na análise das variaçãoes, a variação de orçamento que verdadeiramente merece este nome é a variação total orçamentária, ou seja, a diferença entre o custo efetivo e o custo orçado, a qual inclui como suas componentes a variação de unidades, a variação da quantidade e a variação de preço. O que é importante na análise da variação de preço é a consideração de variação mista de preço e de quantidade. Foi dado bastante destaque a este desdobramento com a apresentação de mais de um método para o tratamento analítico do desdobramento. Também foi devidamente ressaltada a questão das responsabilidades administrativas derivadas da variação mista
Resumo:
Com base em uma metodologia desenvolvida por Frankel e Lown (1994), que surge para aperfeiçoar o arcabouço utilizado por Mishkin (1990a,1990b) ao permitir, em contraposição a este, a variação ao longo do tempo da taxa de juros real de longo prazo de uma economia, o presente trabalho se propõe a verificar o existência, para dados brasileiros, de evidências empíricas que suportem a aceitação da hipótese de que a estrutura a termo da curva de juros possui informações que auxiliam na previsão da trajetória futura da inflação, característica já encontrada em dados de algumas economias desenvolvidas, como Estados Unidos e Alemanha. A modificação marginal implementada por Frankel e Lown é importante porque permite que os resultados finais sejam interpretados dentro de um contexto teórico mais próximo da realidade, isto é, onde as decisões de política monetária são capazes de influenciar a variável acima mencionada. Analisa-se, para o período de janeiro de 2003 a janeiro de 2013, o poder explicativo que diversas medidas de inclinação da curva de juros local têm sobre a variação futura do índice de preços ao consumidor ampliado (IPCA), o mais importante da economia brasileira. Em linhas gerais, encontramos que, em consonância com a experiência internacional, independente de tratarmos os dados na forma com ou sem ajustes sazonais, ou de tratar as variáveis relativas à taxa de juros como logaritmo de um fator mais suas taxas ou de apresentá-las em seu próprio nível, existem evidências empíricas que indicam a existência de poder preditivo desta variável explicativa sobre a referida variável dependente, ou ao menos tornam difícil rejeitar, em um primeiro momento, esta hipótese inicial.
Resumo:
Em modelos em que a distribuição espacial da população não é con- siderada, isto é, quando se supõe que haja uma homogeneidade espacial, e se estuda a evolução temporal do sistema, há uma única variável independente: o tempo. Caso a população seja constituída de duas espécies, do tipo parasitóide-hospedeiro, e a variável independente tempo for considerada discreta, teremos um sistema de equações a diferenças, como por exemplo o modelo de Nicholson-Bailey cujas soluções são apresentadas neste trabalho. Populações espacialmente distribuídas, em um espaço de natureza discreta, juntamente com a dinâmica vital em tempo discreto, têm o seu comportamento estudado através de redes de mapas acoplados. Após estudar o modelo de Hassell (dinâmica vital de Nicholson-Bailey com movimentação por difusão) e o modelo planta-herbívoro com movimentação por taxia, deduzimos e simulamos um modelo incluindo movimentação por taxia, difusão e convecção. É também apresentado neste trabalho, um paralelo entre estes modelos de redes de mapas acoplados e aqueles com as equações diferenciais correspondentes.