1000 resultados para Modelagem por distorção poli-hamônica. Parâmetro-X. Banco de testes. Estruturas planares. PHD


Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo do presente trabalho é montar um banco de dados a partir das informações sobre o perfil das Organizações Não-Governamentais (ONGs) filiadas à Associação Brasileira de Organizações Não-Governamentais (Abong), e, assim, desenvolver uma ferramenta para estudar as organizações do Terceiro Setor.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Durante o século passado, a motivação para o trabalho foi intensamente estudada e as teorias produzidas a seu respeito evoluíram significativamente. Mais recentemente, o significado do trabalho vem ganhando importância na literatura como uma fonte de motivação para as pessoas. É um constructo interpretado como profundamente pessoal e dinâmico, que recebe influências geradas pelo meio ambiente no qual as pessoas vivem e trabalham. Assim, o significado do trabalho pode ser distinto para diferentes gerações. A atual pesquisa objetivou identificar o significado do trabalho para os funcionários do Banco Central do Brasil em sua Regional no Rio de Janeiro, de acordo com a geração a que pertencem: a Geração Baby Boomer e a Geração X. As bases científicas para a pesquisa foram estabelecidas na literatura sobre motivação para o trabalho, significado do trabalho e Geração Baby Boomers e Geração X. As informações sobre o significado do trabalho foram obtidas por melO de um questionário baseado no modelo proposto pelo Meaning of Working - MOW (1987). Os resultados obtidos indicam que o significado do trabalho é diferentemente percebido pelas duas gerações na maioria de seus aspectos: centralidade do trabalho, normas sociais associadas ao trabalho, resultados valorizados do trabalho e identificação dos papéis do trabalho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This dissertation seeks to recognize the factors, which are relevant to the construction of the processes Government-to-Government (G2G), and how these factors influence the success of those processes. For this research, two existing cases in Banco Central do Brasil (Bacen) were used: i) the Banco Central do Brasil (BACEN) X Senado Federal case; and the Bacen x Poder Judiciário case. The framework of this dissertation is based on the methodology of multiple study cases described by Robert Yin (2001). This work analyzed separately each of the cases and compared the results obtained in each analysis. In this way, this research aimed at analyzing the reasons that led these cases to gain such distinct outcomes, despite the existing potential benefits in each one of them. The obtained results suggest that three factors influence the success of G2G processes in a relevant way: computational safety; the culture of the organizations involved; and the capacitation of people involved. Each of these factors, according to what results showed, bring a set of considerations which should be observed by the public administrator in relation to the strategies of implementation of G2G processes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo do presente estudo foi caracterizar suspensões de nanopartículas (NP) de poli(-caprolactona) (PCL) contendo indometacina. Nanocápsulas com fármaco (NC1) foram submetidas a tratamento térmico para verificar se uma relaxação das cadeias poliméricas que recobrem o núcleo pudesse ocorrer. Resultados similares de grau de despolarização da luz espalhada ( c0), determinado por Espalhamento de luz estático, e pH, para as NC que passaram ou não por tratamento térmico, sugeriram que essa relaxação não ocorreu. NC, nanoemulsão (NE) e nanoesfera (NS) apresentaram  c0 que caracterizam espécies esféricas. No entanto, a suspensão NC3 (com fármaco em excesso) apresentou valores de  c0 que sugeriram a presença de nanocristais de fármaco em suspensão. A partir disto, analisou-se a intensidade de luz espalhada por NC0 (NC sem fármaco), NC1, NC3 e nanodispersões com e sem fármaco (ND1 e ND0, respectivamente). Houve uma queda brusca nas intensidades médias de luz espalhada pela NC3 e ND1 após armazenagem, evidenciada também através da normalização das intensidades pela Razão de Rayleigh. Estes dados, associados à redução do teor de fármaco após armazenagem, apenas para NC3 e ND1, levaram à conclusão de que são formados nanocristais de fármaco durante o preparo destas NP e que estes se depositam ao longo do tempo, reduzindo a intensidade de luz espalhada pelas amostras. Por outro lado, a NC1, quando formulada, não apresentou nanocristais nem houve formação desses após armazenagem Houve grande semelhança entre os espectros de Espalhamento de raios-X a baixo ângulo (SAXS) de NS e ND, atribuída à presença do tensoativo monostearato de sorbitano disperso nestas NP. Este tensoativo não foi identificado em espectros de SAXS de NC e NE. O mesmo perfil de espectro foi obtido para NC contendo diferentes concentrações de PCL, levando à conclusão de que as NC devem manter sua organização em nível molecular independente da concentração de PCL utilizada

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Sob a premissa de que a geometria do perfil deposicional das clinoformas pode conter informações sobre a composição textural dos sedimentos que as compõem, bem como sobre a energia da coluna d’água, foi desenvolvido um modelo computacional para a análise teórica dos fatores controladores do tipo de curvatura dos foresets das clinoformas, e, por extensão dos taludes submarinos. Um modelo análogo de suspensão dinâmica foi implementado experimentalmente com um programa em código Matlab, denominado MAXWELL, e é classificado como um modelo estratigráfico, bidimensional, analítico, determinístico, dinâmico, parcialmente dedutivo e parcialmente baseado em regras. Contém um modelo de escoamento de fluido em linhas de corrente, e trata indiretamente a tensão de cisalhamento no domínio de um sistema fechado bifásico líquido-vapor análogo, a partir a proposta de analogias entre os processos de evaporação e de suspensão de sedimentos. É uma abordagem baseada na competência de transporte do fluxo d’água, pois considera temperatura e velocidade de fluxo combinado onda-corrente como variáveis controladoras análogas da intensidade de transferência de energia. Os processos deposicionais marinhos são reduzidos a um fenômeno da superfície deposicional, que é considerada análoga a uma interface líquidovapor dentro de um sistema fechado. A equação de distribuição estatística de velocidades moleculares de Maxwell é usada para calcular a proporção de moléculas na fase líquida, considerada análoga à proporção de sedimentos depositados, bem como a proporção na fase vapor, tomada como análoga à proporção de sedimentos em suspensão. O estado energético do sistema é parametrizado por três potenciais: energia interna, como função do tamanho de grão (areia, silte ou argila); energia térmica do meio, como função da energia hidrodinâmica, e energia gravitacional, como função do declive topográfico As simulações indicam que os principais fatores controladores do perfil deposicional das clinoformas, e por extensão, dos taludes submarinos em geral, são a energia hidrodinâmica da coluna d’água e a granulometria (ou coesão) do sedimento, que podem ser consideradas dois parâmetros comutáveis, isto é, grãos grossos ou coesos podem produzir sobre a geometria das clinoformas o mesmo efeito da baixa energia hidrodinâmica, e vice-versa. Com base no fator de decaimento da energia hidrodinâmica com o aumento da batimetria, foram definidas três ordens de grandeza da intensidade da energia da coluna d’água: baixa energia (10–1), alta x energia (10-2) e muito alta energia (10-3). Com base nesse critério, foram caracterizados quatro tipos de perfis deposicionais de clinoformas: dois tipos sigmoidais e dois tipos exponenciais. Os tipos sigmoidais podem ser de alta energia ou de muito alta energia, e distinguem-se pela granulometria do sedimento e pela distribuição de declividades em relação à dimensão na direção horizontal. Os perfis de tipo exponencial podem ser tanto de baixa energia, quanto de alta energia. A subida relativa do nível do mar afeta o tipo geométrico do perfil deposicional apenas de forma indireta, a partir da retenção da fração grossa do influxo sedimentar na plataforma ou topset. Os principais fatores controladores do ângulo de declividade do perfil das clinoformas são a granulometria do sedimento, a energia hidrodinâmica, a profundidade d’água da bacia e o desvio lateral da corrente de fundo. A dedução da litofácies a partir da geometria das clinoformas parece promissora apenas para os tipos teóricos sigmoidais, que são distintos na forma e no conteúdo sedimentar.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A heparina foi isolada no início do século XX e permanece, até os dias atuais, como um dos mais importantes e eficientes agentes terapêuticos de ação antitrombótica. Sua atividade anticoagulante deve-se à ativação da antitrombina (AT), uma serpina responsável pela inibição fisiológica de serino-proteinases plasmáticas, tais como fIIa e fXa. Os esforços no sentido da elucidação dos aspectos estruturais e dinâmicos associados ao reconhecimento molecular da heparina pela AT, em nível atômico, vêm encontrando diversas dificuldades, principalmente associadas aos compostos sacarídicos. Em decorrência de sua elevada polaridade e flexibilidade, glicosaminoglicanos como a heparina são difíceis de estudar e modelar. Soma-se a isto o fato de que os resíduos de iduronato presentes na heparina (IdoA) apresentam um incomum equilíbrio conformacional entre estados de cadeira (1C4) e bote-torcido (2SO), sendo esta última estrutura postulada como a possível conformação bioativa. Sendo assim, este trabalho apresenta um estudo de modelagem molecular do perfil conformacional da heparina, tanto em solução quanto complexada à AT, utilizando cálculos ab initio e simulações de dinâmica molecular (DM) Em decorrência da ausência de parâmetros capazes de descrever polissacarídeos nos campos de força atualmente disponíveis, cargas atômicas foram geradas, utilizando-se os esquemas de Mulliken, Löwdin e cargas ajustadas ao Potencial Eletrostático, através de cálculos quantum-mecânicos na base 6-31G** e testadas na simulação de DM da heparina. Diversas condições de simulação, tais como modelos de água, concentrações de sais e as conformações 1C4 e 2SO do IdoA, foram avaliadas de forma a identificar as melhores condições para a descrição conformacional da heparina em solução. O protocolo de DM obtido foi então utilizado no estudo do complexo AT-heparina. Os resultados obtidos estão de acordo com os dados experimentais atualmente disponíveis acerca da conformação da heparina e da contribuição energética de cada resíduo de aminoácido da AT para a formação do complexo com a heparina. A partir dos cálculos ab initio realizados, foi proposto um refinamento na estrutura da heparina determinada por RMN, enquanto que as simulações de DM permitiram reinterpretar aspectos da estrutura tridimensional da AT determinada por cristalografia de raios-X. Adicionalmente, os dados obtidos sugerem que não há requerimento conformacional para a interação do IdoA com a AT Globalmente, os dados indicam que simulações de DM podem ser utilizadas para representar adequadamente a conformação da heparina, assim como para caracterizar e quantificar suas interações com a AT. Assim sendo, propomos o uso de simulações de DM do complexo entre a AT e a heparina, ou entre a AT e compostos derivados da heparina, como uma ferramenta útil no processo de desenvolvimento de novos agentes antitrombóticos e anticoagulantes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O reator seqüencial em batelada (RSB) é uma variante de lodos ativados capaz de promover a remoção da matéria orgânica, a remoção dos nutrientes e a separação da fase sólida da líquida em uma unidade. A valorização das áreas urbanas, a carência de tratamento terciário e a crescente necessidade de redução nas dimensões de estações de tratamento de esgoto devem impulsionar o desenvolvimento de pesquisas sobre RSB em curto espaço de tempo. A partir deste cenário, o presente trabalho teve como objetivo modelar o comportamento do reator seqüencial em batelada a partir da teoria desenvolvida por Marais e colaboradores. Dentro deste contexto, a cinética de oxidação dos compostos orgânicos e do nitrogênio na forma amoniacal foi descrita e modelada. O trabalho experimental foi realizado em duas escalas: bancada e piloto. O experimento em escala de bancada foi dividido em duas fases. Foram utilizados dois RSBs e um sistema de fluxo contínuo. Um reator seqüencial em batelada (RSB1) foi operado com idade de lodo. O outro reator em batelada (RSB2) foi operado em função da relação F/M e o sistema de fluxo contínuo (FC1) por idade de lodo. Estes reatores foram utilizados como controle no monitoramento do RSB1 Na primeira fase, os três sistemas removeram apenas matéria orgânica. Na fase seguinte, removeram matéria orgânica e nitrogênio. A partir dos resultados obtidos em escala de bancada, foi possível concluir que o modelo desenvolvido pode ser aplicado ao reator seqüencial em batelada operando com idade de lodo, permitindo determinar a qualidade do efluente, a produção de lodo e o consumo de oxidante. Além disso, foi possível descrever o comportamento da taxa de consumo de oxigênio em função da oxidação da matéria orgânica biodegradável e da oxidação do nitrogênio na forma amoniacal. O reator seqüencial em batelada operado com idade de lodo (RSB1) alcançou remoção média de matéria orgânica de 90 % nas idades de lodo de 30, 20, 10 e 5 dias. A remoção média de nitrogênio mais elevada foi obtida na idade de lodo de 20 dias e atingiu 87 %. Nas demais idades de lodo a remoção média de nitrogênio variou entre 79 e 42 %. A modelagem do comportamento do reator seqüencial em batelada resultou numa proposta de metodologia para o dimensionamento que tem como finalidade abolir critérios obsoletos e inadequados para o dimensionamento de lodos ativados em batelada No experimento em escala piloto, foram utilizados um reator seqüencial em batelada, denominado RSB, e um sistema de fluxo contínuo com a configuração Bardenpho, denominado FC. Os sistemas de lodos ativados sob investigação foram monitorados em duas idades de lodo: 30 e 10 dias. Os dados do experimento em escala piloto mostraram que os processos físico-químicos e biológicos envolvidos na remoção de matéria orgânica e nitrogênio no RSB foram mais eficientes do que no Bardenpho quando trataram o mesmo esgoto doméstico e foram submetidos às mesmas condições operacionais. No RSB, obteve-se 88 e 89 % de remoção de matéria orgânica nas idades de lodo de 10 e 30 dias, respectivamente. Nesta seqüência das idades de lodo, a eficiência do Bardenpho caiu de 87 para 76 %. O sistema de fluxo contínuo removeu 66 e 52 % do nitrogênio total afluente nas idades de lodo de 10 e 30 dias, respectivamente. A eficiência do RSB na remoção de nitrogênio foi determinada apenas na idade de lodo de 10 dias e alcançou 69 %. A partir dos resultados obtidos em escala de bancada e piloto, constata-se que o reator seqüencial em batelada operando com idade de lodo pode ser utilizado no tratamento de esgoto doméstico e obter eficiência na remoção de matéria orgânica e nitrogênio igual ou superior ao sistema de fluxo contínuo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Trata-se de uma pesquisa de campo que abrange 21 empresas, onde se procurou identificar estruturas de dados comuns nos modelos de dados das mesmas. A base teórica para o trabalho são os conceitos de abstração existentes na literatura de Projeto de Banco de Dados, agregação (é-parte-de) e generalização (é-um). Foram identificadas aplicações destes conceitos, mas a pesquisa também mostra que ainda há poucas ferramentas disponíveis para implementação dos mesmos e pouca familiaridade dos técnicos com os conceitos

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este trabalho é uma pesquisa exploratória da experiência brasileira de transferências intergovernamentais de recursos, com o objetivo de identificar perspectivas de inovação no federalismo, que colaborem para o desenvolvimento humano no Brasil, num processo nacional, acelerado, contínuo e sustentado. Analisa a legislação de transferências tributárias a municípios no Brasil, aplicando a Teoria do Agenciamento (relação "Principal X Agente"), visando a articulação de uma rede complexa de relações ("contratos"), formada pelas três esferas de governo e mais a sociedade (setor privado, terceiro setor e cidadão individual), em que todos os participantes têm interesses distintos, muitas vezes contraditórios. Sintetiza uma modelagem das transferências intergovernamentais de recursos, capaz de induzir a convergência dos interesses dos participantes daquela rede complexa de relações para o objetivo comum do desenvolvimento, designada como "Tipo Ótimo de Indução". Finalmente, formula diretrizes para a revisão da sistemática de transferências de recursos no Brasil, recomendando a adoção de uma "cesta de critérios" e de "condições de acompanhamento e controle"

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Trata da análise do caso brasileiro, buscando-se com base no desenvolvimento teórico acerca do assunto, bem como da experiência de outros países, analisaras principais mudanças pertinentes ao tema Bancos Centrais e sua forma de atuação. Especial atenção foi dispensada a temas como a polêmica Central Banking X Free-Banking, aos Modelos de Supervisão Bancária, e a Regulamentação do art. 192 da Constituição Federal que trata do sistema financeiro e da organização, funções e forma de atuação do Banco central do Brasil

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Neste trabalho é proposto um modelo de construção de superfície de volatilidade de opções pouco líquidas de ações listadas em bolsa. O modelo é uma função matemática que transforma a superfície de volatilidade de uma opção líquida de ação em uma superfície de volatilidade de opção pouco líquida de ação. O modelo apresenta alta sensibilidade em relação aos parâmetros da função matemática utilizada. Logo, podem ser obtidos resultados bem distintos, caso se utilize, por exemplo, a superfície de opção de Ibovespa ou de Vale como possíveis parâmetros da função. Neste caso, também é proposta uma metodologia para a decisão sobre a escolha do parâmetro de volatilidade mais adequado, tomando-se por base um backtest das diferenças observadas entre volatilidade realizada e proposta. A principal hipótese assumida no modelo é que a diferença calculada entre a volatilidade implícita da opção e a volatilidade histórica de seu ativo-objeto é uma medida que possui proporção entre mesmas medidas de todos os ativos-objetos. Assim, se conhecidas essa medida e a volatilidade histórica de um determinado ativo-objeto, calcula-se a volatilidade “implícita” da opção desse mesmo ativo-objeto. Assim como a incerteza relacionada à hipótese descrita acima, existem outras relacionadas à seleção de parâmetros no modelo e à própria iliquidez da opção e de seu ativo-objeto. O impacto dessas incertezas reflete-se no resultado financeiro da opção. Assim, propõe-se um modelo de gestão financeira conservadora baseada em reserva de resultado financeiro como provisão dessas incertezas. Neste trabalho, apresentam-se testes para algumas opções, mostrando as provisões hipoteticamente necessárias em termos de vegas das opções para cada subjacente.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Sistemas de informações geográficas (SIG) permitem a manipulação de dados espaço-temporais, sendo bastante utilizados como ferramentas de apoio à tomada de decisão. Um SIG é formado por vários módulos, dentre os quais o banco de dados geográficos (BDG), o qual é responsável pelo armazenamento dos dados. Apesar de representar, comprovadamente, uma fase importante no projeto do SIG, a modelagem conceitual do BDG não tem recebido a devida atenção. Esse cenário deve-se principalmente ao fato de que os profissionais responsáveis pelo projeto e implementação do SIG, em geral, não possuem experiência no uso de metodologias de desenvolvimento de sistemas de informação. O alto custo de aquisição dos dados geográficos também contribui para que menor atenção seja dispensada à etapa de modelagem conceitual do BDG. A utilização de padrões de análise tem sido proposta tanto para auxiliar no projeto conceitual de BDG quanto para permitir que profissionais com pouca experiência nessa atividade construam seus próprios esquemas. Padrões de análise são utilizados para documentar as fases de análise de requisitos e modelagem conceitual do banco de dados, representando qualquer parte de uma especificação de requisitos que tem sua origem em um projeto e pode ser reutilizada em outro(s). Todavia, a popularização e o uso de padrões de análise para BDG têm sido prejudicados principalmente devido à dificuldade de disponibilizar tais construções aos projetistas em geral. O processo de identificação de padrões (mineração de padrões) não é uma tarefa simples e tem sido realizada exclusivamente com base na experiência de especialistas humanos, tornando o processo lento e subjetivo. A subjetividade prejudica a popularização e a aplicação de padrões, pois possibilita que tais construções sejam questionadas por especialistas com diferentes experiências de projeto. Dessa forma, a identificação ou o desenvolvimento de técnicas capazes de capturar a experiência de especialistas de forma menos subjetiva é um passo importante para o uso de padrões. Com esse objetivo, este trabalho propõe a aplicação do processo de descoberta de conhecimento em banco de dados (DCBD) para inferir candidatos a padrão de análise para o projeto de BDG. Para tanto, esquemas conceituais de BDG são usados como base de conhecimento. DCBD é o processo não trivial de descoberta de conhecimento útil a partir de uma grande quantidade de dados. Durante o desenvolvimento da pesquisa ficou claro que a aplicação do processo de DCBD pode melhorar o processo de mineração de padrões, pois possibilita a análise de um maior número de esquemas em relação ao que é realizado atualmente. Essa característica viabiliza que sejam considerados esquemas construídos por diferentes especialistas, diminuindo a subjetividade dos padrões identificados. O processo de DCBD é composto de várias fases. Tais fases, assim como atividades específicas do problema de identificar padrões de análise, são discutidas neste trabalho.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Essa dissertação analisa as compras de medicamentos registradas no Banco de Preços em Saúde do Ministério da Saúde com o objetivo de avaliar o quão diferentes são os preços pagos pelo setor público e pelo setor privado quando estes adquirem o mesmo bem. Adicionalmente, são testados se a experiência formação de consórcios municipais de saúde afetam os preços pagos pela aquisição de medicamentos por parte de instituições municipais e se as compras originadas em demandas judiciais têm efeito sobre o preço unitário. A análise aponta, respectivamente, para evidências de que as compras públicas são mais caras, que as instituições municipais são mais eficientes e que as compras originadas por demandas judiciais são mais caras.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Modelos de predição baseados em estimações não-paramétricas continuam em desenvolvimento e têm permeado a comunidade quantitativa. Sua principal característica é que não consideram a priori distribuições de probabilidade conhecidas, mas permitem que os dados passados sirvam de base para a construção das próprias distribuições. Implementamos para o mercado brasileiro os estimadores agrupados não-paramétricos de Sam e Jiang (2009) para as funções de drift e de difusão do processo estocástico da taxa de juros instantânea, por meio do uso de séries de taxas de juros de diferentes maturidades fornecidas pelos contratos futuros de depósitos interfinanceiros de um dia (DI1). Os estimadores foram construídos sob a perspectiva da estimação por núcleos (kernels), que requer para a sua otimização um formato específico da função-núcleo. Neste trabalho, foi usado o núcleo de Epanechnikov, e um parâmetro de suavizamento (largura de banda), o qual é fundamental para encontrar a função de densidade de probabilidade ótima que forneça a estimação mais eficiente em termos do MISE (Mean Integrated Squared Error - Erro Quadrado Integrado Médio) no momento de testar o modelo com o tradicional método de validação cruzada de k-dobras. Ressalvas são feitas quando as séries não possuem os tamanhos adequados, mas a quebra estrutural do processo de difusão da taxa de juros brasileira, a partir do ano 2006, obriga à redução do tamanho das séries ao custo de reduzir o poder preditivo do modelo. A quebra estrutural representa um processo de amadurecimento do mercado brasileiro que provoca em grande medida o desempenho insatisfatório do estimador proposto.