1000 resultados para Método dos mínimos quadrados
Resumo:
Neste trabalho foi considerado o modelo de Curtis para a relação hipsométrica em clones de Eucalyptus sp. com os parâmetros sujeitos a restrições. Para fazer a inferência dos parâmetros do modelo com restrições, utilizou-se uma abordagem bayesiana com densidade a priori construída empiricamente. As estimativas bayesianas são calculadas com a técnica de simulação de Monte Carlo em Cadeia de Markov (MCMC). O método proposto foi aplicado a diferentes conjuntos de dados reais, dos quais foram selecionados cinco para exemplificar os resultados. Estes foram comparados com os resultados obtidos pelo método de mínimos quadrados, destacando-se a superioridade da abordagem bayesiana proposta.
Resumo:
A precipitação pluvial constitui-se na principal variável hidrológica de entrada do ciclo hidrológico e para conhecimento da variabilidade espacial e temporal como informação básica para estudos hidrológicos, manejo de bacias hidrográficas, gestão de recursos hídricos, dentre outros. Os recursos hídricos superficiais produzidos nessa bacia são essenciais ao desenvolvimento do eixo Goiânia-Anápolis-Brasília e, recentemente, com o aumento da demanda hídrica, tem sido relatados conflitos pelo uso da água. Dessa maneira, tem-se que o desenvolvimento de estudos hidrológicos visando ao melhor entendimento e aproveitamento dos recursos hídricos é estratégico para o desenvolvimento da região. Nesse sentido, objetivou-se com este estudo mapear a precipitação média mensal e anual na bacia hidrográfica do Ribeirão João Leite, com o auxílio de técnicas geoestatísticas. Foram avaliados os modelos de semivariograma esférico, exponencial e gaussiano, ajustados pelo método dos mínimos quadrados ponderados, sendo que o modelo utilizado no mapeamento por krigagem foi o que apresentou o menor erro médio indicado pela validação cruzada. Foi constatado bom desempenho das técnicas geoestatísticas no mapeamento da precipitação média mensal e anual, indicado pelos pequenos erros encontrados, podendo-se destacar o modelo de semivariograma exponencial, que se sobressaiu na maioria dos eventos estudados.
Resumo:
Vigas são elementos estruturais encontrados na maioria das construções civis. Dentre os materiais de engenharia, destaca-se a madeira, por ter resistência mecânica satisfatória aliada a baixa densidade. A madeira roliça apresenta-se como boa solução na confecção de vigas, uma vez que não precisa ser processada, como é o caso da madeira serrada. O projeto de elementos estruturais de madeira requer o conhecimento de suas propriedades físicas e mecânicas, obtidas segundo as premissas de documentos normativos. Em se tratando da madeira roliça, os documentos normativos nacionais que tratam da determinação das propriedades de resistência e rigidez estão vigentes há mais de vinte anos sem revisão técnica. De forma geral, tanto as normas nacionais como as internacionais idealizam geometria troncocônica para as peças roliças de madeira, implicando equações simplificadas incapazes de prever a influência das irregularidades da forma na determinação do módulo de elasticidade longitudinal. Este trabalho objetiva avaliar a influência das irregularidades da geometria em peças roliças de madeira Corymbia citriodora e Pinus caribaea no cálculo do módulo de elasticidade longitudinal. Para tanto, utilizou-se do ensaio de flexão estática a três pontos, considerando também um modelo matemático simplificado, assumindo seção circular constante para a forma do elemento. As irregularidades das peças são consideradas nos modelos numéricos, constituídos de elementos finitos de barra e tridimensionais. Os resultados encontrados revelam equivalência estatística entre os módulos de elasticidade para ambas as formas de cálculo, indicando ser plausível a consideração de seção circular constante para as peças de madeira aqui avaliadas.
Resumo:
O objetivo deste trabalho foi utilizar técnicas de georreferenciamento e de geoestatística para analisar a variabilidade espacial da força de desprendimento de frutos de cafeeiros por meio de semivariogramas e pela interpolação por krigagem. O trabalho foi conduzido no município de Três Pontas - MG, Brasil. A força de desprendimento dos frutos verdes e de cerejas dos cafeeiros foi obtida por meio de um protótipo de dinamômetro em pontos georreferenciados. A dependência espacial dos dados foi analisada por meio de ajustes de semivariogramas, clássico e robusto, para o método dos mínimos quadrados ordinários e ponderados, e apenas o ajuste clássico, para os métodos da máxima verossimilhança e máxima verossimilhança restrita. Testaram-se, para cada um dos métodos, os modelos esférico, exponencial e gaussiano. Os mapas de isolinhas obtidos por krigagem foram produzidos, baseados no melhor método e modelo de ajuste da função semivariograma, que foram obtidos pelas estatísticas de validação. As variáveis em estudo apresentaram estruturas de dependência espacial, as quais foram modeladas pelos semivariogramas, o que possibilitou a confecção dos mapas de isolinhas de distribuição espacial, obtidos por krigagem. Foi possível identificar os locais mais propícios para se iniciar a colheita seletiva e mecanizada dos frutos do cafeeiro.
Resumo:
A combinação da espectroscopia no infravermelho próximo (NIR) e calibração multivariada (método dos mínimos quadrados parciais - PLS) para a determinação do teor de proteína total em amostras de café cru, foi investigada. Os teores de proteína total foram inicialmente determinados usando-se como método de referência o de Kjeldhal, e, posteriormente foram construídos modelos de regressão a partir dos espectros na região do infravermelho próximo das amostras de café cru. Foram coletados 159 espectros das amostras de café cru utilizando um acessório de reflectância difusa, na faixa espectral de 4500 a 10000cm-1. Os espectros originais no NIR sofreram diferentes transformações e pré-tratamento matemático, como a transformação Kubelka-Munk; correção multiplicativa de sinal (MSC); alisamento (SPLINE); derivada primeira; média móvel e o pré-tratamento dos dados escalados pela variância. O método analítico proposto possibilitou a determinação direta, sem destruição da amostra, com obtenção de resultados rápidos e sem o consumo de reagentes químicos de forma a preservar o meio ambiente. O método proposto forneceu resultados com boa capacidade de previsão do teor de proteína total, sendo que os erros médios foram inferiores a 6,7%.
Resumo:
A espectroscopia na região do infravermelho próximo (NIR) foi usada para determinar o teor de umidade em amostras de café cru. Foram construídos modelos de regressão usando o método dos mínimos quadrados parciais (PLS) com diferentes pré-tratamentos de dados e 157 espectros NIR coletados de amostras de café usando um acessório de reflectância difusa, na região entre 4500 e 10000 cm-1. Os espectros originais passaram por diferentes transformações e pré-tratamentos matemáticos, como a transformação Kubelka-Munk; a correção multiplicativa de sinal (MSC); o alisamento com SPLINE e a média móvel, e os dados foram escalados pela variância. O modelo de regressão permitiu determinar o teor de umidade nas amostras de café cru com erro quadrático médio de calibração (SEC) de 0,569 g.100 g -1; erro quadrático médio de validação de 0,298 g.100 g -1; coeficiente de correlação (r) 0,712 e 0,818 para calibração e validação, respectivamente; e erro relativo médio de 4,1% para amostras de validação.
Resumo:
Nesse artigo, tem-se o interesse em avaliar diferentes estratégias de estimação de parâmetros para um modelo de regressão linear múltipla. Para a estimação dos parâmetros do modelo foram utilizados dados de um ensaio clínico em que o interesse foi verificar se o ensaio mecânico da propriedade de força máxima (EM-FM) está associada com a massa femoral, com o diâmetro femoral e com o grupo experimental de ratas ovariectomizadas da raça Rattus norvegicus albinus, variedade Wistar. Para a estimação dos parâmetros do modelo serão comparadas três metodologias: a metodologia clássica, baseada no método dos mínimos quadrados; a metodologia Bayesiana, baseada no teorema de Bayes; e o método Bootstrap, baseado em processos de reamostragem.
Resumo:
Neste trabalho é apresentado um método para medição de deslocamentos sem contato, utilizando sensores magnetoresistivos, os quais são sensibilizados pela variação do campo magnético produzido por um imã permanente em deslocamento no espaço. Os sensores magnetoresistivos possuem, internamente, uma ponte de Wheathestone, onde a resistência varia conforme varia o campo magnético, de modo que o circuito mais indicado para este caso é um amplificador e um filtro para cada sensor. O principal objetivo do trabalho é a obtenção de uma técnica para medir deslocamentos sem contato, e estender os resultados para medida de movimentos mandibulares. A montagem consiste de duas placas de celeron, distantes 30mm uma da outra e unidas por parafusos de polietileno. Em cada uma destas placas foram dispostos quatro sensores, num total de oito, sendo que para cada um deles existe um circuito de amplificação e filtragem do sinal de saída. Sob uma chapa de alumínio foi fixado este equipamento e uma mesa de calibração em 3D, a qual, após a obtenção da matriz de calibração, foi substituída por um emulador de movimento mandibular. Os parâmetros do modelo foram estimados através do método dos mínimos quadrados com auxílio do software Matlab, Release 12. Este software também foi utilizado para o sistema de aquisição de dados durante a realização dos experimentos. A imprecisão dos resultados obtidos na determinação dos deslocamentos, está na ordem de décimos de milímetros. O trabalho apresenta, também, o mapeamento do campo magnético do magneto utilizado nos experimentos através do software FEM2000 – Método de elementos finitos aplicado ao eletromagnetismo.
Resumo:
O objetivo fundamental desta dissertação foi desenvolver modelos de estimativa da radiação solar no intuito de complementar a base de dados visando o traçado de mapas de radiação solar para o Rio Grande do Sul. Inicialmente foi realizada uma pesquisa na literatura sobre as metodologias desenvolvidas para a estimativa da radiação solar para locais onde inexistem dados medidos desta variável. Foi feito um levantamento das técnicas estatísticas utilizadas na previsão de valores de variáveis. As metodologias pesquisadas foram aplicadas ao banco de dados SAMSON (Solar and Meteorological Surface Observational Network). Entre as variáveis deste banco de dados estão a radiação solar, a umidade relativa, a temperatura, a latitude, a altitude e a nebulosidade. A metodologia dos modelos de estimativa aplicada neste trabalho baseia-se no Método dos Mínimos Quadrados. Foram realizadas correlações mensais e anuais entre as variáveis acima citadas e seus resultados validados através de validação cruzada. Resultou apropriada, na disponibilidade de dados climatológicos, a aplicação de modelos com parâmetros mensais de regressão linear múltipla envolvendo as variáveis explicativas: insolação, temperatura média e umidade relativa. Este modelo, entre outros, foi aplicado aos dados do Rio Grande do Sul. A metodologia acima descrita aplicada aos dados medidos no Rio Grande do Sul, resultou eficaz. Foram pesquisadas técnicas de interpolação para traçado de mapas e estabelecidas regras para o traçado dos mesmos. Foram utilizados dados periféricos para a Argentina, Uruguai e Santa Catarina. Foram feitos mapas mensais de médias mensais de radiação solar global horizontal diária bem como um mapa da média anual de radiação solar global horizontal diária. Observou-se que o modelo de Ångström–Prescott apresenta bons resultados quando se dispõe apenas da insolação Os mapas serão úteis para a pesquisa e implementação de sistemas empregando Energia Solar no Estado do Rio Grande do Sul. Finalmente, a principal conclusão é a de que modelos de correlações obtidos com dados de cada mês e produzindo parâmetros mensais são mais adequados do que um único modelo de correlação com parâmetros de validade anual utilizado nas estimativas mensais.
Resumo:
Os registros de vazões líquidas obtidos das estações fluviométricas são válidos, unicamente, para o local de onde foram coletados ou muito próximo a ele. Na maioria das vezes, a região de influência deste não inclui o local de interesse para o desenvolvimento de projetos de recursos hídricos. Este inconveniente, geralmente, pode ser resolvido através do uso de métodos de regionalização hidrológica. Para determinar os coeficientes da equação de regionalização, o procedimento mais usado consiste em: i) estabelecer uma relação do tipo exponencial multivariada entre a variável dependente (vazão média de longo prazo ou média anual de cheia) e as covariáveis (variáveis climáticas e fisiográficas da bacia hidrográfica); ii) linearizar a equação anterior mediante a transformação logarítmica de ambos os membros; iii) utilizar modelos lineares de regressão para estimar os coeficientes, geralmente, o método dos mínimos quadrados ordinários; e iv) aplicar a transformação inversa para definir a equação. A aplicação deste procedimento implica assumir certas propriedades dos dados (assimetria positiva, registros da mesma extensão e que os mesmos possuem o mesmo período de início e fim, entre outros) que dificilmente podem ser atendidas, prejudicando a verificação das hipóteses nas quais estão baseados os métodos lineares de regressão e, em conseqüência, seu adequado uso, bem como a confiabilidade dos resultados obtidos. Esta pesquisa apresenta um aprimoramento dos métodos de regionalização de vazões geralmente empregados, incluindo-se técnicas que levam em consideração as limitações anteriores. Estas técnicas foram: i) uso da transformada de Box-Cox na linearização da equação exponencial multivariada; ii) determinação dos coeficientes da equação de regionalização usando mínimos quadrados ponderados; e iii) verificação se os resíduos da regressão estão correlacionados ou não. Para o desenvolvimento e verificação da metodologia proposta foram usados somente registros fluviométricos de Bacias Hidrográficas Brasileiras, que drenam suas águas para o Rio Grande do Sul e/ou que estejam localizadas dentro dele. Geograficamente, a área de estudo inclui a totalidade do estado do Rio Grande do Sul e parte de Santa Catarina. As equações de regionalização foram definidas usando dados de vazões médias de longo prazo e média de cheia, para tempo de retorno de 2,33 e 50 anos. Neste último caso, as freqüências foram estimadas através do método dos momentos-L.Comparando os resultados obtidos utilizando o modelo de regionalização hidrológica proposto neste trabalho (transformada de Box-Cox / mínimos quadrados ponderados) junto a seus similares gerados usando a metodologia convencional (transformada logarítmica / mínimos quadrados ordinários) e de modelos intermediários (transformada logarítmica / mínimos quadrados ponderados e transformada de Box-Cox / mínimos quadrados ordinários), os mesmos podem ser considerados satisfatórios, visto que em todas as simulações realizadas o modelo proposto forneceu melhores resultados que aqueles obtidos com os outros modelos, sendo utilizado como padrão de comparação: 1) a qualidade do ajuste, 2) o grau de verificação das hipóteses dos métodos lineares de regressão e 3) os erros na estimativa das descargas, em termos de vazão específica. Nas simulações realizadas usando os modelos intermediários, observou-se que: i) na regionalização de vazões médias, o ganho de considerar a heterogeneidade temporal dos dados é maior do que corrigir a assimetria dos mesmos; ii) quando são usadas séries de descargas máximas, ocorre o efeito contrário, visto que o ganho de corrigir a assimetria das séries é maior do que o efeito da heterogeneidade temporal dos dados. Com relação aos resíduos da regressão, contrariamente ao esperado, os mesmos não sugerem estar correlacionados; isto pode ser conseqüência de utilizar como variável dependente um único registro por estação (vazão média de longo prazo ou média anual de cheia).
Resumo:
O trabalho doméstico é a ocupação da maioria das trabalhadoras brasileiras. São cerca de 6 milhões de mulheres empregadas nesta ocupação. Este estudo tem como objetivo analisar a mobilidade ocupacional e as conseqüências em termos de rendimento destas trabalhadoras. O objetivo do trabalho é examinar até que ponto o fato de tido o primeiro emprego como empregada doméstica afeta as trabalhadoras na escolha futura de suas ocupações. Estima-se o efeito do primeiro emprego como trabalhadora doméstica sobre a probabilidade de ter a ocupação de doméstica atualmente. O método escolhido foi o de variáveis instrumentais de modo a controlar o viés de endogeneidade entre a escolha da primeira ocupação e a ocupação atual. Os instrumentos escolhidos foram: número de escolas por criança em idade escolar, número de professores por escola e PIB per capita. Supõe-se que estes instrumentos sejam proxies para os custos diretos da educação e para o custo de oportunidade das mulheres. Os resultados mostram que o fato de ter tido como primeiro emprego o trabalho doméstico aumenta a probabilidade das trabalhadoras permanecerem nesta mesma ocupação em comparação com quem não começou como doméstica. Quando o resultado é comparado com a estimação pelo Método de Mínimos Quadrados, ou seja, sem controlar por um possível viés de endogeneidade, o resultado é três vezes maior. Estes resultados sugerem uma imobilidade ocupacional onde a escolha de inserção como empregada doméstica pode levar a uma armadilha de ocupação. Para tentar identificar possíveis efeitos que a primeira ocupação de doméstica pode ter sobre os rendimentos das trabalhadoras na sua ocupação atual a estimação pelo método de mínimos quadrados mostrou que o primeiro emprego como doméstica teria como efeito diminuir em 13% os rendimentos das trabalhadoras em comparação com quem não começou como doméstica. Já a estimação pelo método de variáveis instrumentais não mostrou um efeito estatisticamente significante. Além disso, também não foram encontrados resultados estatisticamente significantes quando a amostra foi restringida apenas para trabalhadoras que não tinham a ocupação atual de doméstica. Estes resultados sugerem que apesar da imobilidade ocupacional observada, não haveria diferenças em relação do rendimento atual das trabalhadoras.
Resumo:
Estudos anteriores mostraram que a técnica de redes neurais tem sido mais bem sucedida que os modelos tradicionais em vários assuntos relacionados ao mercado de debêntures, tais como modelar a probabilidade de default e em explicar os ratings de agências classificadoras de risco, como Standard & Poors e Moodys. O objetivo deste trabalho é testar a técnica de redes neurais para precificar debêntures no Brasil e comparar os resultados obtidos com regressões lineares. Para isso, utilizaram-se como variáveis explicativas dados contábeis, características específicas das emissões, tais como prazo para vencimento e cláusulas de recompra antecipada. Em relação às variáveis dependentes, optou-se por utilizar as taxas divulgadas diariamente pela ANDIMA como valor de mercado para as debêntures. As variáveis acima foram testadas em diversos modelos pelo método dos mínimos quadrados ordinários e o modelo que apresentou o melhor resultado foi testado em redes neurais com duas camadas intermediárias. Os resultados obtidos com redes neurais com seis e oito neurônios apresentaram resultados superiores aos modelos estimados por mínimos quadrados ordinários tanto na fase de treinamento como na fase de testes. No entanto, ainda há bastante espaço para melhorias nos modelos dado que o tamanho da base de dados disponível para este tipo de testes no Brasil ainda não é a ideal e as taxas divulgadas pela ANDIMA são médias de um grupo pequeno de instituições e não necessariamente refletem o valor de mercado de uma debênture.
Resumo:
Uma das características mais ressaltantes nos últimos anos é a variedade de publicidade com as quais as empresas produtoras de bebidas alcoólicas tratam de influenciar os consumidores para comercializar seus produtos. Neste contexto surgem duas posições em relação aos efeitos da publicidade de bebidas alcoólicas no consumo desmedido e suas conseqüências na sociedade: por um lado, as empresas produtoras investem em publicidade só como um recurso para induzir o consumidor à compra do produto que oferecem em comparação aos oferecidos por seus concorrentes, e não necessariamente para promover condutas irresponsáveis no consumo de seus produtos, como dirigir alcoolizado depois de consumir bebidas alcoólicas. Por outro lado, na literatura da saúde pública opina-se o contrário: os acidentes de trânsito são vistos como uma das conseqüências do consumo desmedido e irresponsável destas bebidas, muitas vezes devido a uma publicidade de bebidas alcoólicas. Assim, a pergunta central da pesquisa é: qual é a influência da publicidade de cerveja nos acidentes de trânsito provocados por motoristas ou pedestres em estado de embriagues na cidade de Lima? Para responder a pergunta se usará um modelo log-linear estimado pelo método de Mínimos Quadrados Ordinário (MQO), tendo como variável dependente o número de acidentes de trânsito acontecidos entre o período 1999-2003. O modelo também leva em conta variáveis independentes como o montante investido em publicidade televisada de cervejas, assim como a legislação feita para modificar o comportamento das pessoas em relação ao fato de dirigir em estado de embriaguez. O resultado do modelo rodado confirma a existência de uma relação positiva entre os acidentes de trânsito e a publicidade televisada de cervejas, assim como uma relação negativa entre a legislação e os acidentes de trânsito acontecidos na cidade de Lima no período 1999 até o 2003.
Resumo:
Este trabalho tem por objetivo identificar fatores que influenciam o spread de cotas seniores de Fundos de Investimento em Direitos Creditórios (FIDC). Trata-se de um estudo pioneiro no segmento de renda fixa, uma vez que os anteriores focaram o spread para debêntures. Entender componentes do spread em FIDCs é muito importante para as empresas que captam recursos no mercado de capitais por meio deste novo instrumento. A análise contemplou 113 ofertas públicas indexadas ao CDI entre 2002 e 2009 que tinham prazo determinado e pelo menos 02 investidores adquirentes das cotas. Foram elaboradas quatro regressões múltiplas pelo método dos Mínimos Quadrados Ordinários (MQO). A primeira visava identificar quais variáveis afetavam o rating. A segunda tinha como variável dependente o spread e as independentes eram todas, excluindo as que afetavam o rating. A terceira equação testou uma possível relação de não-linearidade entre spread e rating, enquanto a quarta testou o spread contra todas as demais variáveis, incluindo as que afetavam o rating. Os resultados apontaram que o rating é sim um bom determinante para o spread, assim como o volume da emissão, ambiente econômico e instituição financeira que faz a custódia do fundo. Da mesma forma, são fatores que explicam o rating: ambiente econômico, quem são o administrador e o custodiante do fundo, o número de investidores, volume, se o fundo é multi ou mono-cedente e se os ativos são performados ou não. Não há linearidade entre spread e rating em FIDCs. A maior contribuição deste estudo foi apresentar pela primeira vez variáveis que afetam um novo tipo de investimento em renda fixa, os FIDCs, tais como tipo de ativo, níveis de concentração e fundos mono e multi-cedentes. Tudo isto por meio de um cuidadoso tratamento da base de dados.
Resumo:
A tese tem como objetivo discutir a liquidez do mercado secundário de títulos da dívida pública no Brasil. Em três ensaios, defende que problemas de organização do mercado prejudicam a ampliação da liquidez e que a formação de preços nesse mercado acompanha as taxas do mercado futuro de depósitos interfinanceiros – DI futuro, e não o contrário, como esperado, já que a presença de títulos de elevada liquidez no mercado à vista é que deveria desenvolver o mercado futuro. O primeiro ensaio mede e estima os determinantes do bid-ask spread cotado (indicador de liquidez) para cada vértice de taxa de juros, tendo como referência os vencimentos dos títulos pré-fixados em cabeça de semestre: LTNs (LTN-13 e LTN-11) e NTNFs- (NTNF-17, NTNF-14). Mercados com menores spreads são mais líquidos, mercados com spreads maiores são menos líquidos. Os modelos empíricos foram estimados por meio de análises de séries de tempo. O trabalho utiliza o cálculo do bid-ask cotado para medir a liquidez dos títulos em análise, medido pela diferença entre o ask price e o bid price de fechamento do mercado. A estimação dos determinantes da liquidez de mercado foi realizada com base no método dos mínimos quadrados ordinários (MQO). O modelo testa se maturidade e volume de negócio determinam o bid-ask spread dos títulos. Mercados com menores spreads são mais líquidos do que mercados com maiores spreads. Os resultados mostram que a mediana e a média do bid-ask spread cotado crescem com a maturidade dos títulos. Os sinais dos parâmetros das regressões confirmam para a maioria dos vértices dos vértices analisados neste trabalho a hipótese inicial de que o bid-ask spread aumenta com a elevação maturidade e diminui com maior volume negociado, confirmando a hipótese de baixa liquidez dos títulos públicos no mercado secundário brasileiro. O segundo ensaio analisa uma singularidade relevante do mercado brasileiro: a dependência da formação dos preços e da taxa de juros no mercado secundário de títulos públicos (LTN e NTNF) em relação ao DI futuro. As variáveis utilizadas foram o bid-ask spread cotado e o volume negociado no mercado de títulos públicos e de DI futuro. O ensaio utiliza tanto o método de Granger (1969), que tem como suposto que as informações relevantes para a previsão das variáveis estão contidas exclusivamente nos dados das séries temporais destas mesmas variáveis, quanto o modelo de Geweke (1982) para testar a causalidade, simultaneidade e dependência linear entre as duas séries no tempo. Os resultados confirmam a hipótese inicial de que bid-ask spread e volume de títulos públicos possuem forte dependência do bid-ask spread e do volume para contratos de DI futuro de mesmo vencimento, dependência devida à causalidade do mercado de DI futuro para o mercado de títulos públicos para a maioria dos vértices analisados nesse trabalho, indicando que a taxa CDI é benchmark para a precificação dos títulos públicos. Uma possível explicação está nos fatores de microestrutura, que fazem com que esse mercado seja o mais conveniente para negociar risco de liquidez e de mercado. O terceiro ensaio discute as implicações do desenho institucional sobre a liquidez do mercado secundário de títulos públicos - mecanismos e regras de negociação, desenho dos títulos e base de investidores. Essas regras afetam a formação dos preços no mercado, definem as trocas, a dimensão da assimetria de informação e os custos de transação e do processo de negociação. Pela sua relevância, a organização do mercado de títulos públicos tem sido objeto de reformas em diversos países. O terceiro ensaio é finalizado com a análise das medidas adotadas no Brasil e de seus resultados.