900 resultados para Banco de dados - genética da população humana


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Os sistemas computacionais estão tomando proporções cada vez maiores envolvendo situações bastante complexas, onde muitas vezes erros são inaceitáveis, como em sistemas bancários, sistemas de controle de tráfego aéreo, etc... Para obter software confiável e com desempenho aceitável, pode-se aliar técnicas de desenvolvimento formal de software a técnicas de simulação de sistemas. O ambiente PLATUS reúne essas duas áreas: modelos de simulação são descritos usando gramáticas de grafos uma linguagem de especificação formal. Gramáticas de grafos são uma generalização de gramáticas de Chomsky, substituindo strings por grafos. Neste trabalho, serão tratadas gramáticas de grafos baseados em objetos, um modelo onde vértices e arcos são tipados, e as especificações são modulares (a especificação de um sistema consiste em várias gramáticas de grafos combinadas). Assim, o modelo de um sistema pode ser descrito de forma precisa, e a linguagem de especificação é bastante abstrata e expressiva. Num ambiente de simulação a questão da recuperação de dados merece uma atenção especial, uma vez que a eficiência do simulador está diretamente ligada a agilidade na obtenção das informações. Neste trabalho, o objetivo principal é definir uma representação para gramáticas de grafos que facilite o armazenamento, a recuperação e análise das estruturas identificadas no ambiente PLATUS, ou seja, gramáticas de grafos baseadas em objetos. São definidas também funções que implementam os procedimentos necessários, para a recuperação de dados durante a simulação. A eficiência dessas funções é demonstrada através do cálculo de sua ordem de complexidade. As estruturas são validadas através da implementação de um protótipo de banco de dados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Campanhas de amostragem são indispensáveis para o desenvolvimento da pesquisa e do planejamento de lavra. A perfilagem geofísica é um método de amostragem indireta, que vem se mostrando muito eficaz com o desenvolvimento de novas tecnologias para medições de grandezas físicas. Com baixo custo de operação e versatilidade de manuseio a perfilagem geofísica pode ser realizada concomitantemente com as operações de lavra, proporcionando reposta imediata do parâmetro medido. No entanto os métodos geofísicos de prospecção, por serem indiretos, não apresentam uma grande precisão e devido a isso os dados obtidos por perfilagem geofísica não podem ter a mesma importância que as informações obtidas por testemunhos de sondagem. O conceito de informação primária e secundária vem sendo amplamente discutido e aplicado devido à necessidade de uma melhoria do conhecimento do atributo geológico principal, desde que o mesmo se correlacione com algum outro parâmetro secundário. A redução de custos via aproveitamento de informações secundárias e métodos alternativos de amostragem também são fatores que influenciam essa aplicação Por este motivo, essa dissertação levanta o tema da aplicação de perfilagem geofísica de poço em depósitos de carvão para obtenção de informações secundárias. Concomitantemente a isso foram aplicadas metodologias capazes de combinar informações adquiridas por perfilagem geofísica, ou por um outro método, a um banco de dados obtido por amostragem com recuperação de testemunho. Concluiu-se que independente do método empregado para incorporação de informação secundária, as estimativas apresentam melhorias significativas quando comparadas com as estimativas sem a contemplação de informações secundárias. Conseqüentemente a aplicação de perfilagem pode ser uma ferramenta de extrema importância e confiável para obtenção de informação secundária e também para melhoria do planejamento de lavra para curto prazo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A utilização de versões permite o armazenamento de diferentes alternativas de projeto no desenvolvimento de uma aplicação. Entretanto, nem todo o histórico das alterações aplicadas sobre os dados é registrado. Modificações importantes podem ser realizadas e os valores anteriores são perdidos. O histórico completo somente é acessível através da junção de versões com um modelo temporal. Os conceitos de tempo e de versão aplicados em conjunto possibilitam a modelagem de aplicações complexas. Uma extensão que implemente simultaneamente estes dois conceitos em um banco de dados comercial não está disponível. O Modelo Temporal de Versões (TVM – Temporal Version Model) fornece a base para esta funcionalidade. O objetivo deste trabalho é projetar um extender para oferecer suporte aos conceitos de tempo e versão no sistema DB2, utilizando como base o TVM. A extensão engloba o mapeamento da hierarquia do TVM; a criação de tabelas administrativas; procedimentos para especificação das classes, atributos e relacionamentos; a definição de gatilhos e restrições para a manipulação dos dados diretamente nas tabelas criadas; e a especificação de procedimentos e UDFs para controle de versões e valores temporais e de outras UDFs que permitem consultas envolvendo os dois conceitos. Apesar do SGBD não ser totalmente orientado a objetos, como é definido no modelo utilizado (TVM), oferece mecanismos que permitem o mapeamento para um modelo objetorelacional. Através da utilização desta extensão, a união de tempo e de versões pode ser utilizada em aplicações reais.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O estudo foi feito através de séries históricas de dados de um incubatório pertencente a uma integração avícola do Rio Grande do Sul, durante os anos de 1999 a 2003, com os quais foram feitas análises do tipo observacional analítico e transversal. Primeiramente usou-se os registros de 5 linhagens de frangos utilizadas pela empresa no transcorrer do período de 23 de fevereiro de 1995 a 25 de janeiro de 2002. As linhagens foram identificadas da seguinte forma: COBB, HIGH YIELD, MPK, ROSS308, e X. Esses 81 lotes analisados foram estudados através dos seus respectivos registros que continham: o número inicial de fêmeas, número inicial de machos, ração total/cabeça, ração/cabeça/inicial/recria, ração/cabeça/inicial/postura, ovos postos, ração p/ovo posto, pintos nascidos, percentagem viabilidade postura fêmea, percentagem viabilidade postura machos. O método aqui proposto provou ser capaz de classificar as linhagens a partir das entradas escolhidas. Na linhagem que apresentava uma grande quantidade de amostras a classificação foi muito precisa. Nas demais, com menor número de dados, a classificação foi efetuada, e, como era de se esperar, os resultados foram menos consistentes. Com o mesmo banco de dados dos lotes fechados, realizou-se a segunda etapa da dissertação. Nela, procedeu-se o treinamento das redes neurais artificiais onde foram utilizadas as seguintes variáveis de saída: ovos incubáveis, percentagem de ovos incubáveis, ovos incubados, percentagem de ovos incubados, pintos nascidos e pintos aproveitáveis. Os resultados apresentaram R2 oscilando entre 0,93 e 0,99 e o erro médio e o quadrado médio do erro ajustados, demonstrando a utilidade das redes para explicar as variáveis de saída. Na terceira e última etapa da dissertação, destinada à validação dos modelos, foram usados quatro arquivos distintos denominados da seguinte forma: INPESO (3.110 linhas de registros de pesos dos reprodutores), ININFO (56.018 linhas de registros com as informações diárias do ocorrido nas granjas de reprodução até o incubatório), INOVOS (35.000 linhas de registros com informações sobre os ovos processados), INNASC: 43.828 linhas de registros com informações sobre os nascimentos. O modelo gerado para o ano de 1999 foi capaz de predizer corretamente os resultados deste mesmo ano e dos anos de 2000, 2001, 2002 e 2003. O mesmo procedimento foi repetido criando modelo com os registros do ano em questão e validando-o com os registros dos anos subseqüentes. Em todas as ocasiões foram obtidos bons resultados traduzidos por um alto valor no R2. Concluindo, os fenômenos próprios do incubatório puderam ser explicados através das redes neurais artificiais. A técnica, seguindo a mesma tendência das dissertações que anteriormente já haviam demonstrado que esta metodologia pode ser utilizada para o gerenciamento de reprodutoras pesadas e de frangos de corte, pode realizar simulações, predições e medir a contribuição de cada variável no fenômeno observado, tornando-se uma poderosa ferramenta para o gerenciamento do incubatório e num suporte cientificamente alicerçado para a tomada de decisão.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho apresenta um modelo de metadados para descrever e recuperar imagens médicas na Web. As classes pertencentes ao modelo viabilizam a descrição de imagens de várias especialidades médicas, incluindo suas propriedades, seus componentes e as relações existentes entre elas. Uma das propriedades que o modelo incorpora é a classificação internacional de doenças, versão 10 (CID-10). O modelo de metadados proposto, inspirado em classes, favorece a especialização e sua implementação na arquitetura de metadados RDF. O modelo serviu de base para a implementação de um protótipo denominado de Sistema MedISeek (Medical Image Seek) que permite a usuários autorizados: descrever, armazenar e recuperar imagens na Web. Além disto, é sugerida uma estrutura persistente apropriada de banco de dados para armazenamento e recuperação dos metadados propostos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Modelos de bancos de dados têm sido progressivamente estendidos a fim de melhor capturar necessidades específicas de aplicações. Bancos de dados versionados, por exemplo, provêm suporte a versões alternativas de objetos. Bancos de dados temporais, por sua vez, permitem armazenar todos os estados de uma aplicação, registrando sua evolução com o passar do tempo. Tais extensões sobre os modelos de dados se refletem nas respectivas linguagens de consulta, normalmente sob a forma de extensões a linguagens conhecidas, tais como SQL ou OQL. O modelo de banco de dados TVM (Temporal Versions Model ), definido sobre o modelo de banco de dados orientado a objetos, suporta simultaneamente versões alternativas e o registro de alterações de objetos ao longo do tempo. A linguagem de consulta TVQL (Temporal Versioned Query Language), definida a partir da linguagem de consulta SQL, permite recuperar informações do modelo de dados TVM. As construções introduzidas em TVQL têm como objetivo tornar simples a consulta do banco de dados em diversos pontos da linha temporal. Apesar das vantagens da utilização da linguagem TVQL para resgatar dados temporais do modelo TVM, existem algumas limitações importantes para seu aprimoramento. Uma delas é a alta complexidade do modelo TVM, proveniente da integração de conceitos variados como estados alternativos e rótulos temporais. Outro ponto é que, até o presente momento, não existe um interpretador para TVQL, impedindo uma experiência prática de programação de consultas. O objetivo principal deste trabalho é o desenvolvimento de uma especificação formal para a linguagem TVQL, tornando possível um estudo consistente de suas construções. Adicionalmente, uma especificação formal serve como documentação para futuras implementações de interpretadores. Neste trabalho foi desenvolvido um protótipo de avaliador de consultas e verificador de tipos para um núcleo funcional da linguagem TVQL, possibilitando também uma experimentação prática sobre os modelos propostos.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A pesquisa será realizada comparando-se as metodologias de avaliação de oportunidades exploratórias. Para tanto, será feito um estudo de caso, tomando como base uma carteira de oportunidades formada para avaliar os blocos do 2° leilão da ANP, em que se obtêm o VME de cada oportunidade com a característica geológica (litologia) definida previamente pelo leilão. Posteriormente, com base em informações dos poços perfurados desde o leilão até os dias atuais, far-se-á a valoração das oportunidades com plays correlacionados aos poços já perfurados. Entende-se que a correlação ocorre quando a oportunidade exploratória possuir a mesma formação geológica dos poços perfurados. Para regiões onde não houve perfurações será utilizada a opção de se investir em sísmica em busca de informações sobre a oportunidade. Com o resultado ex-post dos poços, calcula-se os valores monetários da árvore de decisão, evidenciando a opção de espera do resultado dos poços e quantificando o valor da informação adquirido com as informações dos poços e/ou sísmicas. A pesquisa utilizou dados fornecidos pela ANP, por meio do Banco de Dados de Exploração e Produção (BDEP) e também dados do 2° leilão realizado pela ANP em novembro de 2000.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Através do banco de dados referente a granulometria (cascalho, areia, silte e argila), carbonato biogênico, carbono orgânico total (COT) e argilo-minerais (caulinita, esmectita, ilita e gibsita) do projeto MAPEM- Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima (Águas Rasas), foi realizado este estudo visando avaliar os efeitos da perfuração dos poços BO-022H e BO-023H, localizados em talude continental superior, região sul da Bacia de Campos, Brasil, a 50 km da cidade de Cabo Frio, a 250m de profundidade. A promissora atividade de exploração e produção de petróleo e gás no Brasil tem exigido estudos detalhados do ambiente marinho, estes por sua vez deverão considerar desde a técnica de perfuração até a minuciosa alteração causada no substrato sedimentar. Nesta perspectiva foram coletadas amostras de sedimentos superficiais na região no em torno da área perfurada. Durante o cruzeiro I foram coletadas 48 amostras, no cruzeiro II, três meses após a perfuração, foram coletadas 61 amostras e no cruzeiro III, 22 meses após a perfuração, foram coletadas 54 amostras. Paralelamente foram amostradas 6 estações de controle. A preocupação é compreender quais são as alterações ambientas causadas pela perfuração, para isso as análises dos sedimentos geraram informações sobre a composição granulométrica, o teor carbonato biogênico e carbono orgânico total, e, composição mineralógica (argilo-minerais). Essas variáveis comparadas à variação espacial (área de monitoramento/estações de referência) e temporal (3 cruzeiros oceanográficos) permitiram compreender como o substrato sedimentar marinho reagiu a atividade de perfuração. Com o background da área, para os três cruzeiros oceanográficos, definiu-se os níveis médios das variáveis analisadas, identificando sinais de contaminação pela atividade de perfuração. Estes resultados demostram que a atividade de perfuração não promoveu alterações significativa nas propriedades sedimentares, que a variação dos valores de backgrounds, do cruzeiro II para o cruzeiro III, permaneceram muito próximo daqueles do cruzeiro I. Entre os argilo-minerais, a esmectita e a ilita , aumentaram, porém no cruzeiro III, os valores sofrem redução ficando muito próximo daqueles do cruzeiro I.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este estudo objetivou demonstrar que é possível explicar os fenômenos que ocorrem na criação de frangos de corte através de redes neurais artificiais. A estatística descritiva e a diferença entre as médias das variáveis dos dados iniciais foram calculadas com o programa computacional SigmaStat® Statistical Software para Windows 2.03. Foi utilizada uma série histórica de dados de produção de frangos de corte, obtidos nos anos de 2001 e 2002, fornecidos por uma Integração Avícola do Rio Grande do Sul, contendo informações de 1.516 criadores com lotes alojados em 2001 e 889 criadores com lotes alojados em 2002. Nos arquivos estavam registrados, para cada lote, suas variáveis de produção, tais como número do lote, data do alojamento, data do abate, idade ao abate, número de pintos alojados, quilogramas de ração consumidos, quilogramas de frangos produzidos, número de aves abatidas, custo do frango produzido, mortalidade, peso médio, ganho de peso diário, índice de conversão alimentar, índice de eficiência, quilogramas líquido de frangos, quilogramas de ração inicial, quilogramas de ração crescimento, quilogramas de ração abate, além de outros. Para a construção das redes neurais artificiais foi utilizado o programa computacional NeuroShell®Predictor, desenvolvido pela Ward Systems Group. Ao programa foi identificado as variáveis escolhidas como “entradas” para o cálculo do modelo preditivo e a variável de “saída” aquela a ser predita. Para o treinamento das redes foram usados 1.000 criadores do banco de dados do alojamento de frangos de corte de 2001. Os restantes 516 criadores de 2001 e todos os 889 criadores de 2002 serviram para a validação das predições, os quais não participaram da etapa de aprendizagem, sendo totalmente desconhecidos pelo programa. Foram gerados 20 modelos na fase de treinamento das redes neurais artificiais, com distintos parâmetros de produção ou variáveis (saídas). Em todos estes modelos, as redes neurais artificiais geradas foram bem ajustadas apresentando sempre, um Coeficiente de Determinação Múltipla (R²) elevado e o menor Quadrado Médio do Erro (QME). Ressalta-se que o R² perfeito é 1 e um coeficiente muito bom deve estar próximo de 1. Todos os 20 modelos, quando validados com os 516 lotes de 2001 e com 889 de 2002, apresentaram também Coeficientes de Determinação Múltipla (R²) elevados e muito próximos de 1, além de apresentarem o Quadrado Médio do Erro (QME) e Erro Médio reduzidos. Foi comprovado não haver diferenças significativas entre as médias dos valores preditos e as médias dos valores reais, em todas as validações efetuadas nos lotes abatidos em 2001 e em 2002, quando aplicados os 20 modelos de redes neurais gerados. Como conclusão, as redes neurais artificiais foram capazes de explicar os fenômenos envolvidos com a produção industrial de frangos de corte. A técnica oferece critérios objetivos, gerados cientificamente, que embasarão as decisões dos responsáveis pela produção industrial de frangos de corte.Também permite realizar simulações e medir a contribuição de cada variável no fenômeno em estudo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho estuda a formação dos Bookbuildings em emissões de ações no Brasil, também conhecidos como “Livro de Ofertas”, o último e mais importante estágio de um processo de IPO. Testam-se hipóteses de assimetria de informação, monitoramento e liquidez e conflito de interesse para o caso brasileiro em um conjunto de 18 emissões, todas oriundas de IPO’s emitidos no mercado de capitais brasileiro, sob a ótica das 5 variáveis mais significativas: Tipo de Investidor – curto e longo-prazo; Nacionalidade – Investidores dos Estados Unidos e locais; Participações em ofertas; Tamanho das ofertas; e Preço das emissões. O nosso banco de dados analisa todas as 209 operações de listagem primária e secundária dos últimos 7 anos, desde 2004, na Bovespa. São 209 ofertas públicas. Aprofundamo-nos em 18 delas, das quais possuímos todas as informações de formação de livro de ofertas. Demonstrou-se que em todas essas 18 ofertas o volume de ofertas feitas por investidores estrangeiros de fato “ancorou” as operações (representando mais do que 67% das ordens dos livros), fato que teve uma função muito importante, de “sinalizar” a força das determinadas ofertas em termos de demanda. Das 18 operações, o livro de ofertas de 39% excedeu mais do que 3 vezes a quantidade ofertada pela empresa issuer ao mercado. Em 56% dos casos, a demanda foi maior do que o dobro do número de ações oferecidas pelo issuer. Em 72% dos casos, a demanda excedeu a oferta em pelo menos 50%. A média de demanda das 2.229 ofertas de compra, divididas nos 18 IPO’s estudados, foi de quase 4 vezes o número de ações ofertadas, ou 394%, conforme tabela 11 deste trabalho. Os resultados obtidos seguem na direção das teorias de preferência por investidores de longo prazo em detrimento de investidores de curto prazo. Encontramos que o preço e a participação em diversos IPO’s não são determinantes para explicar as diferenças nas alocações, distanciando nossos resultados das teorias de assimetria de informação. Já as variáveis que exprimem características dos investidores mostraram-se bastante relevantes para explicar as diferenças nas alocações. Primeiramente, o tipo de investidor mostrou-se uma variável decisiva na alocação. Nas hipóteses testadas, encontramos evidências de que investidores de longo prazo, os chamados Long-Only são beneficiados enquanto investidores de curto prazo, em geral hedge-funds e tesourarias, são penalizados nas alocações. Segundo, a nacionalidade do investidor também exprime papel fundamental na alocação. Investidores norte-americanos são beneficiados enquanto investidores brasileiros são penalizados, outro resultado contrário às teorias de troca de alocação por informação, dado que investidores domésticos, em teoria, deveriam ter maior informação do que estrangeiros. Em realidade, se existe um consenso nesse campo de pesquisa é o de que investidores norte-americanos determinam a direção da grande maioria dos recursos destinados a esse mercado e emitem forte sinalização quando “entram” em negócios dessa natureza ao redor do mundo, o mesmo ocorrendo no caso brasileiro e demonstrado em nossa análise, conforme acima mencionado. Os resultados apenas comprovam que esse tipo de ação de tais investidores tem sido premiado por meio de favorecimento em alocações nas ofertas no mercado brasileiro, principalmente quando controlamos para emissões com alta demanda, os chamados Hot IPO’s. Também encontramos evidências contrárias às teorias de controle. Ao regredir nossa variável Tamanho, encontramos um sinal contrário ao esperado. Isto é, para os dados que dispúnhamos, verificamos o favorecimento de grandes ofertas em detrimento de pequenas, enquanto esperaríamos que os underwriters evitassem concentração de ações, “protegendo” as empresas emissoras de eventuais problemas de liquidez e até potenciais tentativas de hostile take-overs no futuro.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta tese procura investigar dois aspectos de Economia do Setor Público no Brasil: incidência fiscal e interações fiscais estratégicas. O tópico de incidência tributária é investigado em um contexto de transmissão do tributo, no qual carga fiscal e efeitos dos tributos sobre os preços são discutidos. O banco de dados utilizado inclui alíquotas do tributo estadual sobre bens alimentícios. Na primeira metodologia, identifica-se que a Carga Fiscal do consumidor no Brasil para os bens analisados é ao redor de 40%. Já o percentual remanescente corresponderia a Carga Fiscal da firma. Na segunda metodologia, resultados apontam que os preços reagem de forma incompleta a mudanças das alíquotas dos tributos. Ademais, o padrão de transmissão depende da direção da mudança fiscal: acréscimos e decréscimos das alíquotas dos tributos estaduais são repassados em proporções diferentes aos preços. Adicionalmente, são investigadas interações estratégicas na definição dos tributos, entre Estados e também entre Estados e Federação. Interações horizontais são investigadas para bens alimentícios. As estimativas sugerem que as interações apresentam efeito positivo, porém insignificante nas decisões tributárias. É provável que decisões tributárias dependam de características internas dos Estados. Já o último método investiga eventual competição vertical nos tributos entre Estados e Federação para cigarros e gasolina. Os resultados indicam que interações verticais são importantes no caso do cigarro, e interações horizontais importantes para gasolina.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho tem três objetivos básicos, tendo como base um banco de dados de taxas reais de câmbio entre Brasil e 21 parceiros comerciais no período de 1957 a 2010. O primeiro objetivo é o de verificar a validade da Paridade do Poder de Compra entre Brasil e seus parceiros comerciais através de três testes de raiz unitária (ADF, PP, KPSS). Para a maioria dos países, os testes de raiz unitária foram inconclusivos ou não rejeitaram raiz unitária quando foram utilizados dados mensais e modelos lineares. Já para dados de periodicidade anual, houve maior aceitação de estacionariedade, além de um número menor de resultados inconclusivos. O segundo objetivo é o de investigar a hipótese em Taylor (2001) de que a meia-vida é superestimada quando a amostra é formada a partir de um processo de agregação temporal pela média. Os resultados confirmam as conclusões de Taylor e superestimam a meia-vida em uma janela de 35% a 56% do que seria a meia-vida calculada a partir de dados de final de período. O terceiro objetivo do trabalho é o de verificar se a taxa real de câmbio possui uma reversão não-linear à média. Considerando dados mensais, foi verificado que na maioria dos testes rejeita-se a hipótese nula de raiz unitária contra a hipótese alternativa de globalmente estacionária, porém não-linear.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A responsabilização do gestor municipal de saúde pelo planejamento e avaliação do Sistema de Saúde tem aumentado com o processo de municipalização, tornando crescente a necessidade de obtenção de informações adequadas e rapidamente acessíveis ao processo de tomada de decisões gerenciais. Os Sistemas de Informação em Saúde (SIS) são potenciais apoiadores deste processo, mas poucos trabalhos têm verificado sua adequação às necessidades dos gestores municipais, e municípios pequenos podem ter dificuldades adicionais para disponibilizar recursos materiais e humanos necessários a seu aproveitamento adequado. Procurou-se conhecer as necessidades dos 337 municípios gaúchos com menos de 10 mil habitantes em termos de estrutura, utilização dos SIS e necessidades de informações, através de questionário auto-aplicado. Houve um retorno de 127 questionários (37%). A falta de estrutura para a utilização dos SIS não apareceu como problema crítico, sendo que todos os municípios possuíam computador para uso dos SIS (média de três) e 6% não tinham internet. Em 59,1% há análise de dados com geração de indicadores utilizados no planejamento e gerenciamento local, mas 36,2% têm dificuldades na utilização das informações que retornam do nível central por não terem acesso ou por não conseguirem compreendê-las. 4,7% acham que os SIS permitem gerar os indicadores necessários, satisfazendo plenamente suas expectativas, e dos que não utilizam ou utilizam muito pouco os dados dos SIS, 10% referem como causa a falta de computadores, 27,5% o treinamento insuficiente dos profissionais, 27,5% que não há necessidade de criar indicadores, que vêm prontos do nível central, e 25% que os SIS não permitem trabalhar o banco de dados, apenas sua alimentação. Identificou-se dificuldade na compreensão do termo indicadora, e foram citados freqüentemente como importantes para o planejamento local os mesmos utilizados nas pactuações com o Estado. O Estado precisa fornecer às coordenadorias regionais condições para que possam assumir seu papel de apoiadoras técnicas, auxiliando a organização administrativa dos municípios e o processo de planejamento e tomada de decisões, permitindo que eles identifiquem suas demandas e decidam localmente quais as informações relevantes para apoiar suas decisões.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O funcionamento dos bancos comerciais implica no sucesso de suas estratégias de captação de depósitos a prazo. O Certificado de Depósito Bancário (CDB) é um dos instrumentos mais utilizados para este fim. 95% dos CDBs são flutuantes e atrelados ao CDI, sendo que grande parte destes CDBs tem data de carência pré-definida para o resgate. Esta característica é responsável pela opção implícita de resgate oferecida ao investidor. Ou seja, o investidor tem a prerrogativa de resgatar seu investimento entre a data de carência e o vencimento do CDB sem que seja penalizado por isso. Este trabalho apresenta um método de apreçamento da opção de resgate implícita no CDB utilizando o modelo de Black Derman Toy. A técnica empregada inova ao considerar o nível da estrutura a termo de taxa de juros tanto em relação à curva de CDBs observada no mercado, quanto a sua volatilidade. Entretanto, a volatilidade é preservada e, por isso, não é contaminada pelas oscilações da estrutura a termo. No procedimento foram utilizados os CDBs do banco de dados da Cetip com valores maiores que quinhentos mil reais emitidos entre 2007 e 2009. Assumiu-se que todos os investidores eram racionais e não precisaram recorrer aos seus investimentos, portanto só resgataram seus recursos após o fim do prazo de carência. Com o intuito de verificar a validade dos preços calculados através do modelo Black Derman Toy, foi aplicada a técnica da simulação de Monte Carlo com a criação de dez mil trajetórias para o preço do ativo. Os resultados obtidos através do modelo proposto foram confirmados quando confrontados com a simulação de Monte Carlo.