1000 resultados para Modelo conceptual de informação geográfica – Base de dados


Relevância:

100.00% 100.00%

Publicador:

Resumo:

O manejo sustentado de agroecossitemas passa pelo planejamento de uso dos mesmos, para o que necessitam ser avaliados os recursos naturais e as condições sociais, culturais e econômicas dos habitantes nestes encontrados. ferramentas de geoprocessamento e sensoriamento remoto, que permitem avaliar os recursos de grandes áreas e anexar a bancos de dados georreferenciados, foram utilizados para caracterizar o meio físico e planejar o uso da fazenda El P, Departamento de Cerro largo, Uruguai. dados topográficos, planialtimétricos, de clima, solo e uso atual, foram usados para gerar os planos de informação: mapa base, modelo numérico do terreno, declividade, clima e recursos hídricos, solos, aptidão de uso dos solos, uso atual, zoneamento ambiental e conflito de uso. A pesquisa mostra que a região apresenta déficit hídrico de novembro a março; Planossolos, Solos Podzólicos, Brunizém, Vertissolos e Solos Gley predominam na mesma; estes solos apresentam ampla faixa de aptidão de uso, que facilita o zoneamento ambiental ecológico da mesma. Se considerarmos que a tradicional pecuária desenvolvida nas áreas onduladas e arroz nas várzeas constitui o uso adequado dos solos, lavouras de arroz encontradas ao longo de sistemas de drenagem, onde deveria ser mantida a vegetação ciliar natural, constitui o principal conflito de uso relacionado ao zoneamento ambiental da região. O geoprocesssamento e sensoriamento remoto mostraram-se eficientes no planejamento de uso da Fazenda Pantanoso.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

As aplicações que lidam com dados temporais e versionados podem ser modeladas através do Modelo Temporal de Versões. No entanto, para que se possa utilizar esse modelo,é necessário que bases de dados tradicionais sejam estendidas para bases temporais versionadas, habilitando dessa forma, a manipulação desses dados. O padrão XML tem sido amplamente utilizado para publicar e trocar dados pela internet. Porém, pode ser utilizado também para a formalização de conceitos, dados, esquemas, entre outros. Com a especificação do Modelo Temporal de Versões em XML,é possível gerar automaticamente um script SQL com as características do modelo, de forma a ser aplicado a um banco de dados, tornando-o apto a trabalhar com os conceitos de tempo e de versão. Para isso,é necessário criar regras de transformação (XSLT), que serão aplicadas às especificações definidas para o modelo. O resultado final (script SQL) será executado em uma base de dados que implemente os conceitos de orientação a objetos, transformando essa base em uma base temporal versionada. Cada banco de dados possui sua própria linguagem de definição de dados. Para gerar o script em SQL com as características do Modelo Temporal de Versões, regras de transformação deverão ser definidas para os bancos que utilizarão o modelo, observando sua sintaxe específica. Essas diversas regras serão aplicadas à mesma especificação do modelo em XML. O resultado será o script em SQL definido na sintaxe de cada base de dados.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A utilização de versões tem sido essencial em diversas aplicações de banco dados, por permitir o armazenamento e a manipulação de diferentes estados da base de dados. Durante a evolução de um esquema, o versionamento preserva todas as versões de esquemas e de seus dados associados. Por outro lado, os conceitos de bancos de dados bitemporais, que incorporam tanto tempo de transação quanto tempo de validade, provêm flexibilidade ao mecanismo de evolução de esquemas, não somente por permitir acesso a informações presentes, passadas e futuras, mas também por permitir atualizações e consultas entre as diversas versões de esquemas existentes. O objetivo principal desta tese é definir um modelo que utilize os conceitos de tempo e de versão para permitir o gerenciamento da evolução dinâmica de esquemas em bancos de dados orientados a objetos. O resultado, o Modelo Temporal de Versionamento com suporte à Evolução de Esquemas (TVSE - Temporal and Versioning Model to Schema Evolution), é capaz de gerenciar o processo de evolução de esquemas em todos os seus aspectos: versionamento e modificação de esquemas, propagação de mudanças e manipulação de dados. Esse modelo difere de outros modelos de evolução de esquemas por permitir o gerenciamento homogêneo e simultâneo do histórico da evolução do banco de dados intencional e extensional. Com o objetivo de complementar a definição deste modelo é apresentado um ambiente para gerenciar o versionamento temporal da evolução de esquemas. Desse ambiente foi implementado um protótipo da ferramenta de apoio ao gerenciamento de evolução de esquemas. Por fim, enriquecendo o universo da tese e com o intuito de prover uma maior fundamentação teórica e matemática para descrever as políticas de evolução de esquemas, é especificada uma semântica operacional para um subconjunto do modelo proposto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O objetivo deste trabalho é analisar se as principais mudanças ocorridas na forma de condução de um processo de gestão operacional de uma empresa pública de TI, quando da implantação de um novo modelo de suporte técnico aos usuários de seus produtos e serviços, proporcionaram uma alteração no paradigma de gestão existente. Em função do proposto, a diretriz adotada para a condução deste trabalho foi a de pesquisar as alterações relativas aos procedimentos de organização e gestão das atividades e não as inerentes à infra-estrutura técnica. Com este fim, foi utilizado como referencial teórico a literatura que aborda a evolução do processo de gestão da produção, notadamente aquele desenvolvido do final do século XIX até os dias atuais, tais como: o taylorismo, o fordismo e o pós-fordismo. Para estruturar a coleta de informações foram definidas as seguintes dimensões de análise: Conhecimento do Processo; Planejamento da Produção; Execução da Produção; Controle do Processo; Divisão do Trabalho; Trabalho em Equipe e Recursos Técnicos, representativas e aplicáveis a qualquer modelo, permitindo a comparação entre estes. Para levantamento dos dados foram utilizadas as documentações existentes na empresa, registros de bancos de dados, observações diretas, observações participantes e questionários, respondidos pelos gerentes responsáveis pela condução do processo. Uma vez concluída esta etapa e com o uso das dimensões de análise, foram identificadas as principais características dos dois paradigmas adotados: fordista e pós-fordista. Fez-se também a descrição destas dimensões de análise tendo por base os dados coletados sobre os modelos em estudo. Finalmente, houve a confrontação das informações para se identificar a qual paradigma cada modelo mais se assemelhava e se houve a mudança prevista. Os resultados obtidos comprovaram que o modelo anterior era mais próximo ao paradigma fordista, enquanto o novo modelo apresentava suas características predominantes identificadas com o paradigma pós-fordista. Com isto foi possível concluir que a pesquisa realizada comprovou o proposto neste trabalho, que o modelo adotado promove a mudança do paradigma de gestão existente no modelo anterior.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho busca, através dos princípios de Finanças Corporativas e de Apreçamento de Ativos, mensurar o impacto do nível de liquidez das companhias na expectativa de retorno das ações no mercado acionário brasileiro. O pressuposto básico dessa relação é que a posição de caixa representa um tipo de risco não capturado por outras variáveis. Para mensurar esse risco, será utilizada a modelagem de fatores para apreçamento de ativos. O modelo básico utilizado será o de três fatores de Fama e French, adaptado para a inclusão da variável caixa. A partir da base de dados, se tentará estimar a sensibilidade do retorno esperado das ações brasileiras ao fator caixa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Um Sistema gerenciador de Bancos de Dados (SGBD) possui como principal característica a capacidade de gerenciar bases de dados que representam parte do mundo real. Para que essa representação seja fiel, os dados presentes em uma base de dados devem obedecer a diversas regras conhecidas como restrições de integridade. Estas podem ser provenientes da realidade modelada, da implementação ou do modelo de dados utilizado. O suporte oferecido por sistemas gerenciadores de bancos de dados tradicionais não é suficientemente adequado a certas aplicações com necessidades que vão além das convencionais. Diversas aplicações necessitam armazenar dados históricos em conjunto com seus períodos de validade. Outras precisam armazenar versões de conjuntos de dados, gerenciando suas agregações e formas de representação. Através do suporte aos conceitos de tempo e de versão, provido por um SGBD, grande parte dessas necessidades é suprida. Este tipo de banco de dados usa o conceito de tempo para armazenar e controlar dados históricos enquanto o conceito de versão permite a gerência de alternativas de projeto. Existem atualmente diversos trabalhos e implementações relacionados à manutenção de restrições de integridade sobre bancos de dados tradicionais. Entretanto, restrições que consideram a gerência de tempo e de versões sobre dados ainda representam uma área de pesquisa praticamente inexplorada. De acordo com essa realidade, o primeiro objetivo do presente trabalho consiste em definir uma classificação de restrições de integridade para bases de dados com suporte a tempo e versões, a fim de prover uma base para o desenvolvimento de pesquisas relacionadas à sua especificação e manutenção. O segundo objetivo consiste em agregar ao Modelo Temporal de Versões (TVM), que suporta os conceitos de tempo e de versão, uma linguagem que permita a especificação de restrições de integridade. Esta linguagem considera características relacionadas à temporalidade e ao versionamento dos dados e das próprias restrições.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O modelo de três fatores de Fama & French (1993) é uma extensão do modelo de precificação de ativos de Sharpe (1963), Lintner (1965) e Black (1972), o CAPM. Em Fama & French (1993), o valor de mercado e o valor contábil das empresas são adicionados como variáveis explicativas ao fator de risco de mercado β do CAPM. O objetivo deste trabalho é testar o poder explicativo do modelo de três fatores para o mercado acionário brasileiro. A inovação deste trabalho foi a utilização de um universo de ações móvel, no qual os títulos que são lançados na Bovespa no período de análise vão sendo incorporadas à base de dados conforme atingem os requisitos do modelo. Trata-se de uma abordagem inovadora, já que tradicionalmente o universo de ações que compõe a amostra é rígido do início ao fim do período de análise. Esta abordagem foi desenvolvida com o intuito de mitigar o problema de falta de dados do mercado acionário brasileiro. O período de análise foi de 2000 à 2011, e as ações utilizadas foram todas aquelas que possuíam um histórico confiável e apresentaram pelo menos um negócio à cada dois meses. A análise do Modelo de Três Fatores foi realizada utilizando a metodologia de séries temporais de Black, Jensen e Scholes (1972), da mesma forma que Fama & French (1993). Como variável dependente foram utilizadas 16 carteiras, oriundas do cruzamento das ações dividas em 4 percentis iguais pelos seus valores de mercado (ME), e 4 percentis iguais pela razão valor de mercado pelo valor contábil (ME/BE). Como variáveis independentes foram construídas duas séries de retorno que replicam os fatores de risco valor de mercado, SMB, e a razão valor de mercado pelo valor contábil, HML. Estas foram construídas pela diferença dos retornos das ações de maior ME e menor ME; e pela diferença do retorno das de maior ME/BE, pelas de menor ME/BE. O método de estimação dos coeficientes das regressões utilizado foi o dos mínimos quadrados ordinários. Os resultados do Modelo encontrados para a bolsa brasileira foram similares àqueles encontrados por Fama & French (1993). O Modelo apresentou maior poder explicativo para os retornos dos portfolios analisados que o CAPM, e mostrou-se estatisticamente significante para 15 das 16 carteiras. Os coeficientes das regressões relativos aos fatores de risco SMB e HML apresentaram, em sua maioria, os mesmo sinais que os encontrados por Fama & French (1993). Foi encontrada uma discrepância relativa ao sinal do fator HML para as carteiras de maior ME/BE, cuja explicação está atrelada ao momento da economia e mercados no período. Por fim, o Modelo e a discrepância foram reavaliados dividindo-se o período de análise em pré e pós-crise de 2008. O modelo mostrou maior poder explicativo para o período pós-crise que para o pré-crise. A mesma discrepância do sinal de HML foi encontrada no pré-crise, entretanto não foi verificada no pós-crise.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho objetiva analisar como famílias brasileiras valorizam as experiências vividas nos parques da Disney como opção de lazer e entretenimento. Usando como referência as dimensões de valores estabelecidas por Holbrook (1999), será estudado à luz destas dimensões, o comportamento de consumo destas pessoas, produzindo desta forma, observações e conteúdos que sirvam, na estratégia de marketing, para futuras observações desta natureza. Os dados para este estudo foram coletados por meio de entrevistas de profundidade, de acordo com McCracken (1988) e usando-se uma metodologia de análise de conteúdo, com dados produzidos de forma qualitativa nestas entrevistas. Com estas entrevistas, objetiva-se entender os principais motivos que levam as famílias a consumirem esse tipo de entretenimento e o que mais os atrai no momento da decisão. Com base nestes dados, o estudo buscará a relação entre as dimensões de valores estabelecidas por Holbrook (1999), assim como a tipologia de valores apresentados por este mesmo autor. Os perfis de consumo apresentados no estudo poderão ser fonte de informações para empresas de entretenimento, assim como para o próprio grupo Disney. Concluiu-se que, de acordo com a pesquisa realizada, há uma indicação de comportamento de consumo mais tendenciosa a alguns dos valores das dimensões descritas por Holbrook (1999).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Problemas de saúde pública causados pelo consumo de carnes envolvem diversos países e obrigam a cadeia agroalimentar a repensar o modo de produção e os sistemas de garantia de qualidade. Devido a este fato, esta pesquisa teve como objetivo estudar a rastreabilidade na cadeia avícola, tendo como foco o consumidor. Para isso foi realizado um survey, no qual foram realizadas entrevistas com 393 consumidores da cidade de Porto Alegre. Os questionários foram aplicados no período de abril a julho de 2004 em supermercados de pequeno, médio e grande porte, além do mercado público da cidade. Os atributos sanitários que o consumidor considera importantes para se rastrear na carne de frango são: Influenza Aviária (Gripe do Frango), Salmonela, Hormônios, Controle do Índice de Absorção de Água e Resíduos de Antimicrobianos. Além disso, os entrevistados consideram que as seguintes informações devam constar na embalagem da carne de frango: Data de Validade, o número do SIF, Certificado de Qualidade, Advertência quanto a Riscos de Toxinfecção Alimentar, Preço, Data de Abate e Origem/Procedência. São exploradas na pesquisa as correlações de diversas variáveis com o nível de escolaridade, renda e faixa etária. Com base nestes dados e utilizando a análise de filière, buscou-se propor maneiras de se atingir na rastreabilidade os pontos cruciais indicados pelos consumidores. Apesar da cadeia avícola ser bem organizada, foi evidenciada por esta pesquisa a necessidade de melhorar a circulação da informação na cadeia; para isso, sugere-se um sistema integrado de informação. Finalmente, foi proposto um modelo de rastreabilidade que contempla toda a cadeia avícola, incluindo todos os elos, desde o consumidor até o matrizeiro, indicando-se possíveis fatores que podem dificultar a construção do mesmo.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Os objetivos deste trabalho foram: fazer um levantamento das dez espécies vegetais que compõem o maior número de apresentações farmacêuticas de fitoterápicos simples registradas na ANVISA; realizar o diagnóstico da oferta e da qualidade das informações contidas nas bulas das apresentações contendo as cinco espécies vegetais mais utilizadas; e definir as informações técnicas que devem estar contidas na bula de especialidades farmacêuticas que contenham como ingredientes ativos unicamente extratos preparados a partir destas espécies. O levantamento das dez espécies vegetais abrangeu o período de 01/01/1998 a 30/06/2003 e foi realizado através de consulta ao OPTLINE (www.i-helps.com). Os medicamentos fitoterápicos representam 7,76% (1888) das apresentações de registro de medicamentos no Brasil, sendo 1311 (5,38 %) apresentações de medicamentos fitoterápicos simples. Cinqüenta e oito espécies vegetais constituíam os registros de medicamentos fitoterápicos simples, sendo as dez com maior número de apresentações Ginkgo biloba L.: 302 (23,04%); Hypericum perforatum L.: 126 (9,61%); Piper methysticum F.: 87 (6,64%); Cimicifuga racemosa Nutt: 79 (6,03%); Valeriana officinalis L.: 76 (5,80%); Vitis vinifera L.: 69 (5,26%); Echinacea purpurea L.: 58 (4,42%); Aesculus hippocastanum L.: 53 (4,04%); Panax ginseng C. A Mayer: 48 (3,66%) e Cynara scolymus L.: 31 (2,36%). O diagnóstico da oferta e da qualidade das informações contidas nos textos das bulas foi realizado comparando-se estas informações com aquelas apresentadas na base de dados Medline (PubMed - www.ncbi.nhm.nhi.gov) dos últimos 5 anos e em obras bibliográficas de referência aceitas pela ANVISA, além de outras, clássicas na área de farmacognosia e fitoterapia . Foram avaliadas vinte e oito bulas. As informações de todas as bulas apresentavam incompatibilidades com as informações da literatura consultada. Os problemas mais freqüentemente encontrados foram relativos à sinonímia popular, eficácia, via de administração, contra-indicações, uso em idosos, crianças e grupos de risco, reações adversas e interações medicamentosas. Para cada uma das cinco espécies mais citadas, as informações científicas e técnicas compiladas foram organizadas como uma proposta de bula para o Profissional de Saúde a ser incluída no Compêndio de Bulas de Medicamentos (CBM), conforme previsto na Resolução-RDC nº 140/03, o qual consiste em um conjunto de bulas de medicamentos comercializados, editado pelo órgão regulador e com conteúdo da bula para o paciente e da bula para o profissional de saúde.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nas últimas décadas, a análise dos padrões de propagação internacional de eventos financeiros se tornou o tema de grande parte dos estudos acadêmicos focados em modelos de volatilidade multivariados. Diante deste contexto, objetivo central do presente estudo é avaliar o fenômeno de contágio financeiro entre retornos de índices de Bolsas de Valores de diferentes países a partir de uma abordagem econométrica, apresentada originalmente em Pelletier (2006), sobre a denominação de Regime Switching Dynamic Correlation (RSDC). Tal metodologia envolve a combinação do Modelo de Correlação Condicional Constante (CCC) proposto por Bollerslev (1990) com o Modelo de Mudança de Regime de Markov sugerido por Hamilton e Susmel (1994). Foi feita uma modificação no modelo original RSDC, a introdução do modelo GJR-GARCH formulado em Glosten, Jagannathan e Runkle (1993), na equação das variâncias condicionais individuais das séries para permitir capturar os efeitos assimétricos na volatilidade. A base de dados foi construída com as séries diárias de fechamento dos índices das Bolsas de Valores dos Estados Unidos (SP500), Reino Unido (FTSE100), Brasil (IBOVESPA) e Coréia do Sul (KOSPI) para o período de 02/01/2003 até 20/09/2012. Ao longo do trabalho a metodologia utilizada foi confrontada com outras mais difundidos na literatura, e o modelo RSDC com dois regimes foi definido como o mais apropriado para a amostra selecionada. O conjunto de resultados encontrados fornecem evidências a favor da existência de contágio financeiro entre os mercados dos quatro países considerando a definição de contágio financeiro do Banco Mundial denominada de “muito restritiva”. Tal conclusão deve ser avaliada com cautela considerando a extensa diversidade de definições de contágio existentes na literatura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

As operações de alta frequência (High-Frequency Trading - HFT) estão crescendo cada vez mais na BOVESPA (Bolsa de Valores de São Paulo), porém seu volume ainda se encontra muito atrás do volume de operações similares realizadas em outras bolsas de relevância internacional. Este trabalho pretende criar oportunidades para futuras aplicações e pesquisas nesta área. Visando aplicações práticas, este trabalho foca na aplicação de um modelo que rege a dinâmica do livro de ordens a dados do mercado brasileiro. Tal modelo é construído com base em informações do próprio livro de ordens, apenas. Depois de construído o modelo, o mesmo é utilizado em uma simulação de uma estratégia de arbitragem estatística de alta frequência. A base de dados utilizada para a realização deste trabalho é constituída pelas ordens lançadas na BOVESPA para a ação PETR4.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esse artigo busca contribuir com a política pública de disseminação e acesso a informação fazendo uma reflexão sobre a dimensão da construção de indicadores como etapa fundamental no processo de disseminação da informação e a publicação dos dados em formato aberto como meio de melhorar e facilitar o acesso à informação. A reflexão surge no contexto da formação da nova Secretaria de Direitos Humanos e Cidadania da Prefeitura Municipal de São Paulo, em junho 2013. O objetivo do trabalho é propor diretrizes básicas para uma política pública de acesso à informação e construção colaborativa de indicadores de monitoramento das políticas públicas de direitos humanos para a Secretaria. Para tanto, buscou-se analisar os casos do Observatório Cidadão da Rede Nossa São Paulo e das Pesquisas CETIC, do Comitê Gestor na Internet no Brasil, organizações que produzem indicadores sobre políticas sociais e disponibilizam as informações para acesso público. Com base na metodologia de estudos de caso de Robert Yin (2001) que propõe a construção da explanação do caso a partir da análise dos dados que permite organizar o conjunto de informações coletadas nas entrevistas e correlacioná-los selecionou-se as variáveis de análise gestão estratégica, variável interinstitucional, variável gestão da informação e variável monitoramento e avaliação. A análise mostrou que ambos os casos estudados tiveram como diretrizes norteadoras de seus trabalhos com indicadores de políticas públicas a colaboração, a participação e transparência. Esses achados no estudo serviram como referência para a elaboração da proposta de diretrizes para a SMDHC para a construção de seus indicadores de direitos humanos e cidadania.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A análise tectono-estratigráfica da Bacia do Camaquã, uma sequência vulcanosedimentar do Neoproterozóico ao Eoproterozóico com depósitos de Cu (Au, Ag), Zn e Pb, é aqui apresentada com a utilização de ferramentas de sensoriamento remoto, gravimetria e perfilagem de poço. Nas imagens LANDSAT TM demarcou-se as concentrações de lineamentos junto as principais estruturas regionais e delimitou-se quatro domínios estruturais de acordo com a orientação dos trends dos lineamentos estruturais. Os perfis de poços que abrangem as formações Guaritas e Bom Jardim evidenciam eventos tectônicos com deformação rúptil e dúctil-ruptil, estabelecendo-se diferentes fácies tectonoestratigráficas de seqüências deposicionais (ambiente deltáico) e sequência deformacionais. Nos poços observa-se a variação da densidade com a profundidade entre poços, indicando a presença de duas aloformações de compactação distintas. Com base nos dados gravimétricos locais e regionais pode-se delimitar anomalias gravimétricas do embasamento, pacotes sedimentares de espessuras distintas em subsuperfície, com espessamento para NE, como também valores diferenciados para as principais unidades sedimentares da região estudada, bem como uma compartimentação escalonada da bacia do Camaquã. Ferramentas computacionais complementam a análise gravimétrica e de perfilagem geofísica, possibilitando a integração das técnicas já relacionadas e a formatação de dois perfis esquemáticos EW e SW-NE da bacia. Estes perfis auxiliam na visualização dos limites estruturais e formato da bacia, trazendo importantes informações para o modelo geológico da Bacia do Camaquã.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho tem como objetivo comparar diferentes métodos de previsão de necessidades de caixa no overnight, que assegurem que a liquidez de um produto financeiro específico neste caso, o Call Deposits (Depósito à Vista, em moeda estrangeira) seja suficiente para cobrir os riscos de liquidez de uma instituição financeira e, em contrapartida, otimizem o lucro oriundo do saldo restante que ultrapasse o valor de saída destes modelos. Para isso, o modelo de Fluxo de Caixa de Schmaltz (2009), que segrega os diferentes componentes do caixa (determinísticos e estocásticos), será utilizado para determinar as necessidades de caixa e, através do método de Monte Carlo para a previsão de diferentes caminhos, chegamos a um valor médio de saldo para ser utilizado no overnight. Como comparativo, será utilizado o modelo determinístico de Ringbom et al (2004), que oferece a “Taxa de Reserva de Maximização de Lucro”, para, enfim, compará-los historicamente, entre Jan/2009 e Dez/2013, a fim de concluirmos qual dos modelos de reservas de caixa se mostra mais satisfatório. A base de dados utilizada replica os saldos e saques de um banco comercial, para o produto financeiro em questão, e, também, é utilizada para a estimação dos parâmetros.