998 resultados para Modelos de dados
Resumo:
Esta tese é composta por três artigos, cada um deles correspondendo a um capítulo. Embora cada capítulo verse sobre assuntos distintos, existe a mesma preocupação em todos eles com a correta construção de modelos econométricos agregados a partir de modelos de decisão individual. Em outras palavras, o tema unificador é a preocupação em, ao usar dados agregados, levar em consideração a heterogeneidade dos indivíduos no processo de agregação dos mesmos.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Considerou-se o ajustamento de equações de regressão não-linear e o teste da razão de verossimilhança, com aproximações pelas estatísticas qui-quadrado e F, para testar as hipóteses de igualdade de qualquer subconjunto de parâmetros e de identidade dos modelos para dados com repetições provenientes de experimento com delineamento em blocos completos casualizados. Concluiu-se que as duas aproximações podem ser utilizadas, mas a aproximação pela estatística F deve ser preferida, principalmente para pequenas amostras.
Resumo:
Este trabalho apresenta o projeto de uma interface visual para modelos de bancos de dados orientados a objetos, com suporte para versões. Um requisito importante, não atendido pelas interfaces visuais específicas e genéricas para sistemas orientados a objetos, é a capacidade de definir e manipular versões de um objeto nos vários níveis da hierarquia de classes (herança por extensão, adotada pelo modelo de versões [GOL 95]). As interfaces, que manipulam versões, suportam essa característica no nível mais especializado da hierarquia (herança por refinamento, adotada pelos principais SGBDOOs). Procurando prover a possibilidade do versionamento de objetos nos vários níveis da hierarquia de classes, surgiu a motivação para projetar e desenvolver uma interface visual com funcionalidades de interfaces existentes (específicas e genéricas) e que obedeça às características principais dos Modelos de Dados Orientados a Objetos e do Modelo de Versões [GOL 95], seguindo as características recomendadas para interfaces visuais para MDOOs, propostas em [SIL 96]. Foi implementado um protótipo com algumas das características projetadas para o browser de objeto e seu suporte para versões.
Resumo:
We presented in this work two methods of estimation for accelerated failure time models with random e_ects to process grouped survival data. The _rst method, which is implemented in software SAS, by NLMIXED procedure, uses an adapted Gauss-Hermite quadrature to determine marginalized likelihood. The second method, implemented in the free software R, is based on the method of penalized likelihood to estimate the parameters of the model. In the _rst case we describe the main theoretical aspects and, in the second, we briey presented the approach adopted with a simulation study to investigate the performance of the method. We realized implement the models using actual data on the time of operation of oil wells from the Potiguar Basin (RN / CE).
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
Apresenta-se nesta tese uma revisão da literatura sobre a modelação de semicondutores de potência baseada na física e posterior análise de desempenho de dois métodos estocásticos, Particle Swarm Optimizaton (PSO) e Simulated Annealing (SA), quando utilizado para identificação eficiente de parâmetros de modelos de dispositivos semicondutores de potência, baseado na física. O conhecimento dos valores destes parâmetros, para cada dispositivo, é fundamental para uma simulação precisa do comportamento dinâmico do semicondutor. Os parâmetros são extraídos passo-a-passo durante simulação transiente e desempenham um papel relevante. Uma outra abordagem interessante nesta tese relaciona-se com o facto de que nos últimos anos, os métodos de modelação para dispositivos de potência têm emergido, com alta precisão e baixo tempo de execução baseado na Equação de Difusão Ambipolar (EDA) para díodos de potência e implementação no MATLAB numa estratégia de optimização formal. A equação da EDA é resolvida numericamente sob várias condições de injeções e o modelo é desenvolvido e implementado como um subcircuito no simulador IsSpice. Larguras de camada de depleção, área total do dispositivo, nível de dopagem, entre outras, são alguns dos parâmetros extraídos do modelo. Extração de parâmetros é uma parte importante de desenvolvimento de modelo. O objectivo de extração de parâmetros e otimização é determinar tais valores de parâmetros de modelo de dispositivo que minimiza as diferenças entre um conjunto de características medidas e resultados obtidos pela simulação de modelo de dispositivo. Este processo de minimização é frequentemente chamado de ajuste de características de modelos para dados de medição. O algoritmo implementado, PSO é uma técnica de heurística de otimização promissora, eficiente e recentemente proposta por Kennedy e Eberhart, baseado no comportamento social. As técnicas propostas são encontradas para serem robustas e capazes de alcançar uma solução que é caracterizada para ser precisa e global. Comparada com algoritmo SA já realizada, o desempenho da técnica proposta tem sido testado utilizando dados experimentais para extrair parâmetros de dispositivos reais das características I-V medidas. Para validar o modelo, comparação entre resultados de modelo desenvolvido com um outro modelo já desenvolvido são apresentados.
Resumo:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para a obtenção do Grau de Mestre em Engenharia Informática
Resumo:
O objetivo deste trabalho foi identificar, quantificar e modelar atributos condicionantes do acúmulo de forragens no Brasil Central e desenvolver modelos estimadores do acúmulo de forragem potencial, com base em parâmetros climáticos. Uma estrutura de banco de dados foi modelada e implementada para a inserção de dados de crescimento de forrageiras. Foram inseridos dados primários de experimentos com cultivares do gênero Cynodon, Panicum e Urochloa. O banco de dados permitiu gerar listagens ordenadas das taxas médias de acúmulo de forragem (TMA), temperatura média, máxima, mínima (Tmín), radiação global incidente e dias do ano, para cada período de crescimento. Realizaram-se regressões lineares simples e múltiplas, com variáveis climáticas como regressoras e TMA como variável resposta. O modelo com Tmín como variável independente se destacou com os melhores valores para o coeficiente de determinação, critério de Akaike e critério bayesiano, e foi adotado como padrão. Os modelos foram agrupados pelo teste de coincidência em seis grupos. Os modelos possuem capacidade estimadora diferente para cada cultivar. A calibração dos modelos com dados locais pode acomodar efeitos desconsiderados na sua formulação e aumenta a acurácia de estimativas da produção potencial.
Resumo:
O objetivo deste trabalho foi avaliar e comparar duas categorias de modelos de crescimento e produção em plantios comerciais de eucalipto. Para isso, foram ajustados um modelo de crescimento e produção para povoamento e outro para árvore individual, por meio de equações simultâneas e redes neurais artificiais, respectivamente. O volume de madeira por área foi estimado em diferentes idades e classes de produtividade. Foram avaliados dados de 63 parcelas permanentes de plantios clonais, não desbastados, do híbrido Eucalyptus grandis x E. urophylla, com os dados de 33 parcelas utilizados para o ajuste do modelo e o treinamento das redes neurais, e os das 30 parcelas restantes, para a validação dos modelos. As duas categorias de modelos ajustaram-se bem aos dados observados. No entanto, na validação dos modelos com dados independentes, o volume de madeira por área foi mais bem estimado com o modelo para árvore individual.
Resumo:
RESUMO O objetivo do trabalho foi avaliar o ajuste dos modelos Gompertz e Logístico, com estrutura de erros independentes e autoregressivos, no desenvolvimento de frutos de caju, com base em medidas de comprimento e largura do fruto, tomados ao longo do tempo. A estimação dos parâmetros foi feita por meio de rotinas no software R, utilizando-se o método dos mínimos quadrados e o processo iterativo de Gauss- Newton. Os modelos foram comparados pelos critérios: coeficiente de determinação ajustado (R2 aj), desvio padrão residual (DPR), critério de informação Akaike (AIC) ecritériobayesiano de Schwarz (BIC). Para os dois modelos, os dados apresentaram autocorrelação residual positiva, tanto para a variável comprimento como para a largura do fruto, descrita por processo autoregressivo de primeiraordem. Em geral, por todos critérios de avaliação da qualidade de ajuste, os dados se ajustaram ao modelo Logístico com uma estrutura autoregressiva da primeira ordem, havendo no entanto superestimação do tamanhodo fruto nas últimas idades, tanto no crescimento em comprimento (cm) e largura (cm).
Resumo:
Com base na literatura internacional, testa-se o desempenho de alguns Drivers de Valor comumente utilizados para avaliação de empresas pelos práticos em finanças através de modelos de regressão simples do tipo cross-section que estimam os Múltiplos de Mercado (?'s dos modelos). Utilizando dados de empresas listadas na Bolsa de Valores de São Paulo-Bovespa, diagnostica-se o comportamento dos diversos múltiplos no decorrer do período entre 1994-2004, atentando-se também para as particularidades das atividades desempenhadas pelas empresas da amostra (e seus possíveis impactos no desempenho de cada Driver de Valor) através de uma subseqüente análise com a separação das empresas da amostra em setores. Extrapolando os padrões de avaliação por múltiplos simples usados pelos analistas de empresas das principais instituições financeiras presentes no Brasil, verifica-se que a introdução de intercepto na formulação tradicional não oferece resultados satisfatórios na redução dos erros de apreçamento. Os resultados encontrados podem não ser genericamente representativos, dada a limitada disponibilidade de informações e as restrições impostas na obtenção da base de dados.
Resumo:
Trata-se de uma pesquisa de campo que abrange 21 empresas, onde se procurou identificar estruturas de dados comuns nos modelos de dados das mesmas. A base teórica para o trabalho são os conceitos de abstração existentes na literatura de Projeto de Banco de Dados, agregação (é-parte-de) e generalização (é-um). Foram identificadas aplicações destes conceitos, mas a pesquisa também mostra que ainda há poucas ferramentas disponíveis para implementação dos mesmos e pouca familiaridade dos técnicos com os conceitos
Resumo:
A modelagem conceitual de banco de dados geográficos (BDG) é um aspecto fundamental para o reuso, uma vez que a realidade geográfica é bastante complexa e, mais que isso, parte dela é utilizada recorrentemente na maioria dos projetos de BDG. A modelagem conceitual garante a independência da implementação do banco de dados e melhora a documentação do projeto, evitando que esta seja apenas um conjunto de documentos escritos no jargão da aplicação. Um modelo conceitual bem definido oferece uma representação canônica da realidade geográfica, possibilitando o reuso de subesquemas. Para a obtenção dos sub-esquemas a serem reutilizados, o processo de Descoberta de Conhecimento em Bancos de Dados (DCBD – KDD) pode ser aplicado. O resultado final do DCBD produz os chamados padrões de análise. No escopo deste trabalho os padrões de análise constituem os sub-esquemas reutilizáveis da modelagem conceitual de um banco de dados. O processo de DCBD possui várias etapas, desde a seleção e preparação de dados até a mineração e pós-processamento (análise dos resultados). Na preparação dos dados, um dos principais problemas a serem enfrentados é a possível heterogeneidade de dados. Neste trabalho, visto que os dados de entrada são os esquemas conceituais de BDG, e devido à inexistência de um padrão de modelagem de BDG largamente aceito, as heterogeneidades tendem a aumentar. A preparação dos dados deve integrar diferentes esquemas conceituais, baseados em diferentes modelos de dados e projetados por diferentes grupos, trabalhando autonomamente como uma comunidade distribuída. Para solucionar os conflitos entre esquemas conceituais foi desenvolvida uma metodologia, suportada por uma arquitetura de software, a qual divide a fase de préprocessamento em duas etapas, uma sintática e uma semântica. A fase sintática visa converter os esquemas em um formato canônico, a Geographic Markup Language (GML). Um número razoável de modelos de dados deve ser considerado, em conseqüência da inexistência de um modelo de dados largamente aceito como padrão para o projeto de BDG. Para cada um dos diferentes modelos de dados um conjunto de regras foi desenvolvido e um wrapper implementado. Para suportar a etapa semântica da integração uma ontologia é utilizada para integrar semanticamente os esquemas conceituais dos diferentes projetos. O algoritmo para consulta e atualização da base de conhecimento consiste em métodos matemáticos de medida de similaridade entre os conceitos. Uma vez os padrões de análise tendo sido identificados eles são armazenados em uma base de conhecimento que deve ser de fácil consulta e atualização. Novamente a ontologia pode ser utilizada como a base de conhecimento, armazenando os padrões de análise e possibilitando que projetistas a consultem durante a modelagem de suas aplicações. Os resultados da consulta ajudam a comparar o esquema conceitual em construção com soluções passadas, aceitas como corretas.
Resumo:
Este ensaio apresenta um estudo sobre a demanda por serviço de saúde no mercado de saúde suplementar utilizando, através de uma análise econométrica, modelos de regressão de dados de contagem para verificar os fatores monetários e não monetários que podem influenciar a quantidade demandada por este serviço, e determinar se há risco moral na determinação desta demanda, no caso de um modelo de visitas médicas de especialidade.