998 resultados para Modelos de dados de contagem


Relevância:

30.00% 30.00%

Publicador:

Resumo:

O presente trabalho estima por máxima verossimilhança um modelo de ciclos reais para as economias brasileira americana. Os parâmetros são estimados partir de um VAR na forma estrutural obtido de um modelo macroeconômico de horizonte infinito com agente representativo choque tecnológico. Como algumas variáveis necessárias para estimação do modelo não são observadas emprega-se, na rotina computacional escrita em Matlab, método de Filtro de Kalman. Desta forma, enfoque adotado apresenta-se como opção metodologia de calibração, bem como metodologia de modelos VAR com imputação ad hoc de condições de identificação. Para estimação do modelo construiu-se uma base de dados de tributação para o Brasil, desagregando em impostos sobre absorção, sobre rendimento do fator capital sobre fator trabalho para período 1949-1995. Também empreende-se ao longo da dissertação, um detalhamento minucioso da técnica econométrica empregada dos procedimentos computacionais adotados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A motivação deste trabalho é relacionar a teoria da estatística com uma clássica aplicação prática na indústria, mais especificamente no mercado financeiro brasileiro. Com o avanço de hardware, sistemas de suporte à decisão se tornaram viáveis e desempenham hoje papel fundamental em muitas áreas de interesse como logística, gestão de carteiras de ativos, risco de mercado e risco de crédito. O presente trabalho tem como objetivos principais propor uma metodologia de construção de modelos de escoragem de crédito e mostrar uma aplicação prática em operações de empréstimo pessoal com pagamento em cheques. A parte empírica utiliza dados reais de instituição financeira e duas metodologias estatísticas, análise de regressão linear múltipla e análise de regressão probit. São comparados os resultados obtidos a partir da aplicação de modelos de escoragem de crédito desenvolvidos com cada metodologia com os resultados obtidos sem a utilização de modelos. Assim, demonstra-se o incremento de resultado da utilização de modelos de escoragem e conclui-se se há ou não diferenças significativas entre a utilização de cada metodologia. A metodologia de construção de modelos de escoragem é composta basicamente por duas etapas, definição das relações e da equação para cálculo do escore e a definição do ponto de corte. A primeira consiste em uma busca por relações entre as variáveis cadastrais e de comportamento do cliente, variáveis da operação e o risco de crédito caracterizado pela inadimplência. A segunda indica o ponto em que o risco deixa de ser interessante e o resultado esperado da operação passa a ser negativo. Ambas as etapas são descritas com detalhes e exemplificadas no caso de empréstimos pessoais no Brasil. A comparação entre as duas metodologias, regressão linear e regressão probit, realizada no caso de empréstimos pessoais, considerou dois aspectos principais dos modelos desenvolvidos, a performance estatística medida pelo indicador K-S e o resultado incremental gerado pela aplicação do modelo. Foram obtidos resultados similares com ambas as metodologias, o que leva à conclusão de que a discussão de qual das duas metodologias utilizar é secundária e que se deve tratar a gestão do modelo com maior profundidade.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O objetivo fundamental desta dissertação foi desenvolver modelos de estimativa da radiação solar no intuito de complementar a base de dados visando o traçado de mapas de radiação solar para o Rio Grande do Sul. Inicialmente foi realizada uma pesquisa na literatura sobre as metodologias desenvolvidas para a estimativa da radiação solar para locais onde inexistem dados medidos desta variável. Foi feito um levantamento das técnicas estatísticas utilizadas na previsão de valores de variáveis. As metodologias pesquisadas foram aplicadas ao banco de dados SAMSON (Solar and Meteorological Surface Observational Network). Entre as variáveis deste banco de dados estão a radiação solar, a umidade relativa, a temperatura, a latitude, a altitude e a nebulosidade. A metodologia dos modelos de estimativa aplicada neste trabalho baseia-se no Método dos Mínimos Quadrados. Foram realizadas correlações mensais e anuais entre as variáveis acima citadas e seus resultados validados através de validação cruzada. Resultou apropriada, na disponibilidade de dados climatológicos, a aplicação de modelos com parâmetros mensais de regressão linear múltipla envolvendo as variáveis explicativas: insolação, temperatura média e umidade relativa. Este modelo, entre outros, foi aplicado aos dados do Rio Grande do Sul. A metodologia acima descrita aplicada aos dados medidos no Rio Grande do Sul, resultou eficaz. Foram pesquisadas técnicas de interpolação para traçado de mapas e estabelecidas regras para o traçado dos mesmos. Foram utilizados dados periféricos para a Argentina, Uruguai e Santa Catarina. Foram feitos mapas mensais de médias mensais de radiação solar global horizontal diária bem como um mapa da média anual de radiação solar global horizontal diária. Observou-se que o modelo de Ångström–Prescott apresenta bons resultados quando se dispõe apenas da insolação Os mapas serão úteis para a pesquisa e implementação de sistemas empregando Energia Solar no Estado do Rio Grande do Sul. Finalmente, a principal conclusão é a de que modelos de correlações obtidos com dados de cada mês e produzindo parâmetros mensais são mais adequados do que um único modelo de correlação com parâmetros de validade anual utilizado nas estimativas mensais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A tecnologia de processos de desenvolvimento de software ´e uma importante área de estudo e pesquisas na Engenharia de Software que envolve a construção de ferramentas e ambientes para modelagem, execução, simulação e evolução de processos de desenvolvimento de software, conhecidos como PSEEs (do inglês: Process-Centered Software Engineering Environments). Um modelo de processo de software é uma estrutura complexa que relaciona elementos gerenciáveis (i.e. artefatos, agentes, e atividades) que constituem o processo de software. Esta complexidade, geralmente, dificulta a percepção e entendimento do processo por parte dos profissionais envolvidos, principalmente quando estes profissionais têm acesso apenas a uma visão geral do modelo. Desta forma, há necessidade de mecanismos para visualização e acompanhamento dos processos, fornecendo informações adequadas aos diferentes estados, abstraindo as informações relevantes tanto as fases presentes no processo de desenvolvimento quanto ao agente envolvido, além de facilitar a interação e o entendimento humano sobre os elementos do processo. Estudos afirmam que a maneira como são apresentadas as informações do modelo de processo pode influenciar no sucesso ou não do desenvolvimento do software, assim como facilitar a adoção da tecnologia pela indústria de software. Este trabalho visa contribuir nas pesquisas que buscam mecanismos e cientes para a visualização de processos de software apresentando a abordagem APSEE-Monitor destinada ao apoio a visualização de processos de software durante a sua execução. O principal objetivo desta pesquisa é apresentar um modelo formal de apoio a visualização de processos capaz de extrair dados de processos e organizá-los em sub-domínios de informações de interesse do gerente de processos. Neste trabalho aplica-se o conceito de múltiplas perspectivas como uma estratégia viável para a abstração e organização das informações presentes no modelo de processos. A solução proposta destaca-se por estender a definção original de perspectivas e fornecer uma estratégia de extração dos dados através de uma especificação formal utilizando o paradigma PROSOFT-Algébrico. Além disso, o trabalho apresenta um conjunto de requisitos relativos a interação entre gerentes de processos e PSEEs, a definição formal das perspectivas, uma gramática que define a linguagem de consulta aos processos, e um protótipo da aplicação.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O aumento na complexidade dos sistemas embarcados, compostos por partes de hardware e software, aliado às pressões do mercado que exige novos produtos em prazos cada vez menores, tem levado projetistas a considerar a possibilidade de construir sistemas a partir da integração de componentes já existentes e previamente validados. Esses componentes podem ter sido desenvolvidos por diferentes equipes ou por terceiros e muitas vezes são projetados utilizando diferentes metodologias, linguagens e/ou níveis de abstração. Essa heterogeneidade torna complexo o processo de integração e validação de componentes, que normalmente é realizado através de simulação. O presente trabalho especifica mecanismos genéricos e extensíveis que oferecem suporte à cooperação entre componentes heterogêneos em um ambiente de simulação distribuída, sem impor padrões proprietários para formatos de dados e para a descrição do comportamento e interface dos componentes. Esses mecanismos são baseados na arquitetura DCB (Distributed Co-Simulation Backbone), voltada para co-simulação distribuída e heterogênea e inspirada nos conceitos de federado (componente de simulação) e federação (conjunto de componentes) que são definidos pelo HLA (High Level Architecture), um padrão de interoperabilidade para simulações distribuídas. Para dar suporte à co-simulação distribuída e heterogênea, esse trabalho descreve mecanismos que são responsáveis pelas tarefas de cooperação e distribuição, chamados de embaixadores, assim como o mecanismo gateway, que é responsável pela interoperabilidade entre linguagens e conversão de tipos de dados. Também é apresentada uma ferramenta de suporte à geração das interfaces de co-simulação, que são constituídas de dois embaixadores configuráveis e um gateway para cada federado, gerado a partir de templates pré-definidos.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Os modelos computacionais SATURN e DRACULA avaliam o tráfego através de diferentes fundamentações teóricas. O SATURN é um modelo macroscópico de alocação de tráfego que incorpora uma estrutura mesoscópica de simulação de interseções. O DRACULA é um modelo microscópico de simulação de tráfego: reproduz a progressão dos veículos através da rede, representando cada entidade individualmente. Ambos os modelos foram desenvolvidos no ITS – Institute for Transport Studies – da Universidade de Leeds, e permitem a troca de informações, podendo ser aplicados em conjunto. O presente trabalho de pesquisa compara as estruturas de simulação do SATURN e do DRACULA. O estudo confronta as fundamentações teóricas dos modelos, relacionando-as com a aplicação prática. São avaliados os dados de entrada, os parâmetros de saída, e os processos particulares de estimação de parâmetros de cada modelo. Através de análises de sensibilidade, avalia-se o impacto da variação de dados de entrada nos parâmetros de saída. Em um estudo de caso, avalia-se a aplicação conjunta dos modelos, ao replicarem o mesmo cenário. O estudo identifica divergências e afinidades na conceituação e no tratamento de parâmetros de entrada e saída tais como dados de descrição de rede e demanda, atrasos, velocidades, tempos de viagem, e capacidade viária. Por fim, o estudo propõe recomendações sobre a implementação prática dos modelos, especialmente quando utilizados em conjunto.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Existem vários trabalhos na área de extração de dados semi-estruturados, usando diferentes técnicas. As soluções de extração disponibilizadas pelos trabalhos existentes são direcionadas para atenderem a dados de certos domínios, considerando-se domínio o conjunto de elementos pertencentes à mesma área de interesse. Dada a complexidade e a grande quantidade dos dados semi-estruturados, principalmente dos disponíveis na World Wide Web (WWW), é que existem ainda muitos domínios a serem explorados. A maior parte das informações disponíveis em sites da Web está em páginas HTML. Muitas dessas páginas contêm dados de certos domínios (por exemplo, remédios). Em alguns casos, sites de organizações diferentes apresentam dados referentes a um mesmo domínio (por exemplo, farmácias diferentes oferecem remédios). O conhecimento de um determinado domínio, expresso em um modelo conceitual, serve para definir a estrutura de um documento. Nesta pesquisa, são consideradas exclusivamente tabelas de páginas HTML. A razão de se trabalhar somente com tabelas está baseada no fato de que parte dos dados de páginas HTML encontra-se nelas, e, como conseqüência, elimina-se o processamento dos outros dados, concentrando-se os esforços para que sejam processadas automaticamente. A pesquisa aborda o tratamento exclusivo de tabelas de páginas HTML na geração das regras de extração, na utilização das regras e do modelo conceitual para o reconhecimento de dados em páginas semelhantes. Para essa técnica, foi implementado o protótipo de uma ferramenta visual denominado Gerador de Regras de Extração e Modelo Conceitual (GREMO). GREMO foi desenvolvido em linguagem de programação visual Delphi 6.0. O processo de extração ocorre em quatro etapas: identificação e análise das tabelas de informações úteis em páginas HTML; identificação de conceitos para os elementos dos modelos conceituais; geração dos modelos conceituais correspondentes à página, ou utilização de modelo conceitual existente no repositório que satisfaça a página em questão; construção das regras de extração, extração dos dados da página, geração de arquivo XML correspondente aos dados extraídos e, finalmente, realimentação do repositório. A pesquisa apresenta as técnicas para geração e extração de dados semi-estruturados, as representações de domínio exclusivo de tabelas de páginas HTML por meio de modelo conceitual, as formas de geração e uso das regras de extração e de modelo conceitual.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Dois experimentos e um levantamento por amostragem foram analisados no contexto de dados espaciais. Os experimentos foram delineados em blocos completos casualizados sendo que no experimento um (EXP 1) foram avaliados oito cultivares de trevo branco, sendo estudadas as variáveis Matéria Seca Total (MST) e Matéria Seca de Gramíneas (MSGRAM) e no experimento dois (EXP 2) 20 cultivares de espécies forrageiras, onde foi estudada a variável Percentagem de Implantação (%IMPL). As variáveis foram analisadas no contexto de modelos mistos, sendo modelada a variabilidade espacial através de semivariogramas exponencias, esféricos e gaussianos. Verificou-se uma diminuição em média de 19% e 14% do Coeficiente de Variação (CV) das medias dos cultivares, e uma diminuição em média de 24,6% e 33,3% nos erros padrões dos contrastes ortogonais propostos em MST e MSGRAM. No levantamento por amostragem, estudou-se a associação espacial em Aristida laevis (Nees) Kunth , Paspalum notatum Fl e Demodium incanum DC, amostrados em uma transecção fixa de quadros contiguos, a quatro tamanhos de unidades amostrais (0,1x0,1m; 0,1x0,3m; 0,1x0,5m; e 0,1x1,0m). Nas espécies Aristida laevis (Nees) Kunth e Paspalum notatum Fl, existiu um bom ajuste dos semivariogramas a tamanhos menores das unidades amostrais, diminuíndo quando a unidade amostral foi maior. Desmodium incanum DC apresentou comportamento contrario, ajustando melhor os semivariogramas a tamanhos maiores das unidades amostrais.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Este estudo apresenta uma análise comparativa dos modelos de regulação dos setores nucleares da Argentina - a cargo da Autoridad Regulatoria Nuclear (ARN), e do Brasil- sob a responsabilidade da Comissão Nacional de Energia Nuclear (CNEN), que procura identificar, por meio de critérios de análise selecionados a partir do referencial teórico, qual modelo é o mais adequado objetivando o uso seguro da energia nuclear. O Capítulo I apresenta uma breve descrição dos modelos de regulação dos setores nucleares do Brasil e da Argentina, bem como os objetivos, a delimitação do estudo e a relevância da pesquisa. O referencial teórico, Capítulo 2, contém tópicos sobre a reforma do Estado, os tipos de regulação, a regulação no Brasil e as características do setor nuclear internacional e brasileiro. A seguir, foram selecionados critérios de análise que correspondem às características das agências reguladoras brasileiras criadas para outros setores da economia, no bojo da reforma de Estado implementada no Brasil a partir de meados dos anos 90. Posteriormente, estes critérios de análise foram utilizados como parâmetros de comparação entre os modelos de regulação dos setores nucleares da Argentina e do Brasil. A metodologia de pesquisa é descrita no Capítulo 3, definindo-se o tipo de pesquisa, o universo e a amostra, a forma de coleta e tratamento dos dados e as limitações do método empregado. No Capítulo 4 é descrito o modelo de regulação do setor nuclear argentino, apresentando-se também um breve histórico sobre a criação da ARN. O Capítulo 5 apresenta a descrição do modelo de regulação do setor nuclear brasileiro, os estudos e recomendações existentes sobre a regulação do setor e os resultados da pesquisa empírica realizada junto aos servidores da CNEN. Com base na análise comparativa, Capítulo 6, pode-se concluir, Capítulo 7, que a estrutura regulatória e fiscalizadora do setor nuclear argentino, sob responsabilidade da ARN, mostra-se mais adequada no que tange ao uso seguro da energia nuclear, do que o modelo adotado no Brasil pela CNEN, pois incorpora os critérios de independência funcional, institucional e financeira, definição de competências, excelência técnica e transparência, necessários ao desempenho de suas funções de forma autônoma, ética, isenta e ágil.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O bom dimensionamento de equipes contribui para o aumento do nível dos serviços prestados pelas empresas, com o menor custo possível. Uma alternativa para abordar a questão foi dimensionar as equipes de eletricistas, de uma empresa do setor elétrico, (utilizando técnicas de previsão de demanda, de simulação e de alocação) para atender de forma otimizada, a demanda variável das atividades prestadas - fornecimento de energia. Um equilíbrio entre a demanda por serviços e a capacidade de execução da empresa evitaria longas filas de espera dos clientes e servidores (eletricistas) ociosos. Cinco etapas forma cumpridas: fase exploratória, coleta de dados, previsão de demanda e simulação do processo e alocação do recurso. Na primeira houve um entendimento de como chegava o pedido do serviço na empresa até a finalização da ordem de serviço. Na coleta de dados foram levantados aproximadamente 80 tipos diferentes de atividades desenvolvidas pelos eletricistas e classificadas de acordo com a prioridade de urgência, prazos de atendimento dos serviços e afinidade de execução das tarefas. Nesta etapa ainda foram coletados os volumes de serviços gerados e tempos médios de deslocamento e execução das atividades. Na terceira etapa foi utilizado um software de previsão de demanda chamado Forecast Pro, possibilitando a escolha automática do modelo de previsão mais apropriado para a série histórica em estudo. Na quarta etapa, foi utilizado um software de simulação de processos chamado Arena. Desenvolveu-se um modelo do processo real com os respectivos dados de entrada dos serviços, tempos de deslocamento e execução e número de equipes. Na última etapa, utilizando a ferramenta Solver do Excel otimizou-se o número de equipes. Um dos resultados da ação foi obter vários cenários com a variação do número de equipes e seus respectivos tempos médios de atendimento, sem causar nenhum dano para a empresa, podendo assim ser analisado qual o melhor cenário para ser implementado na companhia, minimizando o problema.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

As atividades dos Institutos de Pesquisa são a Pesquisa, o Desenvolvimento e a Inovação (PD&I), onde as tecnologias, produtos e serviços, constituem-se no produto final a ser disponibilizado à sociedade. No setor florestal, isto é bem marcante nos Institutos de Pesquisa Mistos que, ao contrário dos Institutos Públicos de Pesquisa, tem suas atividades de pesquisa e desenvolvimento direcionadas prioritariamente a solução de problemas imediatos dos sistemas de produção de madeira e o aumento da produtividade dos povoamentos florestais, para o atendimento das empresas associadas. Com o objetivo de identificar as possíveis diferenças nos modelos de geração, difusão e transferência de tecnologia dos IPPs e IPMs e qual o modelo atualmente em uso por esses institutos é que o presente estudo foi idealizado e implementado. Com o apoio de uma survey em uma fase inicial, foi construído um estudo de casos envolvendo os institutos de pesquisas florestais mais demandados pelos clientes/usuários dos IPPs e IPMs e realizada uma análise comparativa entre IPPs e IPMs, atuando na região Sul. A survey foi utilizada para viabilizar conhecer os clientes/usuários dos IPPs e IPMs. Em uma segunda fase, a principal da pesquisa, com a utilização da metodologia de estudo de casos, apoiada nos resultados da survey, foram coletados dados junto aos IPPs e IPMs para o conhecimento do processo de geração, difusão e transferência de tecnologia desses institutos e, dessa forma, conhecer os diferentes modelos de transferência de tecnologia, atualmente em uso pelos IPPs e IPMs. Foram considerados no estudo as questões pertinentes, levando em conta as características percebidas com a inovação, a existência ou não de ações colaborativas para a realização de PD&I, a sustentabilidade ambiental das pesquisas e a influência e ação dos stakeholders e do Sistema Nacional de Inovação neste processo. Os resultados alcançados demonstraram a existência de uma postura mais competitiva que colaborativa, tanto entre os usuários das pesquisas como no relacionamento entre os próprios institutos de pesquisa. Outro resultado interessante foi à identificação, na opinião desses usuários de um grau de satisfação maior em relação aos IPPs que aos IPMs, fato que surpreende pela própria característica da relação entre os IPMs e seus associados. A análise conjunta do Sistema Nacional de Inovação permitiu concluir que, instituição importante desse sistema tem atuado mais de uma forma limitadora que facilitadora das ações dos IPPs e IPMs, principalmente nos aspectos regulatórios e fiscalizadores da atividade florestal, em detrimento de ações estimuladoras em prol do desenvolvimento econômico, social e do agronegócio florestal da região Sul, resultados que também levam a concluir a influência do SNI no direcionamento do modelo de pesquisa desses institutos mais para um modelo mercadológico que tecnológico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Em cenários de produção baseados na flexibilidade de catálogo, uma grande variedade de modelos de produtos é demandada pelos consumidores. Essa condição exige uma rápida adequação dos meios produtivos às especificações do próximo modelo a ser produzido. Tal situação, contudo, pode acarretar perdas consideráveis em relação aos níveis de produção e qualidade, em decorrência da pouca habilidade dos trabalhadores nos ciclos iniciais de produção de um novo modelo. Assim, a modelagem do processo de aprendizado de trabalhadores atuando sobre cada modelo de produto pode auxiliar a gerência na alocação de modelos de produtos a equipes de trabalhadores, minimizando as perdas verificadas nos primeiros ciclos de produção. Esta dissertação propõe uma metodologia baseada na utilização de curvas de aprendizado como balizadoras da alocação de modelos de produtos a equipes de trabalhadores. Os diversos modelos de produtos são agrupados em famílias de acordo com suas características similares, permitindo uma redução na coleta de dados. A alocação das famílias às equipes é realizada através da análise das curvas de aprendizado. Duas formas de alocação são apresentadas, de acordo com a duração da corrida de produção. A metodologia proposta é ilustrada através de um estudo de caso em uma indústria do setor calçadista.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A teoria tradicional de Tobin (1958) sugere que todos os investidores possuem o mesmo portfólio de ativos arriscados, chamado de portfólio de mercado. A proporção entre esse ativo arriscado e o livre de risco dentro de cada portfólio dependeria apenas do grau de aversão a risco de cada agente. No entanto, as imperfeições existentes no mercado de capitais, permitem que a heterogeneidade dos agentes econômicos influencie nas suas alocações de portfólio. Este trabalho avalia o efeito de características econômicas e sócio-demográficas dos investidores de fundos administrados pelo BNY Mellon Serviços Financeiros em sua inclinação a tomar posições em fundos agressivos. Através da análise do conjunto de resultados observados através de três diferentes modelos econométricos, concluiu-se que a evidência empírica para a realidade brasileira, vai, em boa parte, ao encontro da teoria econômica sobre a alocação ótima de portfólio.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

o trabalho se refere à avaliação de opções através do modelo conhecido pelo nome de seus autores, Black-Scholes. É descrito o desenvolvimento da teoria de opções, desde os primórdios da existência de mercados organizados deste derivativo, no século XVII, até os mais importantes trabalhos dos primeiros anos da década de 1990. É destacado o papel fundamental da estimação correta dos parâmetros a serem inseridos no modelo de avaliação. Após esta revisão, um teste do modelo Black-Scholes é realizado no mercado de opções sobre ouro da BM&F, utilizando-se mecanismos tradicionais de estimação dos parâmetros e apurando-se a diferença existente entre o valor dado pelo modelo de avaliação e o observado no mercado. Novos mecanismos de apuração dos parâmetros fundamentais, volatilidade e taxa de juros, são propostos, baseados no comportamento das séries históricas a eles referentes. A análise deste comportamento mostra a adequação destas séries à uma classe de modelos econométricos conhecidos como ARCH - Autorregressive Conditiona! Heterocedasticity Mode! . Três novos testes do modelo Black-Scholes no mercado de opções são realizados: o primeiro usando a volatilidade estimada através de um modelo ARCH(1) e a taxa de juros estimada de forma tradicional, o segundo usando a taxa de juros estimada através de um modelo ARCH-M(1) e a volatilidade estimada de forma tradicional e, finalmente, o terceiro, usando a volatilidade estimada através de um modelo ARCH(1) e a taxa de juros estimada através de um modelo ARCH-M(1). As diferenças, nos três casos, entre os valores dados pelo modelo Black-Scholes e os observados no mercado, foram computadas. Os resultados indicaram que o uso da volatilidade estimada através do modelo ARCH(1) melhora a performance do modelo Black-Scholes, perfomance esta medida pelo erro quadrático médio entre os valores dados pelo modelo e os observados no mercado. O mesmo não ocorreu com a utilização da taxa de juros estimada pelo modelo ARCH-M(1), apesar da compatibilidade teórica apresentada entre a série temporal destas taxas e o modelo. O autor acredita que este resultado seja devido à problemas encontrados na estimação dos parâmetros deste modelo ARCH-M(1). Também a inserção conjunta dos dois parâmetros estimados através dos modelos da classe ARCH não foi frutífera, ainda em função dos problemas de estimação dos modelos referentes à taxa de juros. As conclusões básicas do trabalho indicam que as série temporais em estudo são modeláveis e que os modelos da classe ARCH se apresentam como promissores para este fim, ao menos no que tange à volatilidade.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O projeto de sistemas intrachip (SoCs) é uma atividade de alto grau de complexidade, dados a dimensão de SoCs, na ordem do bilhão de transistores, os requisitos de tempo de desenvolvimento e de consumo de energia, entre outros fatores. A forma de dominar a complexidade de projeto de SoCs inclui dividir a funcionalidade do sistema em módulos de menor complexidade, denominados de núcleos de propriedade intelectual (núcleos IP), interligados por uma infra-estrutura de comunicação. Enquanto núcleos IP podem ser reusados de outros projetos ou adquiridos de terceiros, a infra-estrutura de comunicação deve sempre ser desenvolvida de forma personalizada para cada SoC. O presente trabalho volta-se para o projeto de infraestruturas de comunicação eficientes. Questões importantes neste contexto são a eficiência da comunicação, refletida e.g. em medidas de vazão e latência, a redução de área de silício para implementar a comunicação, e a redução da energia consumida na comunicação. Estas questões dependem da escolha da infra-estrutura de comunicação. Barramentos são as infra-estruturas mais usadas nas comunicações intrachip, mas têm sido consideradas como pouco adequadas para servir a necessidade de comunicação de SoCs futuros. Redes intrachip vêm emergindo como um possível melhor candidato. Nesta infra-estrutura de comunicação, um problema a ser resolvido é o posicionamento relativo de núcleos IP dentro da rede, visando otimizar desempenho e reduzir o consumo de energia, no que se denomina aqui problema de mapeamento. Dada a complexidade deste problema, considera-se fundamental dispor de modelos para capturar as características da infra-estrutura de comunicação, bem como da aplicação que a emprega A principal contribuição deste trabalho é propor e avaliar um conjunto de modelos de computação voltados para a solução do problema de mapeamento de núcleos de propriedade intelectual sobre uma infra-estrutura de comunicação. Três modelos são propostos (CDM, CDCM e ECWM) e comparados, entre si e com três outros disponíveis na literatura (CWM, CTM e ACPM). Embora os modelos sejam genéricos, os estudos de caso restringem-se aqui a infra-estruturas de comunicação do tipo rede intrachip. Dada a diversidade de modelos de mapeamento, propõe-se uma segunda contribuição, o metamodelo Quantidade, Ordem, Dependência (QOD), que relaciona modelos de mapeamento usando os critérios expressos na denominação QOD. Considerando o alto grau de abstração dos modelos empregados, julga-se necessário prover uma conexão com níveis inferiores da hierarquia de projeto. Neste sentido, uma terceira contribuição original do presente trabalho é a proposta de modelos de consumo de energia e tempo de comunicação para redes intrachip. Visando demonstrar a validade de todos os modelos propostos, foram desenvolvidos métodos de uso destes na solução do problema de mapeamento, o que constitui uma quarta contribuição. Estes métodos incluem algoritmos de mapeamento, estimativas de tempo de execução, consumo de energia e caminhos críticos em infra-estruturas de comunicação. Como quinta contribuição, propõe-se o framework CAFES, que integra os métodos desenvolvidos e os modelos de mapeamento em algoritmos computacionais. Uma última contribuição do presente trabalho é um método habilitando a estimativa de consumo de energia para infra-estruturas de comunicação e sua implementação como uma ferramenta computacional.