984 resultados para Método das transformações lineares


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O trabalho realiza uma investigação empírica sobre impacto do microcrédito produtivo orientadode um banco comercial privado, sobre renda disponível no domicílio de microempreendedores. O objeto de estudo foram os clientes da Real Microcrédito, uma empresa resultante da parceria entre o Banco Real, terceiro maior banco privado brasileiro, e a ONG Acción International,organização não-governamental com foco em microfinanças. Foram analisados 22.994 contratos de concessão de microcrédito, correspondendo a um total de 20.628 clientes do período de agosto de 2004 a abril de 2007, dos quais 2.366 possuíam duas ou mais tomadas de crédito. A variável dependente adotada para análise do impacto da renda do domicílio foi vendas médias. Utilizando a técnica de modelos hierárquicos lineares (HLM) para analisar os dados de evolução do indivíduo ao longo do tempo não foi possível concluir que os indivíduos apresentam mudanças nas suas vendas médias ao longo do tempo, pois não foi possível afirmar com significância estatística que há mudanças nas trajetórias das vendas médias para o conjunto de tomadores no período analisado. Analisando-se as diferenças entre os indivíduos foi possível concluir que a variável gênero feminino está associada ao aumento de renda do indivíduo participante do programa. No caso das demais variáveis analisadas no segundo nível (grupo solidário, localização geográfica e atividade econômica) não foi possível identificar mudanças da renda estatisticamente significativas explicadas por elas. A tese apresenta duas contribuições para o avanço do conhecimento no campo de microfinanças. A primeira é uma contribuição metodológica: o uso de modelos Hierárquicos Linerares para análise de impacto de microcrédito. Esta metodologia, inovadora, supera diversos problemas existentes nas metodologias tradicionais de avaliação de impacto, tais como a definiçãode grupos de controle e possibilidade de diversos prazos de entrada no programa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O tema proposto para esta pesquisa tem como objetivo analisar os efeitos no mecanismo de formação de preços em um mercado digital decorrentes da adoção por parte de seus integrantes de agentes de software inteligentes que participem no processo decisório de compra e venda sob diferentes estratégias de negociação. Para tanto é realizado um estudo por simulação em computador da introdução em um mercado digital de participantes que utilizem tais recursos e mede-se o efeito de tal procedimento no preço de mercado decorrente das estratégias adotadas pelos diferentes agentes. A evolução tecnológica da informática nos últimos 30 anos foi enorme, sendo a forma mais visível o aumento da potência dos computadores e das possibilidades de interconexão dos mesmos. Por outro lado o ambiente de negócios caminhou em paralelo com este aumento, tendo contribuido para este desenvolvimento a rápida globalização dos mercados que comecou a ser sentida na década de 80 e hoje é vivenciada com todo o seu vigor pelas empresas em geral. Criou-se na verdade um ambiente em que demandas de negócio originadas pela globalização eram transferidas para as empresas provedoras de tecnologia, as quais por sua vez respondiam a este "drive" de negócios com inovações que permitiam as empresas incrementar seus resultados. Esta evolução sempre ocorreu através de transformações nos processos internos das empresas. No entanto, as facilidades de conexão dos sistemas, que a princípio serviram para interligar ilhas dentro das corporações, atingiram um nível tal de utilização que permitiram a interconexão rápida, barata e universal de todas ( ou quase todas ) as empresas em um ambiente comum. Neste momento cruzou-se um barreira qualitativa, pois os sistemas de informática deixaram de apenas melhorar a execução dos processos de negócios, passando a altera-los. A combinação destes fatores, gerou na verdade um novo segmento industrial, o das empresas e mercados virtuais, que ao interagir com os segmentos tradicionais, altera-os gerando oportunidades de negócio antes não existentes. Por terem se originado de transformações na economia tradicional, possuem elementos em comum, porém por representarem uma forma radicalmente nova de realizar negócios, possuem fatores com pesos diferentes ou até mesmo exclusivos. Um dos fatores que se apresentam como novos neste contexto é o da possibilidade de utilização em larga escala de agentes de software inteligentes os quais auxiliam e até mesmo realizam o processo de tomada de decisão de compra e venda. A análise dos efeitos destes fatores através de um modelo de simulação é o tema que será exposto no trabalho a seguir. Para tanto será apresentado um histórico da evolução tecnológica que proporcionou o surgimento dos mercados virtuais e como esta evolução afetou conceitos tradicionais de mercado. Em seguida serão apresentadas as bases de avaliação de um mercado digital. Em termos de pesquisa de campo, serão conduzidas análises de estudo de caso envolvendo empresas de um determinado setor industrial que esteja utilizando este conceito de mercado, de modo a determinar como os agentes de e-commerce estão sendo utilizados. Estes dois estudos ( teórico e de campo ) serão por último combinados em um modelo que servirá de base para a avaliação da existência ou não de efeitos no preço em um mercado digital. O método de avaliação do modelo será o da simulação. Espera-se com isto determinar se a adoção de diferentes estratégias de negociação por parte dos agentes tem ou não um efeito na formação do preço em tal tipo de mercado, bem como propor recomendações quanto ao uso de tais dispositivos em um determinado segmento de indústria.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A determinação e a mensuração da importância das principais fontes de vantagem competitiva, ainda é um tema em discussão na área de Estratégia. Uma linha de pesquisa, iniciada em meados dos anos 80, tem seu foco principal na determinação e quantificação da importância dos fatores que poderiam explicar as diferenças no desempenho de um grupo de empresas, utilizando a decomposição da variância dos valores do desempenho através das técnicas de Regressão Linear ou de Componentes de Variância. Nesta linha de pesquisa, desenvolveram-se uma série de trabalhos empíricos cujo propósito principal é quantificar, entre outros fatores, qual a importância do setor industrial em que a empresa atua, qual a importância do ano, qual a importância de se fazer parte de um grupo econômico e qual a importância dos fatores idiossincráticos da empresa na explicação do desempenho apresentado em determinados períodos. Dos resultados destes trabalhos surgiram discussões importantes sobre o papel da estratégia corporativa e sobre a importância relativa de tais fatores na determinação da vantagem competitiva. Este trabalho se insere nesta linha de pesquisa, cujo objetivo é, utilizando uma base de dados brasileira muito mais abrangente e completa que os estudos anteriores, quer nacionais e internacionais, primeiramente verificar se a realidade apontada nos estudos internacionais se assemelha à do Brasil. Em segundo lugar, contribuir com um refinamento teórico, refazendo estas análises utilizando modelos lineares mistos, mais apropriados para estes conjuntos de dados, que os modelos de componentes de variância. Em terceiro lugar, utilizando dois tipos de matriz de covariância, verifica se o desempenho de um determinado ano influi no desempenho dos anos imediatamente subseqüentes, verificando, assim, a possível existência de medidas repetidas para a variável ano. Finalmente, analisa se parte da variabilidade do desempenho das empresas brasileiras pode ser atribuído ao fato da empresa se localizar em determinada Unidade da Federação

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tradicional técnica de regressão logística, muito conhecida e utilizada em estudos médicos, permitia apenas a modelagem de variáveis-resposta binárias. A extensão do modelo logístico para variáveis-resposta multinominais ampliou em muito as áreas de aplicação de regressão logística. Na área de reconhecimento de padrões o modelo logístico multinominal recebeu a denominação de discriminação logística apresenta aparentes vantagens em relação a métodos convencionais de classificação. O método da máxima verossimilhança gaussiana, amplamente difundido e utilizado, necessita da estimação de um número muito grande de parâmetros, pois supõe que as distribuições subjacentes de cada classe sejam normais multivariadas. A discriminação logística por sua vez, não faz restrições quanto a forma funcional das variáveis, e o número de parâmetros do modelo é relativamente pequeno. Nesse estudo, os princípios da técnica de discriminação logística são apresentados detalhadamente, bem como aplicações práticas de classificação de imagens Landsat-TM e AVIRIS. Os procedimentos de discriminação logística e da máxima verossimilhança gaussiana foram comparados a partir de dados reais e simulados. Os resultados sugerem que a discriminação logística seja considerada como uma alternativa ao método da máximaverossimilhança gaussiana, principalmente quando os dados apresentarem desvios da normalidade.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O mundo do trabalho vem passando por alterações substanciais, notadamente em função do desenvolvimento da tecnologia, e, historicamente, a humanidade vem percebendo a redução da jornada de trabalho e o conseqüente aumento do tempo disponível. Nesse contexto, um importante campo de estudo é o lazer. No Brasil, ainda são relativamente poucos os estudos voltados a essa temática, o que oferece oportunidades de pesquisa, em especial aquelas voltadas ao entendimento dos fatores que influenciam o comportamento dos indivíduos em relação ao lazer. Um dos elementos principais na formação desse comportamento é o ciclo de vida familiar, que retrata os principais momentos da vida de um indivíduo, notadamente em relação à sua idade, sua situação familiar e sua condição laboral. No que se refere a lazer, um dos estágios do ciclo de vida familiar que parece representar uma forte ruptura de comportamento é o chamado Ninho Cheio I, quando o casal entra na paternidade. O presente trabalho objetiva compreender de que maneira o comportamento de lazer nesse estágio difere-se em relação ao estágio imediatamente anterior, bem como entender qual o significado de lazer para os indivíduos que se encontram nesse estágio. Para isso, foi realizada uma pesquisa de campo, exploratória, de caráter qualitativo, com uma amostra de 15 indivíduos casados com filhos pequenos e 4 casados mas sem filhos, todos ex-alunos de curso de Administração da Escola de Administração de Empresas de São Paulo da Fundação Getúlio Vargas (EAESP-FGV). Os resultados indicam que o ciclo de vida familiar representa, sim, um importante fator de formação do comportamento dos indivíduos em relação ao lazer. Para os indivíduos casados e com filhos pequenos, o lazer é, predominantemente, complementar, ou seja, constrangido pelos papéis de pai e mãe. Em comparação ao estágio anterior, há uma forte limitação das atividades externas e reforço das domiciliares. Além disso, há evidências de que a idade do filho exerce influência sobre o comportamento dos pais. Percebe-se que parte do lazer envolve o consumo de bens e serviços culturais ou de entretenimento e parte remete a praticas tradicionais como encontros dominicais familiares.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Fenômenos naturais, tecnológicos e industriais podem, em geral, ser modelados de modo acurado através de equações diferenciais parciais, definidas sobre domínios contínuos que necessitam ser discretizados para serem resolvidos. Dependendo do esquema de discretização utilizado, pode-se gerar sistemas de equações lineares. Esses sistemas são, de modo geral, esparsos e de grande porte, onde as incógnitas podem ser da ordem de milhares, ou até mesmo de milhões. Levando em consideração essas características, o emprego de métodos iterativos é o mais apropriado para a resolução dos sistemas gerados, devido principalmente a sua potencialidade quanto à otimização de armazenamento e eficiência computacional. Uma forma de incrementar o desempenho dos métodos iterativos é empregar uma técnica multigrid. Multigrid são uma classe de métodos que resolvem eficientemente um grande conjunto de equações algébricas através da aceleração da convergência de métodos iterativos. Considerando que a resolução de sistemas de equações de problemas realísticos pode requerer grande capacidade de processamento e de armazenamento, torna-se imprescindível o uso de ambientes computacionais de alto desempenho. Uma das abordagens encontradas na literatura técnica para a resolução de sistemas de equações em paralelo é aquela que emprega métodos de decomposição de domínio (MDDs). Os MDDs são baseados no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções obtidas em cada um dos subdomínios Assim, neste trabalho são disponibilizados diferentes métodos de resolução paralela baseado em decomposição de domínio, utilizando técnicas multigrid para a aceleração da solução de sistemas de equações lineares. Para cada método, são apresentados dois estudos de caso visando a validação das implementações. Os estudos de caso abordados são o problema da difusão de calor e o modelo de hidrodinâmica do modelo UnHIDRA. Os métodos implementados mostraram-se altamente paralelizáveis, apresentando bons ganhos de desempenho. Os métodos multigrid mostraram-se eficiente na aceleração dos métodos iterativos, já que métodos que utilizaram esta técnica apresentaram desempenho superior aos métodos que não utilizaram nenhum método de aceleração.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estudos anteriores mostraram que a técnica de redes neurais tem sido mais bem sucedida que os modelos tradicionais em vários assuntos relacionados ao mercado de debêntures, tais como modelar a probabilidade de default e em explicar os ratings de agências classificadoras de risco, como Standard & Poors e Moodys. O objetivo deste trabalho é testar a técnica de redes neurais para precificar debêntures no Brasil e comparar os resultados obtidos com regressões lineares. Para isso, utilizaram-se como variáveis explicativas dados contábeis, características específicas das emissões, tais como prazo para vencimento e cláusulas de recompra antecipada. Em relação às variáveis dependentes, optou-se por utilizar as taxas divulgadas diariamente pela ANDIMA como valor de mercado para as debêntures. As variáveis acima foram testadas em diversos modelos pelo método dos mínimos quadrados ordinários e o modelo que apresentou o melhor resultado foi testado em redes neurais com duas camadas intermediárias. Os resultados obtidos com redes neurais com seis e oito neurônios apresentaram resultados superiores aos modelos estimados por mínimos quadrados ordinários tanto na fase de treinamento como na fase de testes. No entanto, ainda há bastante espaço para melhorias nos modelos dado que o tamanho da base de dados disponível para este tipo de testes no Brasil ainda não é a ideal e as taxas divulgadas pela ANDIMA são médias de um grupo pequeno de instituições e não necessariamente refletem o valor de mercado de uma debênture.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo do trabalho é demonstrar que a otimização de uma carteira composta por fundos multimercados brasileiros gera melhores resultados quando a medida de risco utilizada é o Conditional Value-at-Risk. Modelos de otimização de carteira têm como objetivo selecionar ativos que maximizem o retorno do investidor para um determinado nível de risco. Assim, a definição de uma medida apropriada de risco é de fundamental importância para o processo de alocação. A metodologia tradicional de otimização de carteiras, desenvolvida por Markowitz, utiliza como medida de risco a variância dos retornos. Entretanto, a variância é uma medida apenas apropriada para casos em que os retornos são normalmente distribuídos ou em que os investidores possuem funções de utilidade quadrática. Porém, o trabalho mostra que os retornos dos fundos multimercados brasileiros tendem a não apresentar distribuição normal. Logo, para efetuar a otimização de uma carteira composta por fundos multimercados brasileiros é necessário utilizar uma medida de risco alternativa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo deste trabalho foi mostrar modelagens alternativas à tradicional maneira de se apurar o risco de mercado para ativos financeiros brasileiros. Procurou-se cobrir o máximo possível de fatores de risco existentes no Brasil; para tanto utilizamos as principais proxies para instrumentos de Renda Fixa. Em momentos de volatilidade, o gerenciamento de risco de mercado é bastante criticado por trabalhar dentro de modelagens fundamentadas na distribuição normal. Aqui reside a maior contribuição do VaR e também a maior crítica a ele. Adicionado a isso, temos um mercado caracterizado pela extrema iliquidez no mercado secundário até mesmo em certos tipos de títulos públicos federais. O primeiro passo foi fazer um levantamento da produção acadêmica sobre o tema, seja no Brasil ou no mundo. Para a nossa surpresa, pouco, no nosso país, tem se falado em distribuições estáveis aplicadas ao mercado financeiro, seja em gerenciamento de risco, precificação de opções ou administração de carteiras. Após essa etapa, passamos a seleção das variáveis a serem utilizadas buscando cobrir uma grande parte dos ativos financeiros brasileiros. Assim, deveríamos identificar a presença ou não da condição de normalidade para, aí sim, realizarmos as modelagens das medidas de risco, VaR e ES, para os ativos escolhidos, As condições teóricas e práticas estavam criadas: demanda de mercado (crítica ao método gausiano bastante difundido), ampla cobertura de ativos (apesar do eventual questionamento da liquidez), experiência acadêmica e conhecimento internacional (por meio de detalhado e criterioso estudo da produção sobre o tema nos principais meios). Analisou-se, desta forma, quatro principais abordagens para o cálculo de medidas de risco sendo elas coerentes (ES) ou não (VaR). É importante mencionar que se trata de um trabalho que poderá servir de insumo inicial para trabalhos mais grandiosos, por exemplo, aqueles que incorporarem vários ativos dentro de uma carteira de riscos lineares ou, até mesmo, para ativos que apresentem risco não-direcionais.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, apresentaremos uma solução analítica, aplicando o método da decomposição de Adomian, para as equações da cinética pontual para reatividade arbitrária, um sistema de equações diferenciais ordinárias do tipo "Stiff". Apresen- taremos, ainda, simulações numéricas para as reatividades do tipo constante, linear, senoidal e exponencial, bem como faremos comparações com resultados disponíveis na literatura.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A preocupação ambiental vem aumentando significativamente nos últimos anos. As legislações ambientais estão mais rigorosas e as pessoas estão exigindo produtos e processos com menor impacto ambiental. Neste contexto, surge a necessidade de avaliar os impactos ambientais na escolha entre processos industriais. Esta dissertação tem como finalidade propor um método para a escolha entre processos industriais, incluindo como critério a avaliação dos impactos ambientais. O método proposto foi aplicado em uma indústria do setor siderúrgico, para os processos de decapagem química e mecânica. Para isso, foram utilizados como bases teóricas o meio ambiente e o desenvolvimento sustentável, sistemas de gestão ambiental, impactos ambientais e o setor siderúrgico. Com a aplicação da ACV (Avaliação do Ciclo de Vida) do produto, constatou-se que o processo de decapagem química causa maiores danos ao meio ambiente quando comparado ao processo de decapagem mecânica. Para complementar este estudo, realizou-se uma análise multicriterial, utilizando-se o AHP (Processo Hierárquico Analítico) e considerando-se os critérios: problemas ambientais, custo, produtividade e qualidade final. Após a realização desta análise, verificou-se que o processo de decapagem que melhor atende ao conjunto de critérios pré-definidos é o processo de decapagem mecânica, com 73,96%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O armazenamento de grandes quantidades de informações em bases de dados cria a necessidade de se usar Métodos de Acesso a esses dados de uma forma mais eficiente do que uma busca linear. Dessa forma, diversos Métodos de Acesso vêm sendo propostos há décadas. Desde os mais simples Métodos de Acesso como árvores B até os mais sofisticados Métodos de Acesso Métrico tem-se o mesmo objetivo: a eficiência na consulta. Para cada tipo de dados, para cada tipo de consulta, existe uma diferente forma de acesso mais adequada. Se os dados puderem ser ordenados, pode-se usar uma àrvore B. Na busca por pequenas cadeias de caracteres, pode-se utilizar uma árvore de sufixos. Com a evoluçãocomputacional, não se quer armazenar apenas números ou pequenas seqüências de texto. Já existem diversas bases de dados muito mais complexas, como seqüências de sons, imagens ou até mesmo vídeos armazenados. A complexidade desse tipo de dados e do tipo de consulta feita em cima deles gerou a necessidade de novos Métodos de Acesso. Os chamados Métodos de Acesso Métrico são estruturas capazes de acessar dados bastante complexos, como arquivos multimídia, com uma boa eficiência. Esse tipo de estrutura vem sendo estudada há muitos anos, mas a primeira delas realmente eficaz foi a árvore M. Depois dela, vários outros Métodos de Acesso Métricos surgiram, como a árvore Slim, M2, M+, DF, DBM aprimorando sua estrutura básica Esse trabalho propõe a árvore TM, que inova a forma como os dados são indexados, aprimorando a árvore M. Essa nova estrutura, usa o espaço métrico para a busca dos dados, o que é feito por todos Métodos de Acesso Métricos. Mas sua inovação está na forma como os dados são indexados, usando-se um espaço novo também proposto nesse trabalho, o espaço distorcido. Experimentos mostram uma melhora significativa na eficiência da consulta tanto em quantidade de acesso a disco quando em custo de processamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O desenvolvimento de um método analítico para determinação de Mg, Ti e Cl emcatalisadores suportados Ziegler-Natta (ZN) por espectroscopia de fluorescência de raios Xcom dispersão em comprimento de onda (WDXRF) foi avaliado. Três famílias decatalisadores com distintos teores de Mg, Ti e Cl foram utilizados. Para fins de comparação,os analitos foram também determinados por métodos clássicos, a saber, Mg porcomplexometria com EDTA, Ti por espectrofotometria e Cl por argentimetria. A naturezahigroscópica desses catalisadores impossibilitou a análise direta por WDXRF. Melhoresresultados na preparação da amostra foram obtidos através da calcinação (1000 0C), seguida de mistura com aglomerante (H3BO3), na proporção 1:4, para a determinação da razãoMg/Ti. O estudo do efeito da pressão sobre a intensidade do sinal analítico de Mg e de Ti evidencioua necessidade de prensagem das amostras em pressões superiores a 200 MPa. No caso de Mg e Ti, a determinação por Parâmetros Fundamentais (FP), a partir da medida da linha espectral do Ti, forneceu resultados equivalentes àqueles obtidos porcalibração univariada e por métodos clássicos. No entanto, a utilização de FP a partir damedida da linha espectral do Mg mostrou-se inadequada, provavelmente, devido ao baixo valor do número atômico do Mg. Nas três famílias de catalisadores ZN a razão Mg/Tiobservada foi 0,44 ± 0,01; 1,8 ± 0,05 e 4,9 ± 0,02. A determinação de Cl foi estudada através de extração em meio aquoso, seguida pordeposição de um alíquota da solução sobre diferentes suportes (filmes finos) e posteriorevaporação do solvente. Foram avaliados os suportes papel filtro quantitativo, membranasMillipore FHLC Teflon®, de difluoreto de polivinilideno, celulose, Nylon®, fita Kapton®(poliamida) e Mylar® (poliéster). Devido à natureza do Cl, houve perdas do elemento químicopor volatilização, durante as medidas, possivelmente devido ao vácuo e aquecimento daamostra dentro da câmara de análise do equipamento. A tentativa de fixação do Cl comoAgCl, seguida por deposição sobre a membrana Millipore FHLC foi considerada adequada.No entanto, a média dos resultados obtidos por WDXRF mostrou-se inferior quando comparada ao método argentimétrico utilizado como referência, para um nível de certeza de95%.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O sistema produtivo orgânico está sujeito a uma série de variáveis, as quais afetam o processo decisório do gestor, pois indicam características e probabilidade de resultados, como em qualquer sistema. A necessidade de uma fundamentação informacional confiável e organizada, para auxiliar o gerenciamento da produção orgânica, foi o fato gerador dessa pesquisa. Assim, por exemplo, para definir qual variedade convém plantar, é preciso conhecer o solo, o clima, a capacidade de liberação de nutrientes, etc, a fim de escolher a varietal mais adequada às condições específicas do local e obter a melhor produtividade possível. A produção orgânica busca interagir, convivendo com a heterogeneidade encontrada no ecossistema, evitando fortes impactos ambientais, embora aumentando o número de variáveis, se comparado à produção industrial. Através do método ABC – custeio baseado em atividades, foram planificadas e analisadas as atividades do sistema produtivo de alface orgânica na empresa Porto Verde, responsável por produção e comercialização de verduras orgânicas. Para implantar o método ABC no sistema estudado, foi desenvolvido e testado um modelo de aplicação do ABC na produção de alface orgânica, de modo que em casos semelhantes possa ser repetida a pesquisa. A análise dos dados permitiu quantificar comparações entre cultivos, onde conhecimento dos defeitos e vantagens de cada um auxiliam o gestor no processo decisório. Comparativamente é possível identificar aprimoramentos a serem feitos nos mais diversos cultivos, que possuem suas características distintas. Isto se explica, não apenas no nível operacional de remediar situações ainda durante o cultivo, como também no nível estratégico, subsidiando o planejamento de futuros cultivos.