1000 resultados para Modelagem estrutural
Resumo:
Este trabalho é uma pesquisa exploratória da experiência brasileira de transferências intergovernamentais de recursos, com o objetivo de identificar perspectivas de inovação no federalismo, que colaborem para o desenvolvimento humano no Brasil, num processo nacional, acelerado, contínuo e sustentado. Analisa a legislação de transferências tributárias a municípios no Brasil, aplicando a Teoria do Agenciamento (relação "Principal X Agente"), visando a articulação de uma rede complexa de relações ("contratos"), formada pelas três esferas de governo e mais a sociedade (setor privado, terceiro setor e cidadão individual), em que todos os participantes têm interesses distintos, muitas vezes contraditórios. Sintetiza uma modelagem das transferências intergovernamentais de recursos, capaz de induzir a convergência dos interesses dos participantes daquela rede complexa de relações para o objetivo comum do desenvolvimento, designada como "Tipo Ótimo de Indução". Finalmente, formula diretrizes para a revisão da sistemática de transferências de recursos no Brasil, recomendando a adoção de uma "cesta de critérios" e de "condições de acompanhamento e controle"
Resumo:
O objetivo geral deste trabalho é desenvolver estudos relacionados à dispersão de poluentes, considerando a queima de carvão para geração de energia nas Usinas Termoelétricas de Charqueadas e São Jerônimo. O período de estudo foi do dia 17 a 23 de junho de 2003. Neste período houve a passagem de um sistema frontal. Sendo possível avaliar a dispersão dos poluentes em condições pré-frontal, frontal e pós-frontal. Para simular o comportamento dos poluentes neste período, foi utilizada uma subrotina de dispersão acoplada ao modelo RAMS (Regional Atmospheric Modeling System). Os resultados mostraram que nos dias classificados como pré-frontal e pós-frontal as concentrações do material particulado, dióxido de enxofre e do óxido de nitrogênio, atingiram seus valores máximos, pelo fato da umidade relativa do ar estar bastante baixa em torno de 60%, pressão atmosférica da ordem de 1021 hPa e a intensidade dos ventos fraca. No dia classificado como frontal, as concentrações estavam praticamente nulas, devido à passagem do sistema frontal que causou a queda na pressão atmosférica, aumento da umidade relativa e também pelo fato da ocorrência de precipitação atmosférica neste dia. As comparações dos resultados simulados, com os dados observados na estação de qualidade do ar mostraram-se satisfatórios. Com exceção do dia 22 de junho, que apresentou uma diferença da ordem de 90%.
Resumo:
O objetivo desta dissertação é o estudo da utilização da modelagem quantitativa para apoio às decisões na gestão de operações. Através da apresentação de casos práticos (Sadia, AMO e Philips), conclui-se que a aplicação dos conceitos de Pesquisa Operacional, além de auxiliar significativamente nas tomadas de decisões na produção, pode levar a excelentes resultados financeiros para uma empresa.
Resumo:
Trata da análise das principais ferramentas quantitativas para a tomada de decisão e análise de investimentos, em particular de análise por árvore de decisão e teoria de precificação de opções aplicada a casos de investimentos em ativos não financeiros. Mostra as vantagens e desvantagens de cada metodologia, em especial as limitações de aplicação prática da TPO. Propõe uma metodologia para calcular o valor das "opções reais" utilizando árvores de decisão
Resumo:
A Dinâmica dos Sistemas vem expandindo seu leque de aplicações por diversas áreas do conhecimento humano, dentre as quais está a Administração de Empresas. Este trabalho mostra que esta disciplina pode ser utilizada como uma ferramenta que fornece subsídios para negociações post mortem de projetos de grande porte. Dentro deste âmbito, o ponto principal é avaliar qual foi a influência do comportamento do cliente no resultado final do projeto. Interferências do tipo: ingerência nas decisões de projeto, alterações de escopo, atraso na aprovação de documentos e solicitações para que sejam realizadas atividades adicionais não diretamente relacionadas ao projeto podem contribuir para o aumento do prazo e do custo de realização de um empreendimento. A abordagem deste problema através da Dinâmica dos Sistemas fornece a possibilidade de criar modelos de simulação em que possam ser incorporados fatores importantes, porém subjetivos, que contribuem para o entendimento do projeto como o moral da equipe de engenharia e a confiança do cliente na empresa contratada. Este trabalho traz uma parte teórica que é fruto da pesquisa sobre a ' literatura existente nesta área específica de aplicação. Nela são explicados os ciclos de paralelismo, de retrabalho e de interferência do cliente. Na segunda parte, um caso real de um projeto de engenharia é apresentado e modelado. Os resultados são então analisados de forma a fornecer informações confiáveis sobre atraso e custos adicionais de responsabilidade do cliente. Estes dados são a base para a elaboração pela contratada de um documento pleiteando compensação pela interferência do cliente. Esta abordagem por Dinâmica dos Sistemas é pouco conhecida e ainda pode ser bastante explorada
Resumo:
Trata do problema da seleção de Sistemas Integrados, ou ERP (Enterprise Resource Systems), investigando o processo especificamente sob o ponto de vista da Análise de Decisões. Procura analisar a associação entre a satisfação tanto com o Sistema Integrado selecionado quanto com a forma em que foi estruturado o próprio processo de seleção, com variáveis especificamente selecionadas para tal, representativas, entre outros, de grupos de critérios de decisão e características específicas do processo de seleção, relacionadas, estas últimas, a questões como o tratamento dado ao fator risco e ao possível caráter coletivo da decisão. Questiona a possibilidade de modelagem do processo de seleção de Sistemas Integrados, a partir da proposta normativa oferecida pela Teoria da Utilidade, e da suposta existência de um gap ou distância entre esta proposta e a prática naquele processo de seleção. Propõe um modelo mental genérico que procura explicar o modo como os agentes decisórios abordam o problema de seleção de sistemas integrados. Apresenta e propõe um modelo dinâmico que justificaria a existência do gap acima mencionado a partir da incapacidade do modelo mental genérico em apreender toda a complexidade inerente ao problema de seleção de sistemas integrados.
Resumo:
A popularização da Internet e o crescimento da educação à distância tornaram possível a criação de softwares e cursos à distância, disponíveis na WWW. Atualmente, a Inteligência Artificial (IA) vem sendo utilizada para aumentar a capacidade de ambientes de educação à distância, diminuindo a desistência pela falta de estímulos externos e de interação entre colegas e professores. Este trabalho encontra-se inserido no ambiente colaborativo suportado por computador, definido no projeto “Uma Proposta de Modelo Computacional de Aprendizagem à Distância Baseada na Concepção Sócio-Interacionista de Vygotsky” chamado MACES (Multiagent Architecture for an Collaborative Educational System). Sua principal proposta, como parte do projeto do grupo, é desenvolver e implementar a interface animada do personagem para os agentes pedagógicos animados Colaborativo e Mediador que operam no ambiente de aprendizado colaborativo proposto pelo grupo. O personagem desenvolvido chama-se PAT (Pedagogical and Affective Tutor). A interface do personagem foi desenvolvida em Java, JavaScript e usa o Microsoft Agent para a movimentação. O Resin 2.1.6 (semelhante ao Tomcat que também foi usado de teste) é o compilador de servlet usado na execução de Java Servlet’s e tecnologias jsp – que monta páginas HTML dinamicamente. Esta montagem é feita no servidor e enviada para o browser do usuário. Para definir a aparência do personagem foram feitas entrevistas com pedagogas, psicólogas, psicopedagogas e idéias tiradas de entrevistas informais com profissionais que trabalham com desenho industrial, propaganda, cartoon e desenho animado. A PAT faz parte da interface do MACES e promove a comunicação entre esse ambiente e o usuário. Portanto, acredita-se que a PAT e os recursos da Inteligência artificial poderão aumentar a capacidade de ambientes de educação à distância, tornando-os mais agradáveis, assim como diminuir a desistência pela falta de estímulos externos e de interação com colegas e professores.
Resumo:
A modelagem conjunta de média e variância tem se mostrado particularmente relevante na obtenção de processos e produtos robustos. Nesse contexto, deseja-se minimizar a variabilidade das respostas simultaneamente com o ajuste dos fatores, tal que se obtenha a média da resposta próxima ao valor alvo. Nos últimos anos foram desenvolvidos diversos procedimentos de modelagem conjunta de média e variância, alguns envolvendo a utilização dos Modelos Lineares Generalizados (GLMs) e de projetos fatoriais fracionados. O objetivo dessa dissertação é apresentar uma revisão bibliográfica sobre projetos fatoriais fracionados e GLM, bem como apresentar as propostas de modelagem conjunta encontradas na literatura. Ao final, o trabalho enfatiza a proposta de modelagem conjunta de média e variância utilizando GLM apresentada por Lee e Nelder (1998), ilustrando-a através de um estudo de caso.
Resumo:
Na atual era do conhecimento, a informação ganhou importância nos meios empresarial e acadêmico, reforçando o interesse por estudos de desenvolvimento de sistemas de informação voltados para as necessidades específicas dos ambientes em que serão aplicados. A tecnologia de Internet é um exemplo. Sistemas de Informação na Web são sistemas de informação que utilizam a Web como substrato estrutural, o que requer metodologias de desenvolvimento adequadas. Por outro lado, determinados sistemas de informação precisam ser adaptados a necessidades cíclicas de uso, como processos que se repetem periodicamente. O presente trabalho tem como objetivo alinhar estas duas necessidades através da identificação de uma proposta metodológica para modelagem de sistemas de informações na Web com características sazonais. Para tanto, empregou-se a metodologia de pesquisa-ação. Como resultado prático, é descrita a aplicação do método proposto no desenvolvimento de um sistema de informação na Web para gestão do Encontro Nacional de Engenharia de Produção (ENEGEP), o mais importante congresso científico da área de Engenharia de Produção no Brasil. Concluiu-se que o método proposto atendeu bem o desenvolvimento das características específicas de sazonalidade da utilização do sistema em questão.
Resumo:
A Internet tem expandido a área de atuação das empresas aproximando mercados, empresas, pessoas e gerando mudanças significativas no paradigma das relações de trabalho. Juntamente, a chamada “revolução da informação” e a expansão da competitividade entre as empresas no mercado global ocasionaram um movimento de reformulação nas próprias estruturas administrativas das organizações de forma que a informação e o conhecimento passaram a ser vistos como recursos organizacionais tão importantes quanto a mão-de-obra ou a matéria-prima. Estas mudanças revolucionaram os mais diversos processos organizacionais, sobretudo aqueles relacionados com a gestão do conhecimento e da informação. Neste contexto, a problemática do gerenciamento de informação pode ser identificada como desafio crucial, o qual tem sido abordado tanto no cenário acadêmico quanto no cenário empresarial. Assim, o desenvolvimento de meios e métodos para operacionalização do gerenciamento de conteúdos é tema desta dissertação, que objetiva, através da aplicação da metodologia de pesquisa-ação, apresentar a descrição funcional um sistema modular para gerenciamento de conteúdo em ambiente web. Também são discutidos aspectos relacionados com a aplicação prática do sistema em diferentes websites, e realizada uma avaliação onde se constatou que os gestores estão satisfeitos, não apresentando dificuldade de uso, e ainda obtiveram resultados positivos com o uso da ferramenta.
Resumo:
O objetivo deste trabalho foi avaliar a hipótese da paridade de poder de compra em sua forma absoluta no Brasil entre 1980 e 2006. Para testar a paridade de poder de compra (PPC) em sua forma absoluta foram realizados, inicialmente, os tradicionais testes de raiz unitária. As alterações nas condições macroeconômicas das séries brasileiras podem ter alterado as propriedades estocásticas das séries de câmbio e de nível de preços, o que pode ter viesado os resultados dos testes ADF do segundo capítulo. Os testes de raiz unitária com quebra estrutural foram realizados para reavaliar os resultados dos testes sem quebra estrutural e as conclusões acerca da validade da PPC absoluta no Brasil. Os resultados dos testes de raiz unitária sobre a taxa de câmbio real indicaram a presença de uma raiz unitária quando o câmbio real foi calculado através de índices de preços ao atacado, IPA –DI para o Brasil e PPI para os EUA. Quando foram utilizados índices de preços ao consumidor, IPC – FIPE para o Brasil e CPI para os EUA, a taxa de câmbio real tornou-se estacionária. Esse é um resultado contra-intuitivo pois a paridade de poder de compra absoluta deveria ser válida justamente quando no cálculo da taxa de câmbio real são utilizados índices de preços ao atacado dado que a maioria dos bens que compõe a cesta desses índices tem seus preços determinados pelo comércio internacional. Em seguida, no mesmo capítulo, foi realizada análise de cointegração conforme o procedimento de Johansen e Juselius (1988) para determinar se existe uma relação de longo prazo entre taxa de câmbio nominal, índice de preço externo e interno. Os resultados para a amostra completa (1980:2006) foram desfavoráveis à aceitação da paridade de poder de compra absoluta e também na sub-amostra de 1994 a 2006. Nesse sub-período foi possível notar que a taxa de câmbio estava desalinhada em relação ao comportamento do diferencial de preços externo e interno. No capítulo três foram realizados testes sobre a PPC utilizando procedimentos que levam em conta a presença de quebras estruturais. Primeiramente, foram realizados testes de raízes unitárias utilizando-se o teste de Perron e Vogelsang (1998). O ano de 1998 foi o que apresentou com maior freqüência a menor estatística t, mas para nenhum dos modelos desenvolvidos por Perron e Vogelsang (1998) foi possível encontrar indícios da validade da PPC absoluta. Finalmente, foram realizados testes de cointegração com quebra estrutural utilizandose a metodologia de Gregory e Hansen (1996). O teste desenvolvido por esses autores utiliza como base o teste de cointegração de Engle e Granger (1987) para determinar a menor estatística t para uma determinada amostra. Os anos de 1983 e 2003 foram os que apresentaram com maior freqüência a menor estatística t para os modelos desenvolvidos por Gregory e Hansen (1996), mas em nenhum dos casos foi possível aceitar a hipótese de validade da PPC absoluta. A paridade de poder de compra absoluta foi testada de diversas formas ao longo do trabalho, mas na maioria dos casos, como foi dito acima, não foi possível aceitar sua validade.
Resumo:
Neste trabalho é proposto um modelo de construção de superfície de volatilidade de opções pouco líquidas de ações listadas em bolsa. O modelo é uma função matemática que transforma a superfície de volatilidade de uma opção líquida de ação em uma superfície de volatilidade de opção pouco líquida de ação. O modelo apresenta alta sensibilidade em relação aos parâmetros da função matemática utilizada. Logo, podem ser obtidos resultados bem distintos, caso se utilize, por exemplo, a superfície de opção de Ibovespa ou de Vale como possíveis parâmetros da função. Neste caso, também é proposta uma metodologia para a decisão sobre a escolha do parâmetro de volatilidade mais adequado, tomando-se por base um backtest das diferenças observadas entre volatilidade realizada e proposta. A principal hipótese assumida no modelo é que a diferença calculada entre a volatilidade implícita da opção e a volatilidade histórica de seu ativo-objeto é uma medida que possui proporção entre mesmas medidas de todos os ativos-objetos. Assim, se conhecidas essa medida e a volatilidade histórica de um determinado ativo-objeto, calcula-se a volatilidade “implícita” da opção desse mesmo ativo-objeto. Assim como a incerteza relacionada à hipótese descrita acima, existem outras relacionadas à seleção de parâmetros no modelo e à própria iliquidez da opção e de seu ativo-objeto. O impacto dessas incertezas reflete-se no resultado financeiro da opção. Assim, propõe-se um modelo de gestão financeira conservadora baseada em reserva de resultado financeiro como provisão dessas incertezas. Neste trabalho, apresentam-se testes para algumas opções, mostrando as provisões hipoteticamente necessárias em termos de vegas das opções para cada subjacente.
Resumo:
As mudanças ocorridas no macroambiente do agronegócio do leite no Brasil trazem a necessidade de re-fazer as concepções acerca de sua gestão. As práticas gerenciais precisam romper o conservadorismo e buscar uma adequação ao momento vivido sem os vícios de sua cultura. Na concepção de um sistema de gestão da pecuária leiteira, adaptado à realidade das unidades de produção familiares, inseriram-se conceitos da teoria das restrições por meio da estratégia de pesquisa-ação, no noroeste gaúcho-município de São Luiz Gonzaga. A pesquisa foi dividida em três passos: o primeiro passo selecionou, por meio de entrevistas focais, uma unidade de produção representativa de cada sistema com base em uma tipologia segmentada em três sistemas (especializado; intermediário e tradicional); o segundo serviu para testar o sistema de gestão da pecuária leiteira em cada uma das três unidades de produção escolhidas; o terceiro analisou e discutiu os resultados obtidos nas entrevistas, visitas e em documentos. A pesquisa evidenciou a aplicabilidade do sistema de gestão da pecuária leiteira nos três sistemas estudados, utilizando os princípios e a lógica de decisão da teoria das restrições. Os princípios do modelo de decisão da teoria das restrições permitiram tornar mais ágil e coerente o processo de tomada de decisão, assim como as medidas de desempenho da teoria das restrições tornaram a tarefa mais fácil e aplicável. A abordagem sistêmica da teoria das restrições se adequou à complexidade dos sistemas de produção da pecuária leiteira.
Resumo:
O objetivo deste trabalho foi analisar o processo de ensino-aprendizagem de Física através de abordagens didáticas envolvendo o uso de atividades de simulação e modelagem computacionais em um ambiente de atividade colaborativa presencial. Num primeiro estudo, realizado a partir de uma metodologia quantitativa, avaliou-se o desempenho dos alunos em testes que tinham como tópico a interpretação de gráficos da Cinemática, antes e depois de trabalharem com atividades de simulação e modelagem computacionais em atividades extra-aula. Os resultados deste primeiro estudo mostram que houve melhorias estatisticamente significativas no desempenho dos alunos do grupo experimental, quando comparado aos estudantes do grupo de controle, submetidos apenas ao método tradicional de ensino. Na seqüência, foram realizados outros dois estudos dentro de uma metodologia qualitativa, em que o foco estava no processo de ensino-aprendizagem que ocorre em ambiente de sala de aula. Foi utilizada uma abordagem que envolveu, além das atividades computacionais, um método colaborativo presencial como dinâmica de base para o estabelecimento das relações interpessoais entre o professor e a turma, e os alunos entre si.A fundamentação teórica adotada esteve baseada na teoria de Ausubel sobre aprendizagem significativa e na teoria de Vygotsky sobre interação social. O referencial de Halloun sobre modelagem esquemática também foi utilizado. Os resultados sugerem que as atividades de simulação e modelagem computacionais são potencialmente facilitadoras de aprendizagem significativa em Física. Sugerem, também, que a atividade colaborativa presencial contribui positivamente para esse tipo de aprendizagem.
Resumo:
O Si tensionado (sSi) é um material com propriedades de transporte eletrônico bastante superiores as do Si, sendo considerado como uma alternativa importante para a produção de dispositivos MOSFET (transistor de efeito de campo metal-óxido-semicondutor) de mais alta performance (e.g. freqüências de operação f>100 GHz). O sSi é obtido através do crescimento epitaxial de Si sobre um substrato de mesma estrutura cristalina, porém com parâmetro de rede diferente. Esta tese apresenta uma investigação detalhada de um novo método que possibilita a produção de camadas relaxadas de Si1xGex com espessuras inferiores a 300 nm, consideradas como a melhor alternativa tecnológica para a produção de sSi. Este método envolve a implantação de íons de He+ ou de Si+ em heteroestruturas pseudomórficas de Si1-xGex/Si(001) e tratamentos térmicos. Foram estudados os efeitos dos diversos parâmetros experimentais de implantação e tratamentos térmicos sobre o processo de relaxação estrutural, utilizando-se heteroestruturas pseudomórficas de Si1-xGex/Si(001) crescidas via deposição de vapor químico, com distintas concentrações de Ge (0,19x 0,29) e com espessuras entre 70 e 425 nm. Com base no presente estudo foi possível identificar diversos mecanismos atômicos que influenciam o processo de relaxação estrutural das camadas de Si1-xGex/Si(001). O processo de relaxação é discutido em termos de um mecanismo complexo que envolve formação, propagação e interação de discordâncias a partir de defeitos introduzidos pela implantação. No caso das implantações de He, por exemplo, descobrimos que podem ocorrer perdas de He durante as implantações e que este efeito influencia negativamente a relaxação de camadas finas. Além disso, também demonstramos que os melhores resultados são obtidos para energias e fluências de implantação que resultam na formação de bolhas planas localizadas no substrato de Si a uma distância da interface equivalente a uma vez a espessura da camada de SiGe. O grau de relaxação satura em 50% para camadas de SiGe com espessura 100 nm. Este resultado é discutido em termos da energia elástica acumulada na camada de SiGe e da retenção de He. No caso de implantações de Si, discutimos a formação de defeitos tipo {311} e sua transformação térmica em discordâncias. Este estudo resultou numa visão abrangente dos principais fatores limitantes do processo, bem como na otimização dos valores de parâmetros experimentais para a produção de camadas de SiGe com alto grau de relaxação e com baixa densidade de defeitos.