978 resultados para Equações de Fredholm
Resumo:
Esta tese é uma discussão crítica, sob a ótica da formação de expectativas, da relação que se interpõe entre ciência econômica, como corpo de conhecimento, e seus agentes. Primeiro, examinamos abordagens relevantes sobre expectativas na análise econômica, indicando suas insuficiências. Argumentamos que a incorporação de expectativa, em qualquer tratamento analítico, deve envolver, principalmente, fundamentos epistêmicos. Segundo, sob a perspectiva da teoria de modernidade reflexiva desenvolvida por Anthony Giddens, buscamos identificar bases plausíveis para uma teoria de expectativa econômica. Concluímos que o processo de formação de expectativa é construção social, a partir da interdependência entre expertos e leigos. Denominamos esta conclusão por hipótese de expectativas socialmente construídas (HESC). Terceiro, propusemos um arcabouço analítico para incorporar a HESC. Basicamente, informação de expectativa se difunde através da mídia e do contato face a face entre agentes. Nova informação não resulta necessariamente em revisão de expectativas, o que vai depender, principalmente, de conhecimento econômico e vizinhança do agente. Por último, um exemplo de aplicação: o modelo-HESC foi submetido a três experimentos macroeconômicos, e seus resultados comparados àqueles obtidos por Mankiw e Reis (2002). A primeira conclusão desta tese é metodológica: expectativas dos agentes em modelos macroeconômicos não são determinadas a partir de equações do próprio modelo. A segunda é normativa: conhecimento e vizinhança são capazes de perpetuar ineficiências decorrentes de erros de expectativas. A terceira está relacionado com economia positiva: as diferenças entre os resultados do modelo de informação-rígida obtidos pelos autores acima e aqueles do modelo-HESC apontam para novas possibilidades explanatórias.
Resumo:
Este trabalho tem por objetivo avaliar a influência dos parâmetros pressão, freqüência e fator de trabalho, bem como a interação destes fatores, na capacidade de gerar plasma estável e com propriedades nitretantes no interior de furos não passantes de pequeno diâmetro. Para atingir estes objetivos foram realizados experimentos utilizando um reator equipado com fonte de potência pulsada de 2 KW, mistura gasosa composta de 76% de Nitrogênio e 24% de Hidrogênio, amostras de aço ABNT 1045 normalizadas. As nitretações foram realizadas pelo período de uma hora a temperatura de 500 0C. Foram empregadas freqüências de 100, 1000 e 5000 Hz, fatores de trabalho de 0,5 (50%), 0,75 (75%), 1 (100%), as pressões utilizadas foram de 2, 3 e 4 Torr e furos não passantes de φ3 x 40 mm, φ4 x 60 mm, φ5 x 75 mm. Para determinar a significância de cada parâmetro e de suas interações foi utilizado o modelo estatístico Multi-Factor Anova, com projeto fatorial cruzado a 3 fatores e 3 níveis para cada fator. Com o uso do programa Statgraphics foram geradas as equações que mais se ajustaram ao modelo. Estas equações determinam a máxima profundidade de geração de plasma nitretante no interior dos furos de pequeno diâmetro para as condições de tratamento expostas acima.
Resumo:
Esta dissertação avalia o impacto da educação sobre a renda dos jovens no Brasil, seguindo a tradição de equações de determinação de salários. O trabalho difere dos trabalhos na área realizados no Brasil em quatro aspectos. Em primeiro lugar, Em primeiro lugar, o universo de análise está focado na população jovem brasileira, a qual ingressou recentemente no mercado de trabalho e nele permanecerá por muitos anos, o que traz informações sobre as características desse mercado para os próximos 25 a 35 anos. Além disso, ele difere porque introduz a qualidade do ensino como determinante dos rendimentos. Depois, porque adota um protocolo de imputação da qualidade da educação dos jovens para os quais não se tem informação sobre a qualidade da educação, de sorte a evitar viés de seleção. E, por fim, a dissertação contrasta com os estudos correntes no tema porque explora diferentes métodos de estimação dos retornos da educação e da qualidade do ensino. Além do método tradicional dos estimadores de OLS, este trabalho considera o uso de fronteiras estocásticas de salários. As estimativas foram feitas a partir de um modelo cross-section em dois estágios. No primeiro estágio, estimou-se a equação de determinação da probabilidade de um jovem entre 11 e 21 anos de idade estudar na rede pública ou na rede privada, escolas com diferenças qualitativas grandes no país. No segundo estágio, imputou-se um indicador de qualidade da educação dos jovens num modelo econométrico de determinação da renda dos jovens entre 16 e 25 anos de idade. O procedimento com imputação foi necessário simplesmente pelo fato de nas estatísticas brasileiras não haver informações sobre a qualidade do ensino adquirido pelos indivíduos. A análise permitiu mostrar que a qualidade da educação interfere de forma significativa na renda dos jovens, com grande impacto sobre os índices de desigualdade da distribuição de renda nessa faixa de idade. Também permitiu mostrar que existe um trade-off entre o retorno da e
Resumo:
Este trabalho visa investigar o analfabetismo no Brasil a partir do uso de novas medidas de alfabetização inicialmente desenvolvidas por Basu e Foster (1998). Para tanto, primeiro se avalia o perfil de alfabetização da população brasileira de acordo com a definição de analfabetismo isolado. Entende-se por analfabetos isolados aqueles indivíduos analfabetos que não convivem com pessoas alfabetizadas em nível domiciliar. Segundo, busca-se evidências de externalidades domiciliares da alfabetização de filhos em aspectos relacionados a salários e à participação no mercado de trabalho de pais analfabetos. Devido à suspeita de causalidade reversa nas estimações por Mínimos Quadrados Ordinários (MQO) das equações que relacionam as variáveis de interesse dos pais com as alfabetizações dos filhos, utiliza-se as ofertas municipais de escolas e professores de primeiro grau como variáveis instrumentais para a alfabetização. Da investigação do perfil de alfabetização constata-se que a região Nordeste é a que apresenta os piores resultados entre as regiões do país, uma vez que é a que tem a maior parcela de analfabetos isolados do total. Tal resultado condiciona políticas públicas de alfabetização para essa região. As aplicações das medidas indicam que os rankings de alfabetização por estados são sensíveis às diferentes medidas. Os resultados encontrados das estimações por MQO indicam haver correlação positiva entre as variáveis dependentes dos pais e alfabetização dos filhos. Entretanto, a aplicação da metodologia de variáveis instrumentais não confirma os resultados das estimações por MQO. Contudo, devido à fragilidade dos resultados das estimações do primeiro estágio, não se pode afirmar que não há externalidades da alfabetização dos filhos para os pais.
Resumo:
A presente dissertação teve como objetivo analisar de modo abrangente e preciso as relações entre poupança pública e crescimento econômico, motivada pela importância do estudo para o entendimento dos fatores incentivadores do desenvolvimento e pela quase absoluta originalidade do tema. Depois de uma revisão analítica de modelos de crescimento econômico investigativos dos impactos do setor público sobre as taxas de desenvolvimento, análise teórico-descritiva das relações entre poupança pública e crescimento mostrou que a poupança é um indicador de sustentabilidade fiscal mais completo do que o superávit primário e tende a apresentar efeitos mais positivos sobre o comportamento do produto do que o superávit operacional. A subseqüente análise econométrica dos efeitos da poupança pública sobre o crescimento econômico baseou-se em hipóteses retiradas do exame descritivo da evolução de algumas variáveis públicas e da taxa de crescimento per capita para uma série de países, estimando modelos de regressão múltipla para um painel de 38 nações, entre desenvolvidas e em desenvolvimento. As equações estimadas e os testes de robustez dos resultados comprovaram, a elevados níveis de confiança, a hipótese de relação positiva entre as taxas de poupança pública e de crescimento econômico per capita, além de fornecerem resultados interessantes e consistentes sobre a forma de associação do desenvolvimento a outras variáveis. A conclusão central foi que um aumento de uma unidade na taxa de poupança pública deve levar, em média, a uma elevação de 0,17 unidades na taxa de crescimento econômico per capita, reforçando o argumento de que um importante indicador fiscal a ser monitorado pelos governos com o objetivo de atingir taxas mais elevadas de crescimento sem descuidar de suas finanças é a poupança pública.
Resumo:
This paper confronts the Capital Asset Pricing Model - CAPM - and the 3-Factor Fama-French - FF - model using both Brazilian and US stock market data for the same Sample period (1999-2007). The US data will serve only as a benchmark for comparative purposes. We use two competing econometric methods, the Generalized Method of Moments (GMM) by (Hansen, 1982) and the Iterative Nonlinear Seemingly Unrelated Regression Estimation (ITNLSUR) by Burmeister and McElroy (1988). Both methods nest other options based on the procedure by Fama-MacBeth (1973). The estimations show that the FF model fits the Brazilian data better than CAPM, however it is imprecise compared with the US analog. We argue that this is a consequence of an absence of clear-cut anomalies in Brazilian data, specially those related to firm size. The tests on the efficiency of the models - nullity of intercepts and fitting of the cross-sectional regressions - presented mixed conclusions. The tests on intercept failed to rejected the CAPM when Brazilian value-premium-wise portfolios were used, contrasting with US data, a very well documented conclusion. The ITNLSUR has estimated an economically reasonable and statistically significant market risk premium for Brazil around 6.5% per year without resorting to any particular data set aggregation. However, we could not find the same for the US data during identical period or even using a larger data set. Este estudo procura contribuir com a literatura empírica brasileira de modelos de apreçamento de ativos. Dois dos principais modelos de apreçamento são Infrontados, os modelos Capital Asset Pricing Model (CAPM)e de 3 fatores de Fama-French. São aplicadas ferramentas econométricas pouco exploradas na literatura nacional na estimação de equações de apreçamento: os métodos de GMM e ITNLSUR. Comparam-se as estimativas com as obtidas de dados americanos para o mesmo período e conclui-se que no Brasil o sucesso do modelo de Fama e French é limitado. Como subproduto da análise, (i) testa-se a presença das chamadas anomalias nos retornos, e (ii) calcula-se o prêmio de risco implícito nos retornos das ações. Os dados revelam a presença de um prêmio de valor, porém não de um prêmio de tamanho. Utilizando o método de ITNLSUR, o prêmio de risco de mercado é positivo e significativo, ao redor de 6,5% ao ano.
Resumo:
Fenômenos naturais, tecnológicos e industriais podem, em geral, ser modelados de modo acurado através de equações diferenciais parciais, definidas sobre domínios contínuos que necessitam ser discretizados para serem resolvidos. Dependendo do esquema de discretização utilizado, pode-se gerar sistemas de equações lineares. Esses sistemas são, de modo geral, esparsos e de grande porte, onde as incógnitas podem ser da ordem de milhares, ou até mesmo de milhões. Levando em consideração essas características, o emprego de métodos iterativos é o mais apropriado para a resolução dos sistemas gerados, devido principalmente a sua potencialidade quanto à otimização de armazenamento e eficiência computacional. Uma forma de incrementar o desempenho dos métodos iterativos é empregar uma técnica multigrid. Multigrid são uma classe de métodos que resolvem eficientemente um grande conjunto de equações algébricas através da aceleração da convergência de métodos iterativos. Considerando que a resolução de sistemas de equações de problemas realísticos pode requerer grande capacidade de processamento e de armazenamento, torna-se imprescindível o uso de ambientes computacionais de alto desempenho. Uma das abordagens encontradas na literatura técnica para a resolução de sistemas de equações em paralelo é aquela que emprega métodos de decomposição de domínio (MDDs). Os MDDs são baseados no particionamento do domínio computacional em subdomínios, de modo que a solução global do problema é obtida pela combinação apropriada das soluções obtidas em cada um dos subdomínios Assim, neste trabalho são disponibilizados diferentes métodos de resolução paralela baseado em decomposição de domínio, utilizando técnicas multigrid para a aceleração da solução de sistemas de equações lineares. Para cada método, são apresentados dois estudos de caso visando a validação das implementações. Os estudos de caso abordados são o problema da difusão de calor e o modelo de hidrodinâmica do modelo UnHIDRA. Os métodos implementados mostraram-se altamente paralelizáveis, apresentando bons ganhos de desempenho. Os métodos multigrid mostraram-se eficiente na aceleração dos métodos iterativos, já que métodos que utilizaram esta técnica apresentaram desempenho superior aos métodos que não utilizaram nenhum método de aceleração.
Resumo:
Quando as empresas decidem se devem ou não investir em determinado projeto de investimentos a longo prazo (horizonte de 5 a 10 anos), algumas metodologias alternativas ao Fluxo de Caixa Descontado (FCD) podem se tornar úteis tanto para confirmar a viabilidade do negócio como para indicar o melhor momento para iniciar o Empreendimento. As análises que levam em conta a incerteza dos fluxos de caixa futuros e flexibilidade na data de início do projeto podem ser construídos com a abordagem estocástica, usando metodologias como a solução de equações diferenciais que descrevem o movimento browniano. Sob determinadas condições, as oportunidades de investimentos em projetos podem ser tratados como se fossem opções reais de compra, sem data de vencimento, como no modelo proposto por McDonald-Siegel (1986), para a tomada de decisões e momento ótimo para o investimento. Este trabalho analisa a viabilidade de investimentos no mercado de telecomunicações usando modelos não determinísticos, onde a variável mais relevante é a dispersão dos retornos, ou seja, que a variância representa o risco associado a determinado empreendimento.
Resumo:
O objetivo deste estudo é apresentar estimações das elasticidades das equações da oferta de exportação e da demanda de importação para o Brasil de 1980 a 2006 a partir de dados trimestrais. Na análise empírica, foram utilizadas as técnicas de cointegração multivariada de Johansen Juselius e modelo de correção de erros (ECM). As exportações brasileiras em valores podem melhor ser explicadas quando decompostas nos índices de preços médios e de volume, pois ambos dependem do índice de preços internacionais de commodities. Usando variáveis macroeconômicas como a taxa de câmbio real, o volume das exportações mundiais e o índice de preços internacionais de commodities, a evidência empírica sugere que existe uma relação de cointegração entre o volume exportado brasileiro e essas variáveis. As estimações também foram realizadas de forma desagregada para produtos básicos, semimanufaturados e manufaturados. Comprovamos a hipótese de que o país é um tomador de preços no comércio internacional, através de testes de causalidade de Granger e de modelo VAR para conhecer a resposta dos preços dos bens exportados a um choque nos preços internacionais de commodities, que se mostrou persistente nos testes realizados. Por sua vez, as estimativas da função de demanda de importação totais e por categoria de uso (bens intermediários, bens de capital, bens de consumo duráveis e não duráveis) também apresentaram uma relação estável de longo prazo entre volume das importações brasileiras, preço relativo e nível de renda doméstico, sendo os últimos medidos pelo câmbio real e o PIB respectivamente. Adicionalmente, foram incluídas as reservas internacionais, variável não comumente utilizada da literatura sobre o tema para o país. Os resultados encontrados vão de encontro a outros estudos, mostrando maior elasticidade da renda do que dos preços.
Resumo:
Nesta dissertação visa-se estudar e propor alternativas de solução para a proteção de estruturas e sistemas elétricos contra fogo numa unidade de craqueamento catalítico de uma refinaria de petróleo, por meio de proteção passiva. A proteção passiva tem por finalidade garantir a integridade das estruturas sujeitas a incêndio, durante um determinado período de tempo, para possibilitar, no caso da refinaria, a realização de procedimentos de parada da unidade de forma segura e controlar o incêndio a fim de diminuir a possibilidade de propagação do fogo para outras áreas. Com base em técnicas de análise de riscos fez-se a identificação de zonas potencialmente sujeitas a cenários de acidente envolvendo jato de fogo e/ou incêndio em poça. A delimitação das áreas onde haveria necessidade de proteção passiva foi realizada com base em modelos para jatos de fogo e incêndio em poça já estabelecidos na literatura. O dimensionamento da proteção passiva de estruturas e sistemas elétricos com o uso de diversos materiais usados comercialmente para este fim foi estimado com base em equações empíricas desenvolvidas por Jeanes, 1980, Stanzak, 1973 e PABCO, 1984, e, para alguns casos particulares foi feita uma verificação por solução numérica da equação da condução do calor em meio sólido.Assim, foram determinados quais os materiais mais adequados em cada caso de aplicação e qual a espessura em que deve ser aplicado para que a temperatura no elemento estrutural ou no sistema elétrico não atinja a sua determinada temperatura crítica em um período de tempo pré-determinado. Para os casos de elementos estruturais como colunas de sustentação da unidade de seção cilíndrica, o principal material para proteção passiva é a argamassa projetada e para perfil I, é o emprego de placas de gesso. Já para o caso de sistemas elétricos, podem ser utilizadas tanto tintas intumescentes quanto as mantas reforçadas com fibras minerais, esta escolha depende da geometria do sistema em que será empregado. Da comparação entre estes dois métodos pode-se concluir que o dimensionamento da proteção passiva fazendo o uso das correlações empíricas é menos conservativo que para o caso do uso da equação da difusão do calor resolvida por método numérico. Porém, os resultados diferem dentro de um limite considerado aceitável (em torno de 15%) levando-se em consideração os erros embutidos em cada método de cálculo. É importante mencionar que as correlações empíricas são de mais simples aplicação por possuir apenas operações matemáticas básicas. Usando as correlações empíricas para os perfis cilíndricos de aço (diâmetro de 0,1524 m e espessura de parede de 0,0254 m), a espessura de revestimento estimada com o uso das correlações empíricas necessária para garantir que a temperatura na interface entre os dois materiais não atinja 550°C em duas horas seria de 13,5 mm para argamassa projetada, 19,7 mm para vermiculita com silicato de sódio e 34,5 mm para recobrimento com concreto com proteção do tipo contorno. Fazendo o mesmo cálculo pelo método numérico proposto, os resultados foram de 15,53 mm para argamassa projetada, 22,06 mm para vermiculita com silicato de sódio e 38,98 mm para recobrimento com concreto com proteção do tipo contorno. Fazendo o mesmo cálculo pelo método numérico proposto, os resultados foram de 15,53 mm para argamassa projetada, 22,06 mm para vermiculita com silicato de sódio e 38,98 mm para recobrimento com concreto com proteção do tipo contorno. Cabe ressaltar que com a realização desta dissertação busca-se uma integração entre o mestrado acadêmico e o meio empresarial com o desenvolvimento de trabalhos de natureza acadêmica que tenham aplicação direta na prática. Espera-se assim permitir que Universidade dê retorno à sociedade que a mantém e propiciar que setores da sociedade possam usufruir da capacidade disponível na academia.
Resumo:
Este trabalho trata do emprego do modelo de dano dúctil de Gurson e de alguns aspectos relativos a sua implementação computacional. Emprega-se como ponto de partida o programa Metafor, código de elementos finitos voltado para a simulação de problemas de conformação mecânica, contemplando portanto grandes deformações plásticas. Estudam-se alguns casos simples procurando identificar a influência de cada parâmetro do modelo de Gurson na resposta. É discutida a aplicação dos modelos de nucleação de vazios usualmente empregados em conjunto com a superfície de escoamento de Gurson em situações onde há reversão de solicitação. São propostas alterações nos modelos usuais de nucleação de forma a minorar resultados incoerentes verificados. Apresenta-se um algoritmo alternativo ao método de Newton-Raphson para a solução do sistema de equações associado à forma fraca das equações de equilíbrio, em situações onde a rigidez fica muito pequena. Tal algoritmo é implementado e testado. Um algoritmo de integração de tensões é apresentado e implementado, mostrando-se sua vantagem do ponto de vista de robustez, ou seja, obtenção da resposta correta a despeito do tamanho de incremento empregado. Também é discutido um procedimento para desconsiderar elementos que apresentem ruptura local Estudam-se problemas envolvendo geração de calor por deformação plástica em conjunto com a formulação do modelo de Gurson, mostrando que a consideração de acoplamento termo-mecânico com dano traz vantagens em algumas simulações. É discutida a implementação do modelo de Gurson sobre a versão tridimensional do Metafor, que contempla a formulação lagrangiana-euleriana arbitrária (LEA). Ao final, é feita uma simulação inicial do comportamento de espumas metálicas.
Resumo:
O principal objetivo desta tese é investigar a implementação do conceito de marketing em empresas jornalísticas e seus efeitos sobre a qualidade do conteúdo editorial e o desempenho financeiro dessas orga nizações. Há controvérsias sobre esse tema, dividindo os pesquisadores da área em duas correntes opostas: a pessimista e a otimista. Os pessimistas consideram incompatíveis os parâmetros de desempenho das ciências gerenciais, como sucesso financeiro e mercadológico, com a função maior dos meios de comunicação de massa — difundir as informações necessárias para a manutenção da sociedade democrática. Já os otimistas sustentam que são exatamente os veículos que adotam o conceito de marketing aqueles que enfatizam mais a qualidade do conteúdo editorial, sendo possível, portanto, conciliar os parâmetros de desempenho financeiro e mercadológico com os valores tradicionais do jornalismo. Foi desenvolvido um modelo teórico, baseado na perspectiva otimista, que foi testado através de um survey cross-section com editores-chefe e diretores comerciais de 184 diários brasileiros. Através da modelagem de equações estruturais, confirmaram-se sete das nove hipóteses, endossando a maioria das premissas otimistas. Os resultados sustentam os efeitos positivos da orientação para o mercado leitor sobre a integração entre os departamentos editorial e comercial e sobre a ênfase na qualidade do conteúdo editorial. Confirmou-se também o efeito positivo da orientação para o mercado anunciante sobre a integração entre os departamentos. A ênfase na qualidade do conteúdo editorial afeta positivamente o desempenho das vendas de espaço publicitário e o desempenho financeiro. E o desempenho das vendas de espaço publicitário afeta positivamente o desempenho financeiro. Não foi encontrado efeito significativo da orientação para o mercado anunciante sobre as vendas de espaço publicitário e foi rejeitada a hipótese de que a integração entre os departamentos editorial e comercial influencia as vendas de espaço publicitário. Em resumo, os resultados do estudo sustentam a possibilidade de conciliação entre os parâmetros de desempenho da administração e os valores tradicionais do jornalismo.
Resumo:
Este trabalho procura dar uma resposta à seguinte pergunta de pesquisa: quais variáveis influenciam o comportamento colecionar a partir da perspectiva do consumidor? Para tanto, faz uso de métodos complementares: uso de análise de conteúdo e de modelagem de equações estruturais. As seguintes variáveis foram identificadas: ideal temático, envolvimento, desejo, prazer, permanência, ocupação do espaço e exposição, conhecimento e autoridade. O construto ideal temático foi desenvolvido e escalas para medi-lo e às variáveis permanência, ocupação do espaço e exposição, conhecimento, autoridade e colecionar também foram desenvolvidas. Os resultados sugerem que o modelo estrutural de colecionar aqui desenvolvido é consistente, confiável e válido pelos diversos critérios de análise empregados (índices de adequação do modelo; verificação das hipóteses do modelo; coeficientes de determinação; efeitos diretos, indiretos e totais dos caminhos do modelo e análise de modelos alternativos) e que, portanto, representa uma construção cabível do fenômeno colecionar na área de comportamento do consumidor e que o colecionar é uma forma de estender o eu do colecionador, de uma forma diferenciada, especial. Neste estudo esse fato foi ligado à influência do ideal temático no colecionar.
Resumo:
A presente dissertação versa sobre a sincronização idêntica em redes de osciladores caóticos. Uma perspectiva razoavelmente histórica sobre a literatura da área é apresentada . O conceito de caos é introduzido junto com outras idéias da dinâmica não-linear: sistemas dinâmicos, exemplos de sistemas, atratores, expoentes de Liapunov, etc. A integração numérica de equações diferenciais é largamente utilizada, principalmente, para o cálculo de expoentes e o desenho do diagrama de fases. A sincronização idêntica é definida, inicialmente, em redes que não passam de um par de osciladores. A variedade de sincronização (conjunto de pontos no espaço de fases no qual a solução do sistema é encontrada se há sincronização) é determinada. Diferentes variantes de acoplamentos lineares são enfocadas: acoplamento interno, externo, do tipo mestre-escravo e birecional, entre outras. Para detectar sincronização, usa-se o conceito de expoente de Liapunov transversal, uma extensão do conceito clássico de expoente de Liapunov que caracteriza a sincronização como a existência de um atrator na variedade de sincronização. A exposição é completada com exemplos e atinge relativo detalhe sobre o assunto, sem deixar de ser sintética com relação à ampla literatura existente. Um caso de sincronização em antifase que usa a mesma análise é incluído. A sincronização idêntica também é estudada em redes de osciladores idênticos com mais de dois osciladores. As possibilidades de sincronização completa e parcial são explanadas. As técnicas usadas para um par de osciladores são expandidas para cobrir este novo tipo de redes. A existência de variedades de sincronização invariantes é considerada como fator determinante para a sincronização. A sincronização parcial gera estruturas espaciais, analisadas sob a denominação de padrões. Algumas relações importantes entre as sincronizações são explicitadas, principalmente as degenerescências e a relação entre a sincronização parcial e a sincronização completa do respectivo estado sincronizado para alguns tipos de acoplamento. Ainda são objetos de interesse as redes formadas por grupos de osciladores idênticos que são diferentes dos osciladores dos outros grupos. A sincronização parcial na qual todos os grupos de osciladores têm seus elementos sincronizados é chamada de sincronização primária. A sincronização secundária é qualquer outro tipo de sincronização parcial. Ambas são exemplificadas e analisadas por meio dos expoentes transversais e novamente por meio da existência de invariantes de sincronização. Obtém-se, então, uma caracterização suficientemente ampla, completada por casos específicos.
Resumo:
Neste trabalho foi estudado o comportamento em altas pressões e temperatura ambiente de dois compostos com estrutura de escuterudita, CoSb3 e LaFe3CoSb12. A determinação dos parâmetros das equações de estado isotérmicas, bem como a verificação das diferenças relativas nas curvas de compressibilidade desses compostos, foram os objetivos principais deste trabalho. Ambos compostos foram sintetizados conforme rota proposta na literatura. O sucesso da síntese foi verificado por meio de difração de raios X, não sendo observada a presença de fases contaminantes. Como meio gerador de altas pressões foi utilizada uma câmara de bigornas de diamante (DAC). A evolução das estruturas destes compostos com a pressão foi acompanhada por meio de difração de raios X por dispersão em energia. Até o limite de pressão estática de cerca de 14 GPa (definido pelas condições experimentais previamente existentes no laboratório), não foram observadas anomalias nas curvas de volume versus pressão desses compostos ou mesmo evidências de transições de fase. Com o objetivo de estender este limite de pressão, foram feitas melhorias na célula de alta pressão existente no laboratório, possibilitando assim a geração de pressões de até 40 GPa. Três equações de estado isotérmicas foram ajustadas aos dados experimentais, utilizando como parâmetros no ajuste o módulo volumétrico isotrópico e sua derivada primeira com relação à pressão. Como resultado deste procedimento, verificou-se que a escuterudita com lantânio apresenta um módulo volumétrico ligeiramente menor que o CoSb3, sendo, portanto, mais compressível, apesar da presença do íon lantânio preenchendo as cavidades deste composto. Foi observada também uma mudança na compressibilidade da escuterudita CoSb3 acima de 20 GPa, devido, talvez, ao congelamento do meio transmissor de pressão ou ao pinçamento do rubi (calibrante de pressão) entre as bigornas da DAC. O CoSb3 foi comprimido até a pressão de 40 GPa, apresentando indícios de um estranho comportamento na seqüência decrescente de pressão. Após a descompressão, o parâmetro de rede desse composto, a pressão ambiente, mostrou-se maior que o da fase original. Este aumento do parâmetro de rede não foi acompanhado de alterações significativas do espectro de difração de raios X. Este efeito anômalo dever ser sujeito a verificação por meio de novos experimentos.