978 resultados para conexão métrica
Resumo:
A visualização em tempo real de cenas complexas através de ambientes de rede é um dos desafios na computação gráfica. O uso da visibilidade pré-computada associada a regiões do espaço, tal como a abordagem dos Potentially Visible Sets (PVS), pode reduzir a quantidade de dados enviados através da rede. Entretanto, o PVS para algumas regiões pode ainda ser bastante complexo, e portanto uma estratégia diferente para diminuir a quantidade de informações é necessária. Neste trabalho é introduzido o conceito de Smart Visible Set (SVS), que corresponde a uma partição das informações contidas no PVS segundo o ângulo de visão do observador e as distâncias entre as regiões. Dessa forma, o conceito de “visível” ou de “não-visível” encontrado nos PVS é estendido. A informação referente ao conjunto “visível” é ampliada para “dentro do campo de visão” ou “fora do campo de visão” e “longe” ou “perto”. Desta forma a informação referente ao conjunto “visível” é subdividida, permitindo um maior controle sobre cortes ou ajustes nos dados que devem ser feitos para adequar a quantidade de dados a ser transmitida aos limites impostos pela rede. O armazenamento dos SVS como matrizes de bits permite ainda uma interação entre diferentes SVS. Outros SVS podem ser adicionados ou subtraídos entre si com um custo computacional muito pequeno permitindo uma rápida alteração no resultado final. Transmitir apenas a informação dentro de campo de visão do usuário ou não transmitir a informação muito distante são exemplos dos tipos de ajustes que podem ser realizados para se diminuir a quantidade de informações enviadas. Como o cálculo do SVS depende da existência de informação de visibilidade entre regiões foi implementado o algoritmo conhecido como “Dual Ray Space”, que por sua vez depende do particionamento da cena em regiões. Para o particionamento da cena em uma BSP-Tree, foi modificada a aplicação QBSP3. Depois de calculada, a visibilidade é particionada em diferentes conjuntos através da aplicação SVS. Finalmente, diferentes tipos de SVS puderam ser testados em uma aplicação de navegação por um cenário 3D chamada BSPViewer. Essa aplicação também permite comparações entre diferentes tipos de SVS e PVS. Os resultados obtidos apontam o SVS como uma forma de redução da quantidade de polígonos que devem ser renderizados em uma cena, diminuindo a quantidade de informação que deve ser enviada aos usuários. O SVS particionado pela distância entre as regiões permite um corte rápido na informação muito distante do usuário. Outra vantagem do uso dos SVS é que pode ser realizado um ordenamento das informações segundo sua importância para o usuário, desde que uma métrica de importância visual tenha sido definida previamente.
Resumo:
Neste trabalho definimos três modelos de escadas de spin integráveis novos que correspondem a variações de um modelo de escada de spin baseado na simetria SU(4). Os modelos são exatamente solúveis através do método do ansatz de Bethe e as equações do ansatz de Bethe, os autovalores de energia e o gap de spin são derivados e propriedades físicas interessantes são discutidas. Inicialmente apresentamos um modelo de escada de spin integrável que possui um parâmetro livre além do acomplamento ao longo dos degraus. Determinamos a dependência do parâmetro anisotrópico na transição de fase entre uma região com gap e outra sem gap. Nós também mostramos que o modelo é um caso especial de uma Hamiltoniana mais geral que possui três parâmetros livres. A susceptibilidade magnética em função da temperatura é obtida numericamente e sua dependência no parâmetro anisotrópico é determinada explicitamente. Uma comparação entre o gap de spin obtido através da curva de susceptibilidade magnética e aquele obtido das equações do ansatz de Bethe é feita e uma boa concordância encontrada. A conexão com alguns compostos é apresentada e mostramos que os nossos resultados ajustam bem a curva da susceptibilidade magnética dos compostos KCuCI3, CU2(C5H12N2hC14e (C5H12NhCuBr4. A seguir nós propomos dois tipos diferentes de modelos integráveis com impurezas. Mostramos em ambos os casos que uma transição de fase entre uma região com gap e outra sem gap ocorre para um valor crítico do acoplamento ao longo dos degraus. Além disso, a dependência das impurezas na transição de fase é determinada explicitamente. Em um dos modelos o gap diminui com o aumento da intensidade da impureza A. E, fixando a intensidade de impureza A, é observada uma redução do gap com o aumento da concentração de impurezas. Este resultado está qualitativamente de acordo com resultados experimentais.
Resumo:
Baseado na tecnologia de interligação de redes, este trabalho apresenta uma proposta de conexão de dois sistemas com processamento próprio com o intuito de troca de informações, utilizando a pilha de protocolos TCP/IP. Este sistema será empregado em ambientes de controle industrial, permitindo o envio de informações do servidor de dados para o cliente. Os dados são constituídos de leituras feitas em equipamentos de campo, apresentando ao cliente remoto, medições dos mais diversos tipos. Por outro lado, o cliente poderá enviar comandos aos equipamentos de campo visando o telecontrole. Como ponto de partida para a elaboração do trabalho prático, foi utilizado o ambiente de controle do sistema de potência da companhia energética do estado do Rio Grande do Sul (CEEE). Um microcomputador com um browser acessa, através de uma rede local, os equipamentos controlados, que poderão ser qualquer tipo de equipamento de campo empregado em subestações de energia elétrica, como disjuntores, transformadores ou chaves. Para permitir o acesso remoto de tais equipamentos, foi elaborado um servidor de dados constituído de um controlador de rede do tipo Ethernet e um microcontrolador de aplicação específica que se encarrega do processamento da pilha de protocolos. O controlador Ethernet utilizado é um circuito integrado dedicado comercial, que executa o tratamento dos sinais de nível físico e de enlace de dados conforme o padrão IEEE 802.2. O processador TCP/IP, enfoque principal deste trabalho, foi elaborado através da linguagem de programação C, e a seguir traduzido para o Java, que é o ponto de partida para a ferramenta SASHIMI, de geração da descrição em VHDL do microcontrolador de aplicação específica utilizado. O processador TCP/IP encarrega-se da aquisição de dados do equipamento de campo, do processamento da pilha de protocolos TCP/IP, e do gerenciamento do controlador Ethernet. A partir desta descrição VHDL, foi sintetizado o hardware do microcontrolador em um FPGA, que juntamente com o software aplicativo, também fornecido pela ferramenta utilizada, desempenha o papel de processador TCP/IP para o sistema proposto. Neste ambiente, então, o cliente localizado no centro de operação, acessa através de um browser o equipamento de campo, visando obter suas medições, bem como enviar comandos, destacando o aspecto bidirecional para a troca de dados e a facilidade de conexão de dois sistemas heterogêneos. Este sistema pretende apresentar baixo custo de aquisição e de instalação, facilidade de interconexão local ou remota e transparência ao usuário final.
Resumo:
Fotografias aéreas verticais de pequeno formato foram obtidas através de câmera fotográfica não-métrica a bordo de aeronave de pequeno porte, no ano de 1999, com o objetivo de se atualizar um conjunto de seis plantas cadastrais digitais de 1984, na escala 1:5.000, cobrindo a área urbana do município de Gramado, situado na região nordeste do Estado do Rio Grande do Sul, Brasil. As fotografias foram digitalizadas, armazenadas e georreferenciadas em um Sistema de Informações Geográficas. Posteriormente, foram digitalizados os perímetros das edificações e os limites dos bairros da área urbana nas plantas cadastrais digitais. Os dados atualizados das plantas cadastrais foram elaborados para a geração de análises temáticas e, portanto, não podem ser utilizados para a medição precisa das edificações mapeadas. Após sua digitalização, os polígonos das edificações foram estruturados topologicamente por meio do SIG utilizado, permitindo a geração automática de um centróide para cada edificação mapeada. A consulta ao banco de dados tornou possível o cálculo do número total e a localização dos centróides das edificações, para as duas datas estudadas. Os dados tabulados foram representados por um mapa temático da expansão da ocupação urbana, na escala de 1:25.000. Outros produtos obtidos no presente estudo foram cartas-imagem da área urbana (1:50.000), elaboradas a partir de imagens do satélite LANDSAT 7 ETM+, bem como mapas temáticos dos aspectos físicos e antrópicos dos bairros da área urbana (escalas 1:15.000 a 1:25.000). Com base nos dados obtidos, verificou-se um crescimento de 164, 6 % do número total de edificações e uma expansão da ocupação orientada para a região SE da área urbana, em função do maior crescimento do setor secundário e do número de loteamentos na região meridional da área urbana durante o período de 15 anos. Através da interpretação dos dados geográficos, foram elaboradas recomendações para o planejamento urbano de Gramado.
Resumo:
As redes ATM têm se constituído na solução tecnológica ideal para o desenvolvimento da RDSI-FL. O ATM foi desenvolvido para dar suporte, com altas velocidades e com garantia de qualidade, a uma ampla variedade de serviços. A demanda por serviços de comunicação de dados, em velocidades maiores do que as redes de pacotes atuais são capazes de oferecer, tem crescido rapidamente, estimulando o desenvolvimento da tecnologia ATM, que tem sido muito promissora, devida a sua flexibilidade e eficiência. Para dar suporte à comunicação de dados em redes ATM, foram desenvolvidas soluções, como a emulação de redes locais (LANE), a interconexão de redes locais (LAN) e metropolitanas (MAN), e o protocolo IP sobre ATM. O ATM utiliza multiplexação estatística (assíncrona) para inserir os dados nos canais de comunicação de forma otimizada. Esta técnica, permite atender uma quantidade maior de fontes heterogêneas sob num único canal, porém, pode causar congestionamento na rede. O uso da multiplexação estatística, aliada à necessidade de garantir níveis de qualidade diferentes, para cada tipo de serviço, torna necessária a adoção de uma combinação de técnicas de controle de tráfego e congestionamento. Com este propósito, foram desenvolvidos diversas funções e mecanismos, como, por exemplo, controle de acesso (CAC), controle dos parâmetros de uso (UPC), descarte seletivo de células e conformação de tráfego (TS), os quais necessitam conhecer as características do tráfego emitido pela fonte. Por esta razão, toda e qualquer conexão ATM está associada a um contrato de tráfego, que especifica as exigências do usuário, quanto à qualidade de serviço (QoS) a ser oferecida pela rede, através de um descritor de tráfego. O trabalho apresentado nesta dissertação, tem por objetivo propor uma metodologia capaz de discriminar um fluxo de células ATM arbitrário, visando a obter os parâmetros descritores de UPC do mesmo. A discriminação de tráfego é relevante à medida que todos os usuários de redes ATM necessitam, de alguma forma, determinar os parâmetros que caracterizam seu fluxo, para poder negociar o contrato de trafego. Infelizmente, a maioria das aplicações ATM, não tem condições prévias de fornecer dados sobre o comportamento do fluxo que geram. Para estas situações, estamos propondo um Discriminador de Tráfego ATM (DTA), que infere a partir de uma amostra inicial do fluxo um conjunto mais provável de parâmetros, os quais constituirão o descritor de tráfego da fonte (STD).
Resumo:
Neste trabalho utiliza-se como sistema dinâmico o circuito eletrônico que integra o sistema de equações acopladas de Rossler modificado. Este sistema possui uma nãolinearidade dada por uma função linear por partes e apresenta comportamento caótico para certos valores dos seus parâmetros. Isto e evidenciado pela rota de dobramento de período obtida variando-se um dos parâmetros do sistema. A caracterização experimental da dinâmica do sistema Rossler modificado e realizada através do diagrama de bifurcações. Apresenta-se uma fundamentação teórica de sistemas dinâmicos introduzindo conceitos importantes tais como atratores estranhos, variedades invariantes e tamb em uma análise da estabilidade de comportamentos assintóticos como pontos fixos e ciclos limites. Para uma caracterização métrica do caos, apresenta-se a definção dos expoentes de Lyapunov. São introduzidos também os expoentes de Lyapunov condicionais e transversais, que estão relacionados com a teoria de sincronizção de sistemas caóticos. A partir de uma montagem mestre-escravo, onde dois osciladores de Rossler estão acoplados unidirecionalmente, introduz-se a de nição de sincronização idêntica, sincronização de fase e variedade de sincronização. Demonstra-se a possibilidade de sincronização em uma rede de osciladores caóticos de Rossler, acoplados simetricamente via acoplamento de primeiros vizinhos. A rede composta por seis osciladores mostrou ser adequada pelo fato de apresentar uma rica estrutura espacial e, ao mesmo tempo, ser experimentalmente implementável. Além da sincronização global (osciladores identicamente sincronizados), obtém-se a sincronização parcial, onde parte dos osciladores sincronizam entre si e a outra parte não o faz. Esse tipo de sincronização abre a possibilidade da formação de padrões de sincronização e, portanto, exibe uma rica estrutura de comportamentos dinâmicos. A sincronização parcial e investigada em detalhes e apresentam-se vários resultados. A principal ferramenta utilizada na análise experimental e numérica e a inspeção visual do gráfico yi yj , fazendo todas as combinações entre elementos diferentes (i e j) da rede. Na análise numérica obtém-se como resultado complementar o máximo expoente de Lyapunov transversal, que descreve a estabilidade da variedade de sincronização global.
Resumo:
O comportamento de calcários gaúchos, como dessulfurantes, foi avaliado levando-se em consideração a influência das características estruturais dos calcinados e de seus precursores. Os materiais, na faixa granulométrica de 53-62µm, foram calcinados em uma termobalança em atmosfera de N2 (100%) ou de mistura N2 (85,2%) + CO2 (14,8%) e posteriormente, submetidos a mistura oxidante contendo dióxido de enxofre. As distribuições de tamanhos de poros (DTP) dos calcinados, mostraram-se dependentes da atmosfera de calcinação e do raio de grão do calcário precursor. A ordem de reatividade, estabelecida pelos calcinados estudados neste trabalho, não apresentou relação com a consideração de uma DTP ótima (maioria de poros acima de 50Å), não sendo portanto este critério válido para seleção de dessulfurantes. Para os calcinados de uma mesma amostra, obteve-se uma relação direta entre tamanho de grão do CaO (área superficial) e reatividade, sendo as trajetórias de reação definidas de maneira combinada entre as suas distribuições de tamanhos de poros e a forma como os poros estão localizados e conectados na estrutura. Entre materiais diferentes, calcinados sob as mesmas condições e que apresentam as mesmas características físicas e de distribuição, as trajetórias de reação foram bastante distintas, demonstrando que essas semelhanças físicas não correspondem a uma mesma capacidade de reação ao longo do tempo. Isto salientou uma possível influência das características intrínsecas de cada material, relacionadas à localização e conexão dos poros na estrutura, em sua capacidade dessulfurante. Entre os calcinados com semelhanças em suas DTP e propriedades físicas, tornou-se possível relacionar a ordem de reatividade ao raio de grão do calcário precursor (determinante da localização e da forma de conexão dos poros na estrutura), sendo os calcinados de precursores de menor raio de grão os mais reativos.
Resumo:
Os requisitos direcionam o desenvolvimento de software porque são cruciais para a sua qualidade. Como conseqüência tanto requisitos funcionais quanto não funcionais devem ser identificados o mais cedo possível e sua elicitação deve ser precisa e completa. Os requisitos funcionais exercem um papel importante uma vez que expressam os serviços esperados pela aplicação. Por outro lado, os requisitos não funcionais estão relacionados com as restrições e propriedades aplicadas ao software. Este trabalho descreve como identificar requisitos não funcionais e seu mapeamento para aspectos. O desenvolvimento de software orientado a aspectos é apontado como a solução para os problemas envolvidos na elicitação e modelagem dos requisitos não funcionais. No modelo orientado a aspectos, o aspecto é considerado o elemento de primeira ordem, onde o software pode ser modelado com classes e aspectos. As classes são comumente usadas para modelar e implementar os requisitos funcionais, já os aspectos são adotados para a modelagem e implementação dos requisitos não funcionais. Desse modo, é proposta a modelagem dos requisitos não funcionais através das fases do ciclo de vida do software, desde as primeiras etapas do processo de desenvolvimento. Este trabalho apresenta o método chamado FRIDA – From RequIrements to Design using Aspects, cujo objetivo é determinar uma forma sistemática para elicitar e modelar tanto os requisitos funcionais quanto os não funcionais, desde as fases iniciais do ciclo de desenvolvimento. Em FRIDA, a elicitação dos requisitos não funcionais é realizada usando-se checklists e léxicos, os quais auxiliam o desenvolvedor a descobrir os aspectos globais – utilizados por toda a aplicação – bem como, os aspectos parciais que podem ser empregados somente a algumas partes da aplicação. O próximo passo consiste na identificação dos possíveis conflitos gerados entre aspectos e como resolvê-los. No método FRIDA, a identificação e resolução de conflitos é tão importante quanto a elicitação de requisitos não funcionais, nas primeiras fases do ciclo de vida do software. Além disso, é descrito como usar a matriz de conflitos para automatizar esse processo sempre que possível. A extração dos aspectos e sua modelagem visual são características muito importantes, suportadas pelo método, porque elas possibilitam a criação de modelos que podem ser reutilizados no futuro. Em FRIDA, é demonstrado como transformar os requisitos em elementos da fase de projeto (classes e aspectos) e como traduzir esses elementos em código. Outra característica do método FRIDA é que a conexão entre diagramas, que pertencem a diferentes fases do processo de desenvolvimento do software, permite um alto nível de rastreabilidade. Em resumo, FRIDA requer que o desenvolvedor migre de uma visão puramente funcional para outra que contemple também os requisitos não funcionais.
Resumo:
A Automação Residencial é uma área em crescimento no mercado mundial. À medida que os avanços tecnológicos são incorporados aos dispositivos pertencentes ao ambiente residencial, e que estes se tornam mais disseminados, surgem necessidades para fabricantes e usuários. Para os fabricantes, é desejável maior capacidade de conexão e intercâmbio de dados entre os dispositivos e, conseqüentemente, padronização. Para os usuários, é desejável maior facilidade na utilização dos dispositivos e, principalmente, na configuração dos mesmos em ambientes dinâmicos, de forma a não requerer interação do usuário para a conexão e desconexão, característica das redes espontâneas. Grandes empresas têm unido esforços no desenvolvimento de novos padrões e uma das tendências observadas é o isolamento destas novas necessidades numa camada entre a aplicação e o sistema operacional, denominada middleware. Este trabalho compara duas tecnologias que se enquadram nos critérios acima: Jini, da Sun Microsystems e Universal Plug and Play (UPnP), de um consórcio de empresas liderado pela Microsoft. O estudo é feito através do desenvolvimento de um protótipo, da definição de um conjunto de métricas qualitativas e quantitativas, e da implementação de um conjunto de workloads para a análise comparativa entre elas. Os resultados obtidos são apresentados e analisados, contribuindo com subsídios para os interessados em conhecer melhor ou optar por uma delas. Por fim, são registradas algumas necessidades observadas que poderão servir como base para trabalhos futuros.
Resumo:
Este trabalho apresenta a proposta e a implementação de um sistema de gerência de energia para redes locais de computadores (Local Area Networks ou LANs). Desde sua introdução, no início dos anos 90, os mecanismos de gerência de energia para computadores têm contribuído de maneira significativa para a redução do consumo nos períodos de inatividade, mas podem ter seu efeito minimizado por uma série de fatores, dentre os quais destaca-se a conexão do equipamento a uma rede. Em linhas gerais, o objetivo do sistema proposto é, justamente, facilitar a gerência de energia em ambientes de rede. O funcionamento do sistema é baseado na aplicação de políticas de consumo definidas pelo administrador da rede. As políticas podem ser aplicadas em duas situações distintas: em horários pré-determinados (p. ex. depois do horário comercial), quando podem ajudar a reduzir o desperdício de energia, ou em resposta a alterações no fornecimento de energia, caso a rede seja protegida por no-breaks, quando a redução no consumo resulta em maior tempo de autonomia da fonte reserva (banco de baterias). As políticas são configuradas através de um mecanismo flexível, que permite não apenas desligar os equipamentos, mas colocá-los em estados intermediários de consumo e executar outros tipos de ações. A arquitetura do sistema é baseada no modelo SNMP (Simple Network Management Protocol) de gerência de redes. É composta, basicamente, de agentes, elementos de software que residem nos equipamentos da rede e detêm o conhecimento específico sobre suas características de consumo de eletricidade, e de um gerente, elemento central que contém a configuração das políticas de consumo e que é responsável pelo monitoramento e controle dos agentes. Gerente e agentes comunicam-se através do protocolo SNMP, trocando informações segundo uma base de informações (MIB) projetada especificamente para a gerência de energia. A ênfase da parte prática do trabalho está no gerente, que foi inteiramente implementado através da linguagem Java, utilizando bibliotecas disponíveis gratuitamente. Adicionalmente, foi implementado um agente-protótipo para a plataforma Windows, o que permitiu observar o sistema completo em execução. Os testes permitiram validar a praticabilidade da arquitetura e estimar o ganho potencial proporcionado pela utilização do sistema. São apresentadas medições que demonstram um aumento de até 6 vezes na autonomia do banco de baterias do no-break para uma configuração de rede pequena, utilizando o sistema para desligar automaticamente 90% dos computadores durante um corte no fornecimento externo. A economia decorrente da redução de consumo em horários de inatividade foi estimada em até R$0,63 por computador no período de um ano (tomando por base a tarifa média praticada no Brasil entre janeiro e maio de 2002).
Resumo:
A presente pesquisa investiga o acento secundário (AS) no português brasileiro (PB), especialmente na variedade falada na cidade de Porto Alegre, com base na análise fonológica de Collischonn (1994) e na análise acústica/perceptual de Moraes (2003 a). Adotamos a metodologia de análise de Moraes (2003 a), que consiste na gravação de frases lidas por locutores e posterior audição por falantes do português. Tendo por base o julgamento destes falantes, procuramos determinar a localização do acento secundário e verificar se ele se manifesta mais de uma vez num mesmo vocábulo. Nossos resultados apontam que, em geral, um acento secundário é percebido de forma consistente na 1a sílaba pretônica e que há manifestação de um acento secundário na 2a sílaba pretônica apenas em um número muito reduzido de palavras. Percebemos também indicativos para a incidência de mais de uma proeminência secundária por vocábulo.
Resumo:
Este trabalho tem por objetivo otimizar os parâmetros de nitretação a plasma para a formação de camadas nitretadas com propriedades tribológicas adequadas para a utilização em ponteiras de conexão utilizadas em “risers” de completação de poços de petróleo. Para atingir este objetivo, amostras de aço inoxidável endurecível por precipitação 17-4 PH foram nitretadas a plasma em um reator com mistura gasosa de 76%N2 e 24%H2 durante 4 horas. As temperaturas utilizadas no processo foram 400, 450, 480 e 550°C. As camadas nitretadas produzidas foram avaliadas quanto à morfologia, espessura, composição, dureza, resistência à corrosão e resistência ao desgaste. Os resultados demonstraram que as condições de nitretação utilizadas foram eficientes no endurecimento superficial das amostras. A utilização de temperatura elevada (550°C) não é adequada para a nitretação de aços inoxidáveis endurecíveis por precipitação 17-4 PH. A amostra nitretada a 450°C apresentou a melhor combinação de propriedades para aplicação nas ponteiras de “risers” de completação.
Resumo:
Neste trabalho é proposta uma classe de modelos paramétricos para estrutura a termo de taxa de juros (ETTJ) em que diferentes segmentos possam ter características próprias, porém não independentes, o que é condizente com a teoria de preferências por Habitat. O modelo baseia-se em Bowsher & Meeks (2006) onde a curva é determinada por um spline cúbico nas yields latentes, mas difere no sentido de permitir diferentes funções de classe C2 entre os segmentos, ao invés de polinômios cúbicos. Em particular usa-se a especi cação de Nelson & Siegel, o que permite recuperar o modelo de Diebold & Li (2006) quando não há diferenciação entre os segmentos da curva. O modelo é testado na previsão da ETTJ americana, para diferentes maturidades da curva e horizontes de previsão, e os resultados fora da amostra são comparados aos modelos de referência nesta literatura. Adicionalmente é proposto um método para avaliar a robustez da capacidade preditiva do modelos. Ao considerar a métrica de erros quadráticos médios , os resultados são superiores à previsão dos modelos Random Walk e Diebold & Li, na maior parte das maturidades, para horizontes de 3, 6 , 9 e 12 meses.
Resumo:
O objetivo principal deste trabalho é a criação de um modelo teórico para a mensuração do fluxo de caixa em risco (CFaR) em instituições não financeiras, e sua aplicação na indústria de óleo e gás. Através deste modelo a empresa deve ser capaz de observar, através de seu fluxo de caixa, a probabilidade de dispor ou não de recursos para honrar seus compromissos. Deve-se analisar os métodos utilizados para gerenciamento de risco (VaR, CFaR e EaR) e aplicar um modelo de CFaR. Após a aplicação desta métrica, pode-se analisar os resultados encontrados. Será utilizado como base para o modelo proposto um paper publicado no Jornal of Applied Corporate Finance intitulado “Exposure-Based Cash-Flow-at-Risk: An Alternative to VaR for Industrial Companies”. Foi observado que o CFaR vem ganhando mais popularidade na gestão de risco das grandes empresas, demonstrando a exposição ao risco destas empresas e viabilizando a uma melhor tomada de decisão como utilizar o hedge de forma mais eficiente.
Resumo:
O Sistema Hidrológico do Taim, que inclui o Banhado do Taim, insere-se em uma região de áreas alagáveis contínuas caracterizadas por banhados e lagoas de água doce, em uma dinâmica de baixo relevo entre o Oceano Atlântico e a Lagoa Mirim, litoral Sul do Rio Grande do Sul. Este sistema encontra-se associado a uma vasta área de monocultura de arroz irrigado. As alterações antropogênicas ou naturais dos níveis d’água no sistema podem afetar a estrutura das comunidades planctônicas associadas às lagoas e à vegetação macrofítica. O objetivo principal do presente trabalho foi caracterizar a estrutura da comunidade zooplanctônica e verificar sua variação horizontal e temporal num eixo formado por uma área aberta (livre de vegetação) e uma área vegetada por densos estandes de macrófitas, assim como verificar a relação das características limnológicas e climatológicas com estas comunidades de forma a contribuir com elementos para a definição de regras adequadas ao uso dos recursos hídricos desta área. O estudo foi conduzido numa lagoa rasa interna ao Banhado (Lagoa Jacaré), e na porção do Banhado do Taim adjacente à Lagoa. Foi definida uma transecção Banhado-Lagoa composta por três pontos de amostragem (Banhado, Interface e Lagoa). Amostras de água foram coletadas trimestralmente, ao longo de um ano (Agosto/2002 a Junho/2003), para a análise do zooplâncton e das características ambientais. A comunidade zooplanctônica esteve representada por um total de 85 espécies, dentre as quais 39 pertencem aos cladóceros, caracterizando-o como o grupo de maior riqueza específica. O Índice de Constância demonstrou como espécies constantes no eixo Banhado-Lagoa, os rotíferos Lecane leontina e Testudinella sp., e os cladóceros Ceriodaphnia richardi e Chydorus sphaericus. Os copépodos foram o grupo de maior abundância, representada pela dominância dos náuplios e copepoditos, pois os indivíduos adultos freqüentemente ocorreram em número reduzido. Agosto (inverno) foi o período com o maior número de indivíduos, com valores de densidade bastante acentuados em relação aos demais. O Banhado apresentou a maior densidade zooplanctônica, assim como os maiores valores de riqueza e diversidade específica. Este habitat revela-se como uma zona potencial de abrigo e manutenção da fauna zooplanctônica, enfatizando a importância da conservação dos ecossistemas de banhados. As flutuações do nível d’água demonstraram a maior correlação com a variação da comunidade zooplanctônica. A ocorrência de níveis d’água elevados permitiu ampla conexão entre os habitats e grande disponibilidade de nichos, contribuindo para a manutenção de elevada densidade, riqueza e diversidade zooplanctônica nos períodos com tais condições.