131 resultados para Avaliação de ativos - Modelo (CAPM)


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A pneumonia nosocomial é a principal causa de infecção nosocomial em unidades de tratamento intensivo e possui alta morbi/mortalidade. A incidência cumulativa varia, conforme os autores, entre limites amplos desde 8% até 51%, dependendo do tipo de paciente e do uso de instrumentação das vias respiratórias. Nos casos específicos das pneumonias de má resolução e da pneumonia associada à ventilação mecânica, o diagnóstico é problemático devido à ausência de uma padronização definitiva, decorrente não só da grande variabilidade fisiopatológica como também da pouca acurácia dos critérios clínicos, microbiológicos e radiológicos. Estes fatos ensejaram a utilização progressiva de técnicas invasivas sofisticadas para coleta de amostras respiratórias endobrônquicas. Entretanto, a validação dessas técnicas para uso sistemático depende ainda de estudos que avaliem não só o seu custo/benefício em cenários clínicos diversos como também a comparação de seu desempenho para o diagnóstico com um padrão-ouro histopatológico. Além disso, o rendimento das técnicas invasivas é freqüentemente limitado quando são aplicadas em pacientes sob antibioticoterapia, que constituem a maioria dos casos em unidades de cuidados intensivos. A otimização desses testes, discutindo suas indicações e avaliando sua capacidade técnica para a confirmação ou exclusão de pneumonia, é justificada pela necessidade da instituição precoce e correta do tratamento, pois disto resulta menor mortalidade, redução de custos e permanência no hospital. Entre os testes que podem auxiliar no diagnóstico encontra-se o exame direto do lavado broncoalveolar, que proporciona resultados precoces e úteis para a tomada de decisão, mas não suficientemente testados em diferentes situações clínicas ou experimentais. Com o objetivo de avaliar o rendimento diagnóstico do exame direto precoce e das culturas quantitativas obtido por lavado broncoalveolar, estudou-se sua utilização em um modelo experimental de pneumonia provocada através de inoculação bacteriana intrabrônquica em ratos. O estudo comparou a acurácia do exame direto e dos exames culturais em três grupos de animais: Grupo A com pneumonia pneumocócica (37 animais); Grupo P com pneumonia por P. aeruginosa (26 animais) e Grupo B controle (10 animais), utilizando a histopatologia dos pulmões como teste de referência para o diagnóstico. Os Grupos A e P foram ainda randomizados em dois subgrupos cada, para tratamento ou não com antibióticos, usando penicilina no grupo pneumococo e amicacina no grupo Pseudomonas. Como resultado, observou-se que nos animais com pneumonia e ausência de antibióticos a pesquisa de bactéria fagocitada (BIC) no exame direto mostrou um rendimento elevado para o diagnóstico, sendo superior ao das culturas quantitativas. No grupo com pneumonia pneumocócica a BIC mostrou: S:94,4% a 100%, E:100%, VPP:100% e VPN:100%; e as culturas quantitativas mostraram: S:77,8%, E:100%, VPP:100%, VPN:40%. Nos com pneumonia por Pseudomonas a BIC obteve: S: 69%, E:100%; VPP:100% e VPN:71,4%); e as culturas quantitativas mostraram valores muito baixos: S:28,6%, E:100%, VPP:100% e VPN:50%). Nos animais com pneumonia pneumocócica sob tratamento antibiótico havia uma queda acentuada de sensibilidade das culturas quantitativas (S:21%) e, em menor grau da BIC (S:57,9%), mas sem perda da especificidade de ambos os exames. Ao contrário, nos animais com pneumonias por Pseudomonas sob tratamento não havia alteração no rendimento dos dois exames, cujos resultados foram semelhantes aos dos animais sem tratamento. Não havia diferenças de leitura da BIC para o diagnóstico, contando a sua positividade em macrófagos ou em neutrófilos infectados. A avaliação global dos casos estudados, reunindo todos os grupos (tratados e não-tratados) em ambos os modelos de pneumonia, mostrou que a acurácia do exame direto, representado pela pesquisa da BIC, foi superior (66%) ao das culturas quantitativas (53%). As conclusões principais do estudo foram: 1) o exame direto do lavado broncoalveolar (LBA) mostrou-se um teste útil e de alto rendimento para o diagnóstico de pneumonia quando realizado na ausência de antibióticos; 2) o LBA feito na vigência de antibióticos efetivos para a pneumonia perde mais de 50% de sua acurácia, mas não é afetado quando o antibiótico for ineficaz ou houver resistência ao mesmo; 3) a pesquisa de BIC no LBA é um exame de resultado precoce, de alta especificidade e com melhor rendimento do que as culturas quantitativas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A contribuição dos radicais livres na hipertensão está relacionada com a produção do ânion radical superóxido e sua influência na ativação da enzima conversora da angiotensina (ECA). Os estrogênios têm um potencial antioxidante bastante relevante, uma vez que esse hormônio esteróide pode interferir no processo de iniciação da lipoperoxidação (LPO), atuando como “scavenger” de radicais livres. Foram objetivos deste trabalho avaliar a influência dos estrogênios na LPO, na capacidade antioxidante total (TRAP), na atividade das enzimas antioxidantes e no metabolismo do NO em coração e rins de ratas hipertensas. Procurou-se, ainda, avaliar a progressão temporal do estresse oxidativo sistêmico. Foram utilizadas 60 ratas Wistar, divididas em 4 grupos: normotenso controle (NCO), hipertenso controle (HCO), normotenso castrado (NCA) e hipertenso castrado (HCA). Foi induzida a hipertensão renovascular (modelo Goldblatt 2) por 21 dias e, concomitantemente, realizada a ovariectomia. Num grupo de animais, amostras de sangue foram coletadas no 3º, 10º e 20º dia. Em outros animais, os corações e rins foram homogeneizados, no 21° dia. Na avaliação sistêmica, a quimiluminescência (QL) aumentou do 3º para o 21º dia nos grupos HCO, NCA e HCA em relação ao grupo NCO. A atividade da superóxido dismutase (SOD) seguiu o mesmo padrão de oscilação. Os níveis de nitratos também aumentaram no 21° dia nos grupos HCO, NCA e HCA. No entanto, no 3° dia mostraram-se menores que os do grupo NCO.A atividade da catalase (CAT) mostrou-se aumentada no 10º dia nos grupos HCO e HCA em relação aos grupos NCO e NCA. Já o TRAP apresentou-se diminuído no 10° dia nos grupos HCO, NCA e HCA em relação ao 3° dia e ao grupo NCO. Nos tecidos, a LPO apresentou-se aumentada no grupo NCA em relação ao grupo NCO e o grupo HCA apresentou-se aumentado em relação aos grupos HCO e NCA . A atividade da SOD em homogeneizado cardíaco apresentou-se aumentada nos grupos hipertensos. A atividade da glutationa peroxidase (GPx) em tecido cardíaco apresentou-se aumentada no grupo HCO em relação aos grupos NCO e HCA. A atividade da CAT em homogeneizado cardíaco apresentou-se aumentada nos grupos HCO e NCA em relação ao grupo NCO. No rim a CAT apresentou-se aumentada nos grupos castrados. A atividade da glutationa S-transferase (GST), em coração e rins, apresentou-se aumentada com a hipertensão. O TRAP apresentou-se, em tecido cardíaco, diminuído no grupo HCO e aumentado no grupo HCA. No tecido renal, apenas o grupo NCA apresentou TRAP aumentado. O nível de nitratos em tecido cardíaco apresentou-se menor no grupo HCO e maior no grupo NCA em relação ao grupo NCO. O grupo HCA apresentou-se menor em relação ao grupo NCA. Nos homogeneizados de rins a SOD, a GPx e os nitratos não apresentaram diferenças significativas entre os grupos. Pode-se observar que tanto a hipertensão quanto a castração induziram um aumento de estresse oxidativo sistêmico que progride com o passar do tempo, assim como adaptações do sistema antioxidante enzimático e não enzimático. Nos tecidos, o estresse oxidativo é aumentado pela retirada dos estrogênios, efeito este potencializado quando concomitante à hipertensão. Os dados encontrados neste trabalho confirmam a ação antioxidante dos estrogênios.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Quantificação de incerteza e risco tem aplicação direta no projeto de limites de cava e na programação de produção. Pequenas variações nas condições de contorno de um projeto podem ter impacto significativo sobre o retorno final do mesmo na ordem de milhões de dólares. Preço de mercado do bem mineral, o custo de capital, taxas de atratividade, etc, são fatores usualmente testados para analisar a viabilidade de um empreendimento, porém, raramente é considerada a incerteza relacionada ao atributo geológico em questão. O propósito de um planejamento de lavra tem sido prover subsidio para o engenheiro de minas decidir sobre a capacidade de minerar determinadas unidades de lavra do depósito a partir de teores estimados. Salienta-se porém que existe, a partir dos dados amostrais, incertezas a respeito do modelo geológico que devem ser consideradas ao se projetar uma cava e desenvolver a lavra. A simulação geoestatistica tem a capacidade de produzir múltiplos modelos equiprováveis, os quais podem ser avaliados independentementecomo possíveis cenários do depósito mineral. Simulação condicional, ao contrário de técnicas de interpolação e estimativa, provê respostas para questões associadas a risco devido à variações nos teores do modelo geológico. Ao gerar múltiplos cenários tem-se acesso à probabilidade e conseqüentemente às variações de retorno financeiro e rotas de extração de minério de um projeto. o presente trabalho tem como objetivo a investigação de novas metodologias que contribuam para a construção de cenários de planejamento de lavra e avaliação do impacto provocado nestes pela incerteza fornecida a partir de modelos simulados. As respostas buscadas dentro da abordagem sugerida por esse trabalho, compreendem a definição de uma metodologia para controle e planejamento de lavra a médio e longo prazo por incorporação da flutuabilidade local associada ao minério, avaliando a sensibilidade do retorno financeiro e o traçado de lavra em relação ao método de geração do modelo geológico de teores. Para solucionar o problema em questão, sugere-se a geração de modelos estocásticos e a alimentação de múltiplos modelos selecionados por critérios considerados relevantes para a delimitação do espaço de incerteza. A aplicação de funções de transferência tais como mudança de suporte e seqüenciamento de produção sobre os modelos simulados é a chave para a obtenção de respostas a respeito do impacto sobre a lucratividade de um projeto. Ao alimentar à essas funções modelos equiprováveis que preservam as características estatísticas e a conectividade espacial dos dados amostrais mas que invariavelmente possuem diferentes distribuições de teores tem-se a dimensão em termos econômicos do risco associado à incerteza geológica. Foi confrontado o retorno financeiro produzido por modelos simulados e verificou-se para o caso especifico que os métodos de simulação geoestatistica empregados não produziram diferenças significativas quando comparados casos selecionados segundo os mesmos critérios. Porém, entre cenários extremos gerados pelo mesmo algoritmo de simulação foram verificadas desigualdades relevantes. Verificou-se também a transferência de minério entre diferentes classes de qualidade ao proceder-se com variações nas dimensões dos blocos de lavra.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O Resource Description Framework (RDF) é uma infra-estrutura, que possibilita a codificação, troca e reuso de metadata estruturado. Metadata é dados sobre dados. O termo refere a qualquer dado usado para ajudar a identificação, descrição e localização de recursos eletrônicos na rede. O RDF permite adicionar declarações, sinônimos e palavras que não estão presentes nos recursos, mas que são pertinentes a eles. Uma declaração RDF pode ser desenhada usando diagramas de arcos e nodos, onde os nodos representam os recursos e os arcos representam as propriedades nomeadas. O modelo básico consiste em recursos, propriedades e objetos. Todas as coisas sendo descritas pelas declarações RDF são chamadas de recursos. Um recurso pode ser uma página da Web inteira ou um elemento específico HTML ou XML dentro de um documento fonte. Uma propriedade é um aspecto específico, característica, atributo, ou relação usada para descrever um recurso. O objeto pode ser um outro recurso ou um literal. Estas três partes, juntas, formam uma declaração RDF. O resultado do parser para recursos com metadata RDF, é um conjunto de declarações referentes aquele recurso. A declaração destas propriedades e a semântica correspondente delas estão definidas no contexto do RDF como um RDF schema. Um esquema não só define as propriedades do recurso (por exemplo, título, autor, assunto, tamanho, cor, etc.), mas também pode definir os tipos de recursos sendo descritos (livros, páginas Web, pessoas, companhias, etc.). O RDF schema, provê um sistema básico de tipos necessários para descrever tais elementos e definir as classes de recursos. Assim, os recursos constituindo este sistema de tipos se tornam parte do modelo RDF de qualquer descrição que os usa. A geração de modelos RDF pode ser conseguida através de algoritmos implementados com linguagens de programação tradicionais e podem ser embutidos em páginas HTML, documentos XML e até mesmo em imagens. Com relação a modelos em imagens, servidores Web específicos são usados para simular dois recursos sobre o mesmo URI, servindo ora a imagem ora a descrição RDF. Uma alternativa para armazenar e manipular grande quantidade de declarações RDF é usar a tecnologia de banco de dados relacional. Abordagens para armazenar declarações RDF em banco de dados relacional foram propostas, mas todas elas mantêm modelos diversos de diferentes fontes. Critérios de avaliação como tempo de carga, proliferação de tabelas, espaço, dados mantidos e custo de instruções SQL foram definidos. Duas abordagens apresentaram resultados satisfatórios. Com uma nova abordagem proposta por este trabalho se obteve melhores resultados principalmente no aspecto de consultas. A nova proposta provê mecanismos para que o usuário faça seu próprio modelo relacional e crie suas consultas. O conhecimento necessário pelo usuário se limita em parte aos modelos mantidos e ao esquema RDF.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta pesquisa objetiva buscar parâmetros que permitam avaliar a eficiência relativa de uma instituição, assim considerada a administração pública direta, de forma a subsidiar as decisões do gestor atendendo ao princípio da eficiência insculpido no artigo 37, caput, da Constituição Federal, considerado o tema oportuno, haja vista a tramitação do projeto de reforma do Judiciário, reforma esta que não pode desconsiderar os princípios que regem a atuação do gestor público, entre eles o da eficiência. O objetivo central da pesquisa, então, foi a estruturação de um modelo de avaliação da eficiência relativa das Varas do Trabalho no Paraná, desdobrado em objetivos específicos. Para alcance de tais objetivos foi adotado o método de pesquisa operacional e, na busca da solução, optou-se pelo modelo matemático oferecido pela DEA – Análise Envoltória de Dados, mais as técnicas como a TGN – Técnica Grupo Nominal, combinada com a de brainstorming e o Método de Análise Hierárquica, para refinamento dos dados obtidos, num total de 14h de reunião, divididas em sete encontros, um a cada semana, com o Corregedor e ex-corregedores da Justiça do Trabalho no Paraná. Os resultados finais foram confirmados, ainda que tenham surpreendido aos profissionais da instituição onde se validou o modelo, através de entrevista semi-estruturada, ficando patente, entre outras situações, a de que o gestor público não se socorre de técnicas de gestão e, em muitas situações, em face do princípio da estrita legalidade, vê -se constrangido na ação em busca de melhor eficiência.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A abertura do mercado brasileiro de telecomunicações intensificou a competição entre as empresas operadoras, exigindo uma maior agilidade no processo de tomada de decisão para evitar a diminuição de suas fatias de participação neste mercado. Esta situação exige que as empresas busquem a utilização de Sistemas de Informação como o EIS que possam fornecer informações corretas e no momento oportuno. No caso das empresas operadoras de telefonia móvel celular, a necessidade da informação para tomada de decisão é ainda mais urgente em razão da forte competição verificada neste mercado, onde os clientes mudam freqüentemente de operadora a procura de melhores serviços ou preços mais acessíveis. O objetivo deste trabalho foi desenvolver e construir um protótipo de EIS em uma empresa operadora de telefonia móvel celular, avaliando seus efeitos sobre o processo de tomada de decisão. Admitiu-se como pressuposto básico nesta pesquisa que o uso de um EIS facilita o processo de tomada de decisão. O método de pesquisa utilizado foi pesquisa-ação. Inicialmente foram identificadas as decisões relevantes usualmente tomadas pelos executivos e também as informações necessárias para tomá-las. Em seguida foram priorizadas as informações levando em conta os objetivos da organização, definidos os fatores críticos de sucesso e identificados os indicadores de desempenho para monitoramento dos mesmos. Após isto, definiu-se o modelo conceitual do EIS e a sua construção e instalação na área da empresa escolhida para estudo. Finalmente o protótipo foi avaliado na tentativa de verificar o seu efeito sobre o processo de tomada de decisão. Os resultados da avaliação mostraram que o protótipo de EIS supriu as necessidades de informações dos executivos, atingindo as expectativas dos mesmos. Constatou-se que o processo de tomada de decisão ficou mais fácil com o uso do EIS, o que confirma o pressuposto de pesquisa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Relacionamento com fornecedores tem sido apontado como atividade estratégica para o futuro das organizações. A competição que se impõe sobre o mercado automotivo exige que esta relação seja de parceria entre cliente e fornecedores para a garantia de vantagem competitiva das organizações através da cadeia de fornecimento. Este trabalho apresenta um sistema de avaliação e monitoramento de fornecedores desenvolvido com base em requisitos de qualidade, entregas e custos, utilizando tecnologia de informação. O sistema foi aplicado sobre o grupo de fornecedores de uma organização do setor automotivo e seus resultados comparados com o sistema anteriormente utilizado pela empresa. Resultados iniciais da utilização do novo modelo de avaliação de fornecedores apresentaram níveis superiores em relação ao desempenho global dos fornecedores. Destaca-se ainda o papel da tecnologia de base de dados para avaliação do desempenho de fornecedores, que oferece suporte a área de suprimentos de materiais como informação estratégica para negociações com fornecedores. Esse sistema será testado durante os próximos três anos e após este período o sistema será sugerido a outras organizações da Holding Randon para formação do grupo de gestão de fornecedores.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A importância para a vida das cidades e os reflexos da implantação e operação de sistemas de transporte urbano sobre a sociedade justificam a necessidade de avaliar adequadamente o desempenho das organizações que prestam este serviço público. No entanto, os sistemas de avaliação utilizados apresentam limitações no que se refere a confiabilidade, coerência e estruturação dos indicadores o que, geralmente, restringe a medição do desempenho a apenas alguns atributos dos serviços prestados, num horizonte de curto prazo. Este trabalho apresenta uma abordagem para avaliação de desempenho no transporte urbano através de sistemas metroferroviários, buscando soluções que incluam não somente indicadores referentes aos aspectos financeiros e aos atributos do serviço, mas também medidas relacionadas a outras interferências da organização e suas atividades sobre o meio externo, bem como a sua capacidade de manutenção e melhoria deste desempenho ao longo prazo. O trabalho inicia pela apresentação das características institucionais e operacionais dos sistemas metroferroviários. Na seqüência, são analisados os modelos de avaliação de desempenho propostos por autores que estudaram o assunto, com destaque para o Balanced Scorecard, desenvolvido por Kaplan e Norton. Na busca de outras alternativas, o autor analisa instrumentos empregados por órgãos oficiais regulamentadores e fiscalizadores de serviços públicos e operadores de sistemas metroferroviários no Brasil. Após concluir que, entre os sistemas de avaliação analisados, o Balanced Scorecard é o que apresenta as características mais adequadas para estas empresas, o autor propõe a adoção de um modelo desenvolvido a partir da estrutura sugerida por Kaplan e Norton para organizações governamentais em e sem fins lucrativos. Finalizando, o modelo proposto é configurado e aplicado na TRENSURB, empresa que opera o sistema de trens urbanos da Região Metropolitana de Porto Alegre.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta pesquisa teve o objetivo de avaliar aspectos socioafetivos em um programa de abrigamento de crianças de zero a quatro anos desenvolvido por uma ONG. A metodologia adotada foi a descrição etnográfica. A teoria psicanalítica foi utilizada para interpretação do material referente às categorias emergentes identificadas. A forma como se apresenta o exercício das funções materna e paterna na situação de abrigamento foi observada. O trabalho de campo envolveu exame de documentos, observação participante e entrevistas semi-estruturadas, sendo empregada análise de conteúdo do material das entrevistas. O pensamento de Freud, Winnicott, Kohut e Lacan foi adotado como referencial teórico. O modelo de avaliação proposto atingiu seus objetivos, permitindo a formulação de sugestões para o aprimoramento das condições do abrigamento oferecido às crianças.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Avaliaram-se as características bioquímicas e histológicas de um modelo experimental de pancreatite aguda necrotizante induzida por doses excessivas de arginina em ratos. A amostra constituiu-se de 105 ratos machos, da linhagem Wistar. Aos ratos do grupo experimento (n=70) administrou-se injeção intraperitoneal de 500mg/100g de peso corporal de L-Arginina dividida em doses iguais e injetada em duas etapas com intervalos de 15 minutos. No grupo controle (n=35), foi injetado solução salina isotônica por via intraperitoneal. Foram analisados 10 animais do grupo experimento e 5 do grupo controle em cada período de 6 h, 12 h, 24 h, 48 h, 72 h, 7 dias, 14 dias. Coletou-se sangue para exames laboratoriais e o pâncreas para análise em microscopia óptica. Doze a vinte e quatro horas após a injeção de arginina, os níveis séricos de amilase e lipase alcançaram valores máximos, comparados àqueles dos ratos controle, decrescendo gradualmente, alcançou-os na 48a hora sendo significativamente menor após 72 horas e sete dias. A atividade enzimática retornou a níveis basais após 14 dias. Os valores de amilase e lipase estavam normais em todos os tempos avaliados nos animais do grupo controle. À microscopia óptica, após injeção de arginina, observou-se arquitetura pancreática histologicamente preservada no período de 6 horas e evidenciando-se em 24 horas, importante edema intersticial. Após quarenta e oito horas, a arquitetura acinar estava parcialmente destruída com necrose celular focal atingindo sua máxima severidade ao ultrapassar-se 72 horas. No sétimo dia a necrose acinar e o edema haviam diminuído, iniciando-se a regeneração da arquitetura acinar. Observou-se a reconstrução estrutural pancreática após 14 dias. No grupo controle não foram encontradas alterações pancreáticas. Demonstrou-se que a Pancreatite Aguda Experimental induzida por L-Arginina é um modelo não invasivo, tecnicamente acessível, que induz a necrose pancreática. Apresenta evolução autolimitada, com recuperação do parenquimatosa e função pancreática em duas semanas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O gerenciamento de recursos hídricos visa solucionar conflitos resultantes do uso intensivo da água, resultado do crescimento econômico e populacional, bem como assegurar que a água, recurso natural, finito e insubstituível à vida, se mantenha com oferta adequada e preserve as funções hidrológicas, biológicas e químicas dos ecossistemas. Um dos instrumentos de suporte para esta atividade é a “outorga de uso”, licença emitida pelo Estado, para que o usuário possa derivar determinados volumes de água para atender suas necessidades. Para a instrução de um processo de outorga, é necessário o cotejo de duas grandezas fundamentais: a disponibilidade hídrica (oferta) e a demanda. A demanda pode ser estimada a partir do cadastramento de usuários, dinâmico e contínuo no tempo. A disponibilidade hídrica varia no tempo e no espaço e é estimada a partir da avaliação do regime hidrológico da bacia. Esta é a informação básica de apoio à decisão e possui diversas interpretações, função de particularidades jurídicas, sociais, ambientais e econômicas de cada região. Sendo assim, o objetivo da presente tese se insere na fase inicial de instrução do processo de outorga (planejamento) e a contribuição se concentra na avaliação de aspectos técnicos e conceituais que embasam duas etapas relativas à (i) avaliação de disponibilidades hídricas para outorga, definidas por curvas de permanência de vazões e considerando os aspectos de variabilidade, sazonalidade, aleatoriedade e erros de estimativas; (ii) gerenciamento da outorga, considerando o equacionamento do problema de outorga para atendimento da demanda, bem como a avaliação da influência de diferentes aspectos no atendimento da demanda e na conservação ambiental, através do balanço hídrico do sistema. Para o desenvolvimento da pesquisa foram utilizados dados fluviométricos existentes das bacias dos rios Vacacaí, Vacacaí-Mirim, Pardo, Pardinho e Baixo Jacuí, pertencentes à bacia do rio Guaíba, no Rio Grande do Sul. Os estudos com simulação de outorga foram aplicados às seções de referência definidas em estudo anterior na bacia do Baixo Jacuí. Foram estudados dois critérios para obtenção da curva de permanência de vazões. O primeiro aceita a hipótese de que a curva representa o risco ou probabilidade no período da amostra. Neste critério, tradicionalmente utilizado em hidrologia, a freqüência de excedência é calculada pelo processamento conjunto de toda série histórica de vazões. O segundo critério aceita a hipótese de que cada ano é um evento hidrológico independente e prevê o cálculo de uma curva de permanência de vazões para cada ano. Neste critério, a disponibilidade hídrica é caracterizada pela média das curvas e respectivo intervalo de confiança, o qual representa a variabilidade interanual das vazões. Para consideração da sazonalidade, foi adotado o critério de cálculo das curvas de permanência obtidas para cada mês do ano. Para o cotejo entre a disponibilidade hídrica (vazão de referência) e a demanda, foi utilizado um modelo de balanço hídrico otimizado, considerando todo sistema e vazões de referência como disponibilidade, desenvolvido em planilha eletrônica. A aplicação do modelo, considerando a variabilidade e sazonalidade da disponibilidade hídrica e diferentes critérios de outorga, permitiu avaliar oito diferentes aspectos do problema de outorga e concluir pela adequabilidade da técnica para seu planejamento, bem como análise de cenários futuros e cenários de racionamento. A grande diferença entre os valores outorgados com as disponibilidades estimadas pelos critérios da série toda e do ano a ano, indica que ambos devem ser considerados no planejamento da outorga, embora não sejam concorrentes entre si e a escolha entre eles reflita o risco a ser selecionado pelos planejadores para a outorga. Posteriormente, foi realizada uma análise do desempenho do modelo de proporção de áreas e de uma versão modificada deste, para transferência de informações fluviométricas de uma seção com dados para outra sem, a partir de uma pequena amostragem no local. Os resultados mostraram que o modelo modificado é uma técnica potencialmente mais adequada, para a síntese de informações em locais com poucos dados, do que a simples proporção de áreas e de técnicas de regionalização. Isso porque consegue sintetizar a influência de particularidades relativas a fatores antropogênicos, geomorfológicos e pedológicos. Foram realizadas, também, simulações de verificação das conseqüências ambientais das outorgas planejadas com o modelo otimizado, que mostraram que o critério de outorga, baseado em vazões de referência, é pouco agressivo ao ambiente. Isso devido à fraca influência na alteração do padrão de pulsos hidrológicos dos rios, devendo-se, porém, tomar cuidado quando do seu uso em sistemas sujeitos a obras de regularização.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

A partir de uma base de dados de ações da Telemar S.A., do período de 21/09/1998 a 21/10/2002, e de opções de 02/10/2000 a 21/10/2002, foi avaliado qual o previsor que prevê com maior precisão a volatilidade futura: o implícito ou o estatístico. A volatilidade implícita foi obtida por indução retroativa da fórmula de Black-Scholes. As previsões estatísticas da volatilidade foram obtidas pelos modelos de média móvel ponderada igualmente, modelo GARCH, EGARCH e FIGARCH. Os resultados das regressões do conteúdo de informação revelam que a volatilidade implícita ponderada possui substancial quantidade de informações sobre a volatilidade um passo à frente, pois apresenta o maior R2 ajustado de todas as regressões. Mesmo sendo eficiente, os testes indicam que ela é viesada. Porém, a estatística Wald revela que os modelos EGARCH e FIGARCH são previsores eficientes e não viesados da variação absoluta dos retornos da Telemar S.A. entre t e t + 1, apesar do R2 um pouco inferior a volatilidade implícita. Esse resultado a partir de parâmetros baseados em dados ex-post, de certo modo refuta a hipótese de que as opções possibilitam melhores informações aos participantes do mercado sobre as expectativas de risco ao longo do próximo dia Nas regressões do poder de previsão, que testam a habilidade da variável explicativa em prever a volatilidade ao longo do tempo de maturidade da opção, os resultados rejeitam a hipótese da volatilidade implícita ser um melhor previsor da volatilidade futura. Elas mostram que os coeficientes das volatilidades implícitas e incondicionais são estatisticamente insignificantes, além do R2 ajustado ser zero ou negativo. Isto, a princípio, conduz à rejeição da hipótese de que o mercado de opções é eficiente. Por outro lado, os resultados apresentados pelos modelos de volatilidade condicional revelam que o modelo EGARCH é capaz de explicar 60% da volatilidade futura. No teste de previsor eficiente e não viesado, a estatística Wald não rejeita esta hipótese para o modelo FIGARCH. Ou seja, um modelo que toma os dados ex-post consegue prever a volatilidade futura com maior precisão do que um modelo de natureza forward looking, como é o caso da volatilidade implícita. Desse modo, é melhor seguir a volatilidade estatística - expressa pelo modelo FIGARCH, para prever com maior precisão o comportamento futuro do mercado.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O surgimento de novas aplicações que utilizam o protocolo HTTP nas suas transações e a crescente popularidade da World Wide Web (WWW) provocaram pesquisas pelo aumento do desempenho de servidores Web. Para tal, uma das alternativas propostas neste trabalho é utilizar um conjunto de servidores Web distribuídos que espalham a carga de requisições entre vários computadores, atuando como um só associado a uma estratégia de replicação de conteúdo. Um dos problemas centrais a ser resolvido em servidores Web distribuídos é como manter a consistência das réplicas de conteúdo entre os equipamentos envolvidos. Esta dissertação apresenta conceitos fundamentais envolvendo o tema replicação de conteúdo em servidores Web distribuídos. São mostrados detalhes sobre arquitetura de servidores Web distribuídos, manutenção da consistência em ambientes de servidores Web distribuídos, uso de replicação e formas de replicação. Além disso, são citados alguns trabalhos correlatos ao propósito de manter réplicas consistentes em ambientes de servidores Web distribuídos. Este trabalho tem por objetivo propor um modelo de manutenção da consistência de conteúdo em servidores Web distribuídos com características de transparência e autonomia. O modelo, denominado One Replication Protocol for Internet Servers (ORPIS), adota uma estratégia de propagação otimista porque não existe sincronismo no envio das atualizações para as réplicas. Este trabalho apresenta os principais componentes tecnológicos empregados na Web, além dos problemas causados pela escalabilidade e distribuição inerentes a esse ambiente. São descritas as principais técnicas de aumento de desempenho de servidores Web que atualmente vêm sendo utilizadas. O modelo ORPIS é descrito, sendo apresentados seus pressupostos, elencados seus componentes e detalhados os seus algoritmos de funcionamento. Este trabalho dá uma visão geral sobre a implementação e os testes realizados em alguns módulos do protótipo do modelo, caracterizando o ambiente de desenvolvimento do protótipo e detalhes da implementação. São enumerados os atributos e métodos das classes do protótipo e definidas as estruturas de dados utilizadas. Além disso, apresentam-se os resultados obtidos da avaliação funcional dos módulos implementados no protótipo. Um ponto a ser salientado é a compatibilidade do modelo ORPIS aos servidores Web existentes, sem a necessidade de modificação em suas configurações. O modelo ORPIS é baseado na filosofia de código aberto. Durante o desenvolvimento do protótipo, o uso de software de código aberto proporcionou um rápido acesso às ferramentas necessárias (sistema operacional, linguagens e gerenciador de banco de dados), com possibilidade de alteração nos códigos fonte como uma alternativa de customização.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nos ultimos anos, com a crescente popularização das redes de computadores baseadas no protocolo IP, desde pequenas redes até metropolitanas começaram a se agrupar e a fazer do que hoje se conhece como a rede mundial de computadores.Apesar dos benefícios de comunicação e troca de informação da Internet, esse feômeno global também trouxe problemas de segurança, pois a origem e estrutura dos protocolos utilizados na comunicação entre as diversas máquinas limitam as possibilidades de prevenir, identificar ou detectar possíveis ataques ou intrusos. Assim, várias ferramentas surgiram para prevenir e auxiliar na tarefa de identicar problemas de segurança nas redes como firewalls, sniffers e sistemas de detecção de intrusão. Apesar dos benefícios trazidos por essas novas tecnologias, surgiram muitas dúvidas referentes a segurança que esses recursos proporcionam. Afinal, o desenvolvimento e validação desses sistemas são procedimentos bastante complexos e, freqüentemente, esses sitemas têm se tornado o alvo primário de um atacante. O resultado disso, não raramente, é uma falsa noção de segurança devido à utilização inadequada desses mecanismos, o que é, normalmente, mais prejudicial do que a simples inexistência de segurança em uma organização, mas cujas falhas são conhecidas por seus administradores. A realização de testes para verificação da segurança de uma organização é uma atividade fundamental a fim de alcançar um ambiente operacional seguro e de verificar a correta aplicação dos requisitos de segurança de uma organização.O uso de testes permite a uma empresa verificar com precisão a postura de segurança utilizada em seus sistemas ao mesmo tempo em que permite visualizar a sua rede da mesma maneira que um atacante a visualizaria. Ao visualizar a rede como atacante, pode-se verificar com que facilidade obtém-se informações da rede, quais suas fragilidades e a dificuldade que se tem para invadí-la. Assim, obtém-se uma visão mais realista da segurança de uma organização. Além de técnicas para a avaliação, é muito importante que se possua ferramentas para a realização desses testes. Assim, é possível automotizar a realização de testes e verificar com maior facilidade a existência de problemas em uma rede. A existência de ferramentas que testem sistemas de segurnaça é extremamente importante e necessária, pois, afinal, a segurança de toda uma rede pode depender fortemente de algum desses sistemas. Este trabalho apresenta as técncias existentes para a injecção de falhas visando verificar as que são mais eficientes para a valiação de sistemas de segurança de rede. Adicionalmente são apresentadas algumas técnicas para o teste de mecanismos de segurança e algumas ferramentas existentes para a realizão de tais testes. A partir desses estudos, é apresentado um modelo de ferramenta adequando as funções de um sistema de injeção de falhas ao teste de mecanismos de segurança em rede. Um protótipo essa ferramenta foi desenvolvido e é apresentado neste trabalho. Esse protótipo permite o envio e o recebimento de pacotes da pilha TCP/IP, podendo testar problemas em protocolos e sistemas utilizados na rede. E, através da utilização de plug-ins, permite que diversos tipos de ataque mais sofisticados possam ser realizados.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O mercado financeiro nacional vem experimentando mudanças significativas a partir da implantação do novo padrão monetário em 1994. Como conseqüência, os ganhos do sistema bancário, decorrentes do floating foram reduzidos, obrigando os bancos a expandirem suas carteiras de empréstimos que demandam esforços em medir e administrar o risco de crédito. Valendo-se de indicadores econômicofinanceiros e variáveis, o presente estudo visa avaliar a eficácia desses indicadores e variáveis utilizados por uma instituição financeira nacional no processo de concessão de crédito a empresas do setor industrial da região sul do Brasil. A metodologia do estudo propõe inicialmente uma análise estatística dos dados através da Análise da Regressão Logística, procedimentos – enter e stepwise. Concluído o teste de um modelo de previsão de insolvência empresarial, verifica-se quais são os indicadores e variáveis mais significativos e que proporcionam informações valiosas sobre a saúde financeira das empresas, revelando uma possível tendência ao desequilíbrio e a probabilidade à insolvência, levando-se em conta também como informação no gerenciamento do risco de crédito. O estudo mostrou que as variáveis que relacionam a liquidez seca e o saldo de tesouraria / necessidade de capital de giro apresentaram-se como os mais significativos dos sintomas de insolvência.