992 resultados para Injeção de gás
Resumo:
Objectif de l’étude : Estimer l'association entre la position socioéconomique et l'utilisation des médicaments psychotropes dans cinq populations différentes chez les personnes âgées de 65-74 ans. Méthode : L'échantillon d'étude était composé de 1995 personnes avec des données issues de la première vague de collecte de 2012 faite par l’International Mobility in Aging Study (IMIAS). Il se composait de 401 participants de Saint- Hyacinthe (Québec), 398 de Kingston (Ontario), 394 personnes âgées de Tirana (Albanie), 400 de Manizales (Colombie) et 402 de Natal (Brésil). Tous les médicaments psychotropes consommés pendant les 15 derniers jours ont été identifiés au cours d'une visite à domicile et codés selon la classification ATC. Les médicaments psychotropes inclus étaient les anxiolytiques, sédatifs et hypnotiques (ASH), les antidépresseurs (ADP) et les analgésiques/antiépileptiques/antiParkinson (AEP). Les associations entre la prévalence de la consommation des médicaments psychotropes et l'éducation, le revenu et l’occupation ont été estimés avec des ratios de prévalence (RP) obtenus en ajustant une régression de Poisson et en utilisant le modèle comportemental de Andersen et Newman sur l'utilisation des services de santé et en contrôlant les besoins (les maladies chroniques et la dépression), les facteurs prédisposants (âge et sexe) ainsi que les facteurs facilitants (en utilisant le site d'étude en tant que mandataire des facteurs lié au système de santé et à l'environnement). Résultats : Les personnes âgées vivant dans les sites canadiens consommaient plus de médicaments psychotropes que celles vivant dans les sites à l'extérieur du Canada, elles consommaient moins d’ASH à Manizales et ne consommaient pas d’ADP en Albanie. Les inégalités socioéconomiques varient selon les sites. Dans les sites canadiens, le faible niveau socioéconomique était associée à une plus grande consommation de médicaments psychotropes : en particulier, les personnes à faible niveau d’instruction consommaient plus d’antidépresseurs et celles à faible revenu consommaient plus d’AEP. Dans les sites de recherche d'Amérique latine, les personnes âgées de niveau d’instruction et de revenu élevé consommaient plus antidépresseurs et celles avec des occupations manuelles consommaient plus d’analgésiques/antiépileptiques/antiParkinson. À Tirana (Albanie), il n'y avait pas de consommation de médicaments antidépresseurs, mais la consommation d’ASH était plus élevée chez les personnes à faible revenu. Les analyses multivariées du modèle final cache les différences entre les sites qui se sont révélées dans les analyses spécifiques au niveau du Canada, de l’Amérique Latine et d’Albanie. Conclusion : Il existe des inégalités socioéconomiques liées à la consommation des médicaments psychotropes chez les personnes âgées. Ces inégalités varient selon les sites. L'utilisation des médicaments psychotropes était plus fréquente chez les personnes les moins instruites et les plus pauvres au Canada alors que l'inverse était vrai dans les sites d'Amérique latine. L'Albanie était caractérisée par une absence de consommation d'antidépresseurs alors qu’il y avait une plus grande utilisation des anxiolytiques, sédatifs et hypnotiques dans les groupes à faible revenu.
Resumo:
Este estudo procura investigar possíveis associações entre as experiências de flow e os fenómenos de mentoria e liderança. Procura-se identificar as características e benefícios de experiências de flow e de relações de mentoria e liderança, percebidos pelos colaboradores de quatro empresas de Injeção de Plásticos da Marinha Grande. Identificam-se as funções de mentoria, os estilos de liderança transacional, transformacional e servidora e os componentes de flow entre estes colaboradores. Para a medição dos estilos de liderança foram utilizados os instrumentos desenvolvidos por Avolio e Bass (2004) e Dennis (2004). Para as funções das relações de mentoria, definidas por Ragins e Kram (2007), o instrumento desenvolvido por Noe (1988). Para os componentes observados em experiências de flow, o instrumento desenvolvido por Jackson e Ecklund (2002). Apoiado nos instrumentos referidos foi aplicado um questionário na recolha dos dados para este estudo. Foram encontradas influências moderadas e fortes entre os estilos de liderança, as funções de mentoria e os componentes de uma experiência de flow.
Resumo:
Elastic scattering angular distributions of (16)O + (12)C in the center of mass energy range from 8.55 MeV to 56.57 MeV have been analyzed considering the effect of the exchange of an alpha particle between projectile and target leading to the same nuclei of the entrance channel (elastic-transfer). An alpha particle spectroscopic factor for the ground state of the (16)O was determined. (C) 2011 Elsevier B.V. All rights reserved.
Resumo:
A perda do desempenho de uma edificação está associada ao aparecimento de patologias. A escolha de uma adequada terapia para os problemas encantrados, depende de um diagnóstico preciso do caso. A fissuração do concreto é alvo deste trabalho, por ser ela uma das manifestacoes patológicas mais incidentes nas edificacões, tanto a nível nacional como mundial. Nesse trabaho os diversos tipos de fissuras verificadas no concreto são agrupadas em ativas e passivas. Apresenta-se,H ainda, os materiais e técnicas de recuperacão para corrigir as fissuras dos dois grupos. Entre as soluções mais adotadas para recuperar as problemas patológicos, as que utilizam sistemas de base epóxi possuem destaque. O trabalho faz uma discussão sobre os fatores que influenciam o desempenho de sistemas epóxi destinados à injeção de fiissuras passivas do concreto e apresenta ensaios que podem ser realizados para garantir o sucesso da técnica. Ao final, apresenta um exemplo de avaliação de sistemas epóxi, encontradas no mercado nacional, destinados à injecão de fissuras e uma análise dos resultados obtidos.
Resumo:
O presente trabalho realiza uma validação experimental, através da técnica de injeção de falhas por software, de sistemas de informações que utilizam gerenciadores de banco de dados distribuídos comerciais. Estes experimentos visam a obtenção de medidas da dependabilidade do SGBD utilizado, levantamento do custo de seus mecanismos de tolerância a falhas e a real aplicabilidade de SGBDs comerciais em sistemas de missão crítica. Procurou-se avaliar e validar as ferramentas de injeção de falhas utilizadas, no caso específico deste trabalho a ComFIRM e o FIDe. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho. Em seguida são apresentadas algumas ferramentas de injeção de falhas em sistemas distribuídos, bem como os modelos de falhas em banco de dados distribuídos. São analisados alguns estudos de aplicação de ferramentas de injeção de falhas em bancos de dados distribuídos. Concluída a revisão bibliográfica é apresentado o modelo de software e hardware que foi implementado, destacando o gerador de cargas de trabalho GerPro-TPC e o gerenciador de injeções e resultados GIR. O GerPro-TPC segue as especificações TPC-c para a simulação de um ambiente transacional comercial padrão e o GIR realiza a integração das ferramentas de injeção de falhas utilizadas, bem como a elaboração do cenário de falhas a injetar e a coleta dos resultados das falhas injetadas. Finalmente são descritos os experimentos realizados sobre o SGBD PROGRESS. São realizados 361 testes de injeções de falhas com aproximadamente 43.000 falhas injetadas em experimentos distintos. Utiliza-se dois modelos de falhas: um focado em falhas de comunicação e outro em falhas de hardware. Os erros resultantes das falhas injetadas foram classificados em erros ignorados/mascarados, erros leves, erros graves e erros catastróficos. Dos modelos de falhas utilizados as que mais comprometeram a dependabilidade do SGBD foram as falhas de hardware. As falhas de comunicação somente comprometeram a disponibilidade do sistema alvo.
Resumo:
Foram analisados espectros óticos de fenda longa de 29 galáxias que hospedam núcleos ativos (AGNs), sendo 6 galáxias Seyfert 1, 18 galáxias Seyfert 2, 4 Rádio-galáxias de linhas estreitas (NLRG) e 1 Rádio-galáxia de linhas largas (BLRG). Estas galáxias apresentam emissão por gás de alta excitação que se estende em alguns casos a 10 kpc do núcleo. O objetivo do presente trabalho consiste em estudar e caracterizar as propriedades físicas da região estendida de linhas estreitas (ENLR) destes objetos bem como propriedades da fonte central. A distribuição radial de parâmetros que caracterizam o gás emissor em cada galáxia, tais como brilho superficial das linhas de emissão, densidade do gás, massa, extinção e excitação são obtidos. Estes valores característicos são comparados entre as diferentes classes de atividade nuclear presentes em nossa amostra, bem como às propriedades de galáxias normais com o mesmo tipo de Hubble quando possível. Nós encontramos que a massa de gás ionizado é consistente com a hipótese de que o gás é “originado” na fotoionização pela fonte central das nuvens de HI préexistentes na galáxia hospedeira. Os valores observados das razões entre as linhas estreitas de emissão são comparados com os obtidos através de modelos de fotoionização gerados com o código MAPPINGS Ic, obtendo os parâmetros do modelo – densidade, índice espectral da distribuição de energia e da metalicidade do gás – que melhor reproduzem as observações. Observamos que a variação da abundância química do gás é necessária para explicar o espalhamento nos valores observados. Adicionalmente, comparamos os valores observados com os obtidos com modelos de choques gerados por Dopita & Sutherland. Investigamos também a influência da emissão proveniente de regiões HII ao espectro observado – a qual concluímos ser importante particularmente nas regiões emissoras mais distantes do que 2 kpc do núcleo. Nós determinamos a luminosidade ionizante da fonte central nos AGNs usando a aproximação de que as nuvens de gás são limitadas por radiação, e obtivemos os correspondentes valores para o fator de cobertura do gás. Esta luminosidade ionizante foi então comparada com a luminosidade observada em raios-X na banda 2 –10 keV, através de aproximações para a distribuição espectral de energia (SED). Para 9 galáxias Seyfert 2 a luminosidade observada está disponível, e verificamos que nosso método recupera a luminosidade do AGN em raios-X – assim como obtida dos dados do satélite ASCA – bem como identifica os 3 casos Compton espessos. Por fim, investigamos a natureza do contínuo infravermelho (IR) médio e distante – comparandose a luminosidade observada no IR, calculada a partir dos fluxos IRAS, com a luminosidade predita para um toro que envolve a fonte central absorvendo a radiação incidente e re-emitindo esta no infravermelho. Encontramos que a luminosidade observada no IR é consistente com a luminosidade predita para o torus.
Resumo:
Nos ultimos anos, com a crescente popularização das redes de computadores baseadas no protocolo IP, desde pequenas redes até metropolitanas começaram a se agrupar e a fazer do que hoje se conhece como a rede mundial de computadores.Apesar dos benefícios de comunicação e troca de informação da Internet, esse feômeno global também trouxe problemas de segurança, pois a origem e estrutura dos protocolos utilizados na comunicação entre as diversas máquinas limitam as possibilidades de prevenir, identificar ou detectar possíveis ataques ou intrusos. Assim, várias ferramentas surgiram para prevenir e auxiliar na tarefa de identicar problemas de segurança nas redes como firewalls, sniffers e sistemas de detecção de intrusão. Apesar dos benefícios trazidos por essas novas tecnologias, surgiram muitas dúvidas referentes a segurança que esses recursos proporcionam. Afinal, o desenvolvimento e validação desses sistemas são procedimentos bastante complexos e, freqüentemente, esses sitemas têm se tornado o alvo primário de um atacante. O resultado disso, não raramente, é uma falsa noção de segurança devido à utilização inadequada desses mecanismos, o que é, normalmente, mais prejudicial do que a simples inexistência de segurança em uma organização, mas cujas falhas são conhecidas por seus administradores. A realização de testes para verificação da segurança de uma organização é uma atividade fundamental a fim de alcançar um ambiente operacional seguro e de verificar a correta aplicação dos requisitos de segurança de uma organização.O uso de testes permite a uma empresa verificar com precisão a postura de segurança utilizada em seus sistemas ao mesmo tempo em que permite visualizar a sua rede da mesma maneira que um atacante a visualizaria. Ao visualizar a rede como atacante, pode-se verificar com que facilidade obtém-se informações da rede, quais suas fragilidades e a dificuldade que se tem para invadí-la. Assim, obtém-se uma visão mais realista da segurança de uma organização. Além de técnicas para a avaliação, é muito importante que se possua ferramentas para a realização desses testes. Assim, é possível automotizar a realização de testes e verificar com maior facilidade a existência de problemas em uma rede. A existência de ferramentas que testem sistemas de segurnaça é extremamente importante e necessária, pois, afinal, a segurança de toda uma rede pode depender fortemente de algum desses sistemas. Este trabalho apresenta as técncias existentes para a injecção de falhas visando verificar as que são mais eficientes para a valiação de sistemas de segurança de rede. Adicionalmente são apresentadas algumas técnicas para o teste de mecanismos de segurança e algumas ferramentas existentes para a realizão de tais testes. A partir desses estudos, é apresentado um modelo de ferramenta adequando as funções de um sistema de injeção de falhas ao teste de mecanismos de segurança em rede. Um protótipo essa ferramenta foi desenvolvido e é apresentado neste trabalho. Esse protótipo permite o envio e o recebimento de pacotes da pilha TCP/IP, podendo testar problemas em protocolos e sistemas utilizados na rede. E, através da utilização de plug-ins, permite que diversos tipos de ataque mais sofisticados possam ser realizados.
Resumo:
O presente trabalho tem como objetivo estabelecer uma rota alternativa para obtenção de ímãs de Fe-Si pelo processo de injeção de pós metálicos. Utilizando uma matéria-prima de custo mais baixo do que a tradicional e o processo de Mecano Síntese, deseja-se obter um ímã de baixo custo e boas propriedades magnéticas.
Resumo:
O presente trabalho explora a aplicação de técnicas de injeção de falhas, que simulam falhas transientes de hardware, para validar o mecanismo de detecção e de recuperação de erros, medir os tempos de indisponibilidade do banco de dados após a ocorrência de uma falha que tenha provocado um FUDVK. Adicionalmente, avalia e valida a ferramenta de injeção de falhas FIDe, utilizada nos experimentos, através de um conjunto significativo de testes de injeção de falhas no ambiente do SGBD. A plataforma experimental consiste de um computador Intel Pentium 550 MHz com 128 MB RAM, do sistema operacional Linux Conectiva kernel versão 2.2.13. O sistema alvo das injeções de falhas é o SGBD centralizado InterBase versão 4.0. As aplicações para a carga de trabalho foram escritas em VFULSWV SQL e executadas dentro de uma sessão chamada LVTO. Para a injeção de falhas foram utilizadas três técnicas distintas: 1) o comando NLOO do sistema operacional; 2) UHVHW geral no equipamento; 3) a ferramenta de injeção de falhas FIDe, desenvolvida no grupo de injeção de falhas do PPGC da UFRGS. Inicialmente são introduzidos e reforçados os conceitos básicos sobre o tema, que serão utilizados no decorrer do trabalho e são necessários para a compreensão deste estudo. Em seguida é apresentada a ferramenta de injeção de falhas Xception e são também analisados alguns experimentos que utilizam ferramentas de injeção de falhas em bancos de dados. Concluída a revisão bibliográfica é apresentada a ferramenta de injeção de falhas – o FIDe, o modelo de falhas adotado, a forma de abordagem, a plataforma de hardware e software, a metodologia e as técnicas utilizadas, a forma de condução dos experimentos realizados e os resultados obtidos com cada uma das técnicas. No total foram realizados 3625 testes de injeções de falhas. Com a primeira técnica foram realizadas 350 execuções, com a segunda técnica foram realizadas 75 execuções e com a terceira técnica 3200 execuções, em 80 testes diferentes. O modelo de falhas proposto para este trabalho refere-se a falhas de crash baseadas em corrupção de memória e registradores, parada de CPU, aborto de transações ou reset geral. Os experimentos foram divididos em três técnicas distintas, visando a maior cobertura possível de erros, e apresentam resultados bastante diferenciados. Os experimentos com o comando NLOO praticamente não afetaram o ambiente do banco de dados. Pequeno número de injeção de falhas com o FIDe afetaram significativamente a dependabilidade do SGBD e os experimentos com a técnica de UHVHW geral foram os que mais comprometeram a dependabilidade do SGBD.
Resumo:
A melhoria de produtos e processos industriais pode ser realizada utilizando-se métodos de otimização experimental. Este trabalho apresenta um método estruturado para otimização envolvendo variáveis relacionadas com qualidade, comumente utilizadas, e variáveis que descrevem a confiabilidade do produto. O interesse em particular, está em sistematizar uma forma apropriada de determinar o prazo de garantia de produtos, baseado em testes de degradação acelerados. Para atingir este propósito utiliza-se projeto de experimentos conjuntamente com técnicas de avaliação sensorial, utilizada para medir o grau de degradação das amostras provindas dos testes de confiabilidade acelerados. O método é ilustrado com um estudo de caso realizado num produto fabricado em injeção de plástico. No exemplo do estudo de caso, deseja-se modelar a garantia de um piso plástico utilizado, na maternidade, para criação de suínos. Até o momento da realização da análise ocorriam reclamações de problemas com o produto dentro do prazo e garantia. O principal problema era a delaminação do produto devida a intensa fucção entre os cascos do animal e o piso. Um número elevado de reclamações durante o prazo de garantia levou ao desenvolvimento de uma nova composição do piso; o método proposto aqui é utilizado para determinar um prazo de garantia apropriado para produtos novos.
Resumo:
Este trabalho trata da técnica de validação experimental de protocolos de comunicação confiável, através da injeção de falhas de comunicação. São estudadas inicialmente as técnicas de injeção de falhas, por hardware, software e simulação, e então são aprofundados os conceitos de injeção de falhas de comunicação, modelos de falha e especificação de experimentos de injeção de falhas. Em um segundo momento, são estudadas as formas de implementação de injetores de falhas em software, em suas duas formas mais comuns: no nível da aplicação e no nível do sistema operacional. São comentados os impactos da implementação de injetores no código da aplicação, por processos concorrentes à aplicação, em código utilizado pela aplicação e no meta-nível. Por fim, são estudados também que influências sofre a implementação de um injetor de falhas em um sistema operacional, e mais especificamente a de injetores de falhas de comunicação. O objetivo específico deste trabalho é implementar um injetor de falhas de comunicação bastante abrangente e flexível, situado dentro do núcleo do Sistema Operacional Linux. Para viabilizar esta implementação foi estudada também a arquitetura do Sistema Operacional Linux, sua decomposição em subsistemas e a interação entre estes. Foram estudadas também as várias técnicas de programação e mecanismos que o Sistema Operacional Linux fornece aos seus subsistemas. Estando completas a revisão bibliográfica a respeito de injeção de falhas e o estudo do código do Sistema Operacional Linux, são apresentadas a proposta e a implementação da ferramenta ComFIRM—Communication Fault Injection through Operating System Resource Modification, suas características e sua inserção dentro do núcleo do Sistema Operacional Linux. Finalizando este trabalho, são apresentados uma pequena série de testes de funcionamento e experimentos realizados com a ferramenta ComFIRM, visando demonstrar a correção de seu funcionamento, o cumprimento de seus objetivos e também sua praticidade e flexibilidade de uso. São apresentadas as conclusões deste trabalho, propostas de melhorias à ferramenta apresentada, bem como possibilidades de trabalhos futuros.
Resumo:
O tema da presente tese é a demanda do gás natural em um novo mercado, que se encontra em expansão.O objetivo geral é o desenvolvimento de uma metodologia para a previsão de demanda do gás natural, estabelecendo um método que integre as diversas alternativas de previsão de demanda desenvolvidas. Primeiramente, é feita uma revisão da literatura abordando os seguintes temas: (i) demanda de energia no Brasil e no mundo; (ii) demanda de gás natural no Brasil e no mundo; (iii) oferta de gás natural no Rio Grande do Sul; (iv) modelos de previsão de demanda energética; (v) pesquisa qualitativa e grupos focados. São, então, desenvolvidas as alternativas para a previsão de demanda de gás natural: (i) baseado em dados históricos do Rio Grande do Sul: com base no comportamento pregresso da demanda energética estadual faz-se uma extrapolação dos dados de demanda futuros, estimando-se um percentual de participação do gás natural neste mercado; (ii) baseado em equações de previsão que se apóiam em dados sócio-econômicos: tomando-se como embasamento o tamanho da população, PIB, número de veículos da frota do estado, e as respectivas taxas de crescimento de cada uma destas variáveis, estima-se o potencial consumo de gás natural (iii) baseado em dados históricos de outros países: tomando-se por base os dados de países onde já se encontra consolidado o mercado de gás natural, faz-se uma analogia ao caso brasileiro, particularmente o estado do Rio Grande do Sul, visualizando o posicionamento deste mercado frente à curva de crescimento e amadurecimento do mercado consolidado; (iv) baseado na opinião dos clientes potenciais: através de grupos focados, busca-se a compreensão das variáveis que influenciam as decisões dos consumidores de energia, bem como a compreensão das soluções de compromisso (trade off) realizadas quando da escolha dos diferentes energéticos, utilizando-se técnicas do tipo “preferência declarada”; (v) baseado na opinião de especialistas: através de grupos focados com profissionais do setor energético, economistas, engenheiros e administradores públicos busca-se o perfil de demanda esperado para o gás natural. São aplicadas as alternativas individuais à previsão da demanda do gás natural no estado do Rio Grande do Sul, verificando a necessidade de adaptações ou desenvolvimentos adicionais das abordagens individuais. Neste momento, começa-se a construção do método integrador, partindo-se da visualização de benefícios e carências apresentados por cada alternativa individual. É, então, elaborada uma proposta para integrar os resultados das diversas abordagens. Trata-se da construção de um método para a previsão de demanda energética de gás natural que compatibiliza resultados qualitativos e quantitativos gerados nas abordagens individuais. O método parte de diferentes inputs, ou seja, os dados de saída gerados por cada abordagem individual, chegando a um output único otimizado em relação à condição inicial. A fase final é a aplicação do método proposto à previsão de demanda de gás natural no estado do Rio Grande do Sul, utilizando a base de dados gerada para o estudo particular do estado.
Resumo:
Este trabalho tem como objetivo analisar os principais fatores envolvidos no desenvolvi- mento e funcionamento da indústria de gás natural, para então detectar e diagnosticar as principais falhas existentes no mercado brasileiro de gás. A análise é realizada a partir da caracterização dos diversos desenhos de mercado da indústria de gás natural presentes no mundo (desde a estrutura totalmente verticalizada até a mais competitiva, com a presença de mercados de atacado e varejo). Pontos importantes são ressaltados tais como os princípios de precificação do gás em cada modelo, as práticas regulatórias empregadas e as principais estruturas surgidas. Destas, destacam-se as relações entre os agentes nos mercados de varejo competitivos, o livre acesso, o bypass físico e comercial e o surgimento do mercado spot. Essa linha de trabalho culmina com a análise da atual estrutura do mercado de gás natural no Brasil, assim como possíveis desenhos que essa indústria poderá atingir a médio e longo prazos dependendo dos mecanismos regulatórios utilizados. Para isso, são apresentados os modelos de gás existentes e a interação entre eles. Ressalta-se, também, a importância do livre acesso para o desenvolvimento do setor no Brasil.
Resumo:
Resumo não disponível.
Utilização de reserva de óleo e gás em modelos de avaliação por múltiplos para empresas petrolíferas
Resumo:
O aumento global dos investimentos gerou a necessidade de uma melhor determinação do valor justo das empresas, para tanto, no presente, existem diversas metodologias de avaliação. A metodologia do Fluxo de Caixa Descontado (FCD) e a Avaliação Relativa, também conhecida como múltiplos, são as mais utilizadas. Ao mesmo tempo, o setor de petróleo e gás natural transformou-se em um dos principais segmentos econômicos, principalmente para países em desenvolvimento. Para as empresas desse setor, as reservas de petróleo são cruciais, pois são indicativos de previsão de produção e a garantia de geração de fluxo de caixa no futuro. Dentro desta perspectiva, este trabalho procura quantificar qual a influência do volume das reservas provadas de empresas petrolíferas integradas com ações listadas na bolsa de valores de Nova York (NYSE) no valor de mercado do patrimônio líquido destas empresas. Ou seja, vamos procurar identificar qual a influência do volume das reservas provadas na avaliação relativa por múltiplos, que são indicadores de valor de mercado. O resultado obtido sugere que a acumulação de reservas como estratégia de valorização de uma empresa de petróleo, sem reflexo na lucratividade ou no valor patrimonial, será penalizada pelo mercado.