880 resultados para harm minimization
Resumo:
In this work, computationally efficient approximate methods are developed for analyzing uncertain dynamical systems. Uncertainties in both the excitation and the modeling are considered and examples are presented illustrating the accuracy of the proposed approximations.
For nonlinear systems under uncertain excitation, methods are developed to approximate the stationary probability density function and statistical quantities of interest. The methods are based on approximating solutions to the Fokker-Planck equation for the system and differ from traditional methods in which approximate solutions to stochastic differential equations are found. The new methods require little computational effort and examples are presented for which the accuracy of the proposed approximations compare favorably to results obtained by existing methods. The most significant improvements are made in approximating quantities related to the extreme values of the response, such as expected outcrossing rates, which are crucial for evaluating the reliability of the system.
Laplace's method of asymptotic approximation is applied to approximate the probability integrals which arise when analyzing systems with modeling uncertainty. The asymptotic approximation reduces the problem of evaluating a multidimensional integral to solving a minimization problem and the results become asymptotically exact as the uncertainty in the modeling goes to zero. The method is found to provide good approximations for the moments and outcrossing rates for systems with uncertain parameters under stochastic excitation, even when there is a large amount of uncertainty in the parameters. The method is also applied to classical reliability integrals, providing approximations in both the transformed (independently, normally distributed) variables and the original variables. In the transformed variables, the asymptotic approximation yields a very simple formula for approximating the value of SORM integrals. In many cases, it may be computationally expensive to transform the variables, and an approximation is also developed in the original variables. Examples are presented illustrating the accuracy of the approximations and results are compared with existing approximations.
Resumo:
Coronal mass ejections (CMEs) are dramatic eruptions of large, plasma structures from the Sun. These eruptions are important because they can harm astronauts, damage electrical infrastructure, and cause auroras. A mysterious feature of these eruptions is that plasma-filled solar flux tubes first evolve slowly, but then suddenly erupt. One model, torus instability, predicts an explosive-like transition from slow expansion to fast acceleration, if the spatial decay of the ambient magnetic field exceeds a threshold.
We create arched, plasma filled, magnetic flux ropes similar to CMEs. Small, independently-powered auxiliary coils placed inside the vacuum chamber produce magnetic fields above the decay threshold that are strong enough to act on the plasma. When the strapping field is not too strong and not too weak, expansion force build up while the flux rope is in the strapping field region. When the flux rope moves to a critical height, the plasma accelerates quickly, corresponding to the observed slow-rise to fast-acceleration of most solar eruptions. This behavior is in agreement with the predictions of torus instability.
Historically, eruptions have been separated into gradual CMEs and impulsive CMEs, depending on the acceleration profile. Recent numerical studies question this separation. One study varies the strapping field profile to produce gradual eruptions and impulsive eruptions, while another study varies the temporal profile of the voltage applied to the flux tube footpoints to produce the two eruption types. Our experiment reproduced these different eruptions by changing the strapping field magnitude, and the temporal profile of the current trace. This suggests that the same physics underlies both types of CME and that the separation between impulsive and gradual classes of eruption is artificial.
Resumo:
Os diários de escrita íntima constituem tipo de texto do domínio confessional. Apresentam narrativas pessoais com características específicas ao gênero, como datação, marcas de subjetividade, escrita informal e coloquialidade. Durante muitos anos, eram escritos em cadernos e guardados a sete chaves por seus autores para que não fossem lidos por outras pessoas. Por volta dos anos 80, surgiram as agendas de adolescentes. Aproveitando o modelo pré-definido industrialmente, as agendas eram preenchidas dia a dia, como um diário, mas com a novidade do acréscimo de elementos semióticos, como fotos, papéis de bala, recortes de revistas, entre outros. Além disso, traziam como diferencial a presença de um leitor participativo: os textos eram compartilhados com amigos, e bilhetes e comentários eram escritos nas páginas das agendas. Com o advento da Internet, o diário e a agenda se fundem no blog que aproveita os recursos do suporte virtual para tornar o gênero interativo, hipertextual e multimídia, acentuando o processo de leitura e de escrita nos jovens produtores de blogs. Paralelamente, a escrita se torna grande ferramenta de comunicação no ambiente virtual, adquirindo características peculiares em função da rapidez na comunicação e da economia de digitação. A partir da teoria de Bakthin sobre gêneros do discurso e do conceito de gêneros digitais de Marcuschi, a pesquisa apresenta como objeto perceber e elencar categorias pertinentes aos gêneros diário e blog para analisá-las e compará-las, na intenção de mapear um possível percurso dos diários aos blogs de adolescentes, discutindo o contraste público-privado na escrita íntima, bem como suas principais marcas linguísticas, percebendo vantagens e desvantagens de sua utilização como ferramenta auxiliar no processo de aprendizagem da escrita e da leitura de Língua Portuguesa. A pesquisa foi motivada pela discussão de que a escrita digital pode prejudicar o desenvolvimento da produção textual de jovens em formação, o que não se confirmou, visto que a estrutura sintática da língua se mantém, e que a variação acontece apenas no nível vocabular, não interferindo na comunicação. Os resultados apontam para a utilização de blogs na educação como complementação do material pedagógico e como incentivo à leitura, à escrita, à construção da argumentação e do posicionamento crítico, aproximando a escola da vida cotidiana dos estudantes
Resumo:
Amphibian declines and extinctions have been documented around the world, often in protected natural areas. Concern for this alarming trend has focused attention on the need to document all species of amphibians that occur within U.S. National Parks and to search for any signs that amphibians may be declining. This study, an inventory of amphibian species in Virgin Islands National Park, was conducted from 2001 to 2003. The goals of the project were to create a georeferenced inventory of amphibian species, use new analytical techniques to estimate proportion of sites occupied by each species, look for any signs of amphibian decline (missing species, disease, die-offs, etc.), and to establish a protocol that could be used for future monitoring efforts. Several sampling methods were used to accomplish these goals. Visual encounter surveys and anuran vocalization surveys were conducted in all habitats throughout the park to estimate the proportion of sites or proportion of area occupied (PAO) by amphibian species in each habitat. Line transect methods were used to estimate density of some amphibian species and double observer analysis was used to refine counts based on detection probabilities. Opportunistic collections were used to augment the visual encounter methods for rare species. Data were collected during four sampling periods and every major trail system throughout the park was surveyed. All of the amphibian species believed to occur on St. John were detected during these surveys. One species not previously reported, the Cuban treefrog (Osteopilus septentrionalis), was also added to the species list. That species and two others (Eleutherodactylus coqui and Eleutherodactylus lentus) bring the total number of introduced amphibians on St. John to three. We detected most of the reptile species thought to occur on St. John, but our methods were less suitable for reptiles compared to amphibians. No amphibian species appear to be in decline at this time. We found no evidence of disease or of malformations. Our surveys provide a snapshot picture of the status of the amphibian species, so continued monitoring would be necessary to determine long-term trends, but several potential threats to amphibians were identified. Invasive species, especially the Cuban treefrog, have the potential to decrease populations of native amphibians. Introduced mammalian predators are also a potential threat, especially to the reptiles of St. John, and mammalian grazers might have indirect effects on amphibians and reptiles through habitat modification. Finally, loss of habitat to development outside the park boundary could harm some important populations of amphibians and reptiles on the island.
Resumo:
Among different phase unwrapping approaches, the weighted least-squares minimization methods are gaining attention. In these algorithms, weighting coefficient is generated from a quality map. The intrinsic drawbacks of existing quality maps constrain the application of these algorithms. They often fail to handle wrapped phase data contains error sources, such as phase discontinuities, noise and undersampling. In order to deal with those intractable wrapped phase data, a new weighted least-squares phase unwrapping algorithm based on derivative variance correlation map is proposed. In the algorithm, derivative variance correlation map, a novel quality map, can truly reflect wrapped phase quality, ensuring a more reliable unwrapped result. The definition of the derivative variance correlation map and the principle of the proposed algorithm are present in detail. The performance of the new algorithm has been tested by use of a simulated spherical surface wrapped data and an experimental interferometric synthetic aperture radar (IFSAR) wrapped data. Computer simulation and experimental results have verified that the proposed algorithm can work effectively even when a wrapped phase map contains intractable error sources. (c) 2006 Elsevier GmbH. All rights reserved.
Análise global da estabilidade termodinâmica de misturas: um estudo com o método do conjunto gerador
Resumo:
O cálculo do equilíbrio de fases é um problema de grande importância em processos da engenharia, como, por exemplo, na separação por destilação, em processos de extração e simulação da recuperação terciária de petróleo, entre outros. Mas para resolvê-lo é aconselhável que se estude a priori a estabilidade termodinâmica do sistema, a qual consiste em determinar se uma dada mistura se apresenta em uma ou mais fases. Tal problema pode ser abordado como um problema de otimização, conhecido como a minimização da função distância do plano tangente à energia livre de Gibbs molar, onde modelos termodinâmicos, de natureza não convexa e não linear, são utilizados para descrevê-lo. Esse fato tem motivado um grande interesse em técnicas de otimização robustas e eficientes para a resolução de problemas relacionados com a termodinâmica do equilíbrio de fases. Como tem sido ressaltado na literatura, para proporcionar uma completa predição do equilíbrio de fases, faz-se necessário não apenas a determinação do minimizador global da função objetivo do teste de estabilidade, mas também a obtenção de todos os seus pontos estacionários. Assim, o desenvolvimento de metodologias para essa tarefa desafiadora tem se tornado uma nova área de pesquisa da otimização global aplicada à termodinâmica do equilíbrio, com interesses comuns na engenharia química e na engenharia do petróleo. O foco do presente trabalho é uma nova metodologia para resolver o problema do teste de estabilidade. Para isso, usa-se o chamado método do conjunto gerador para realizar buscas do tipo local em uma rede de pontos previamente gerada por buscas globais efetuadas com uma metaheurística populacional, no caso o método do enxame de partículas.Para se obter mais de um ponto estacionário, minimizam-se funções de mérito polarizadas, cujos pólos são os pontos previamente encontrados. A metodologia proposta foi testada na análise de quatorze misturas polares previamente consideradas na literatura. Os resultados mostraram que o método proposto é robusto e eficiente a ponto de encontrar, além do minimizador global, todos os pontos estacionários apontados previamente na literatura, sendo também capaz de detectar, em duas misturas ternárias estudadas, pontos estacionários não obtidos pelo chamado método de análise intervalar, uma técnica confiável e muito difundida na literatura. A análise do teste de estabilidade pela simples utilização do método do enxame de partículas associado à técnica de polarização mencionada acima, para a obtenção de mais de um ponto estacionário (sem a busca local feita pelo método do conjunto gerador em uma dada rede de pontos), constitui outra metodologia para a resolução do problema de interesse. Essa utilização é uma novidade secundária deste trabalho. Tal metodologia simplificada exibiu também uma grande robustez, sendo capaz de encontrar todos os pontos estacionários pesquisados. No entanto, quando comparada com a abordagem mais geral proposta aqui, observou-se que tal simplificação pode, em alguns casos onde a função de mérito apresenta uma geometria mais complexa, consumir um tempo de máquina relativamente grande, dessa forma é menos eficiente.
Resumo:
The centralized paradigm of a single controller and a single plant upon which modern control theory is built is no longer applicable to modern cyber-physical systems of interest, such as the power-grid, software defined networks or automated highways systems, as these are all large-scale and spatially distributed. Both the scale and the distributed nature of these systems has motivated the decentralization of control schemes into local sub-controllers that measure, exchange and act on locally available subsets of the globally available system information. This decentralization of control logic leads to different decision makers acting on asymmetric information sets, introduces the need for coordination between them, and perhaps not surprisingly makes the resulting optimal control problem much harder to solve. In fact, shortly after such questions were posed, it was realized that seemingly simple decentralized optimal control problems are computationally intractable to solve, with the Wistenhausen counterexample being a famous instance of this phenomenon. Spurred on by this perhaps discouraging result, a concerted 40 year effort to identify tractable classes of distributed optimal control problems culminated in the notion of quadratic invariance, which loosely states that if sub-controllers can exchange information with each other at least as quickly as the effect of their control actions propagates through the plant, then the resulting distributed optimal control problem admits a convex formulation.
The identification of quadratic invariance as an appropriate means of "convexifying" distributed optimal control problems led to a renewed enthusiasm in the controller synthesis community, resulting in a rich set of results over the past decade. The contributions of this thesis can be seen as being a part of this broader family of results, with a particular focus on closing the gap between theory and practice by relaxing or removing assumptions made in the traditional distributed optimal control framework. Our contributions are to the foundational theory of distributed optimal control, and fall under three broad categories, namely controller synthesis, architecture design and system identification.
We begin by providing two novel controller synthesis algorithms. The first is a solution to the distributed H-infinity optimal control problem subject to delay constraints, and provides the only known exact characterization of delay-constrained distributed controllers satisfying an H-infinity norm bound. The second is an explicit dynamic programming solution to a two player LQR state-feedback problem with varying delays. Accommodating varying delays represents an important first step in combining distributed optimal control theory with the area of Networked Control Systems that considers lossy channels in the feedback loop. Our next set of results are concerned with controller architecture design. When designing controllers for large-scale systems, the architectural aspects of the controller such as the placement of actuators, sensors, and the communication links between them can no longer be taken as given -- indeed the task of designing this architecture is now as important as the design of the control laws themselves. To address this task, we formulate the Regularization for Design (RFD) framework, which is a unifying computationally tractable approach, based on the model matching framework and atomic norm regularization, for the simultaneous co-design of a structured optimal controller and the architecture needed to implement it. Our final result is a contribution to distributed system identification. Traditional system identification techniques such as subspace identification are not computationally scalable, and destroy rather than leverage any a priori information about the system's interconnection structure. We argue that in the context of system identification, an essential building block of any scalable algorithm is the ability to estimate local dynamics within a large interconnected system. To that end we propose a promising heuristic for identifying the dynamics of a subsystem that is still connected to a large system. We exploit the fact that the transfer function of the local dynamics is low-order, but full-rank, while the transfer function of the global dynamics is high-order, but low-rank, to formulate this separation task as a nuclear norm minimization problem. Finally, we conclude with a brief discussion of future research directions, with a particular emphasis on how to incorporate the results of this thesis, and those of optimal control theory in general, into a broader theory of dynamics, control and optimization in layered architectures.
Resumo:
Investiga se o atual modelo de aplicação da pena privativa de liberdade se mostra adequado aos parâmetros traçados pela constituição de 1988, atendendo ao fundamento da dignidade da pessoa humana e aos objetivos fundamentais de construção de uma sociedade livre, justa e solidária e de promoção do bem de todos. Analisa a dinâmica histórica da aplicação e das teorias das penas privativas de liberdade no Brasil, abordando os principais critérios e atuais orientações da aplicação penal. Sustenta que a dignidade da pessoa humana constitui fundamento do Estado Republicano e Democrático de Direito brasileiro e que, ao lado do princípio da humanidade das penas, seu correspondente penal, fundamenta a necessidade de se evitar ao máximo que os indivíduos sejam afetados pela intervenção do poder punitivo. Conclui, então, pela existência de um autêntico dever jurídico-constitucional da agência judicial no sentido de minimizar a intensidade de afetação do indivíduo sentenciado. Procura erigir novos princípios quanto à aplicação da pena, dotados de força normativa e que atuem de maneira integrada para a tutela dos direitos fundamentais. Defende que a Constituição de 1988 não incorporou o discurso legitimador da pena, limitando-se à tarefa de contenção de danos e de fixação de limites punitivos. Preconiza novos parâmetros para a fixação da pena-base, sustentando a incompatibilidade constitucional das finalidades de reprovação e prevenção do crime. Debate qual deve ser o adequado sentido constitucional das circunstâncias judiciais da pena. Discute as bases da tendência exasperadora da pena, caracterizada pelas agravantes, qualificadoras e causas de aumento, assim como da tendência mitigadora da pena, representada pelas atenuantes, causas de diminuição, participação de agentes, tentativa, concurso de crimes, crime continuado, unificação e limite de penas. Identifica a existência de crise no dogma da pena mínima, propondo, afinal, a construção de um novo modelo interpretativo de aplicação da pena privativa de liberdade.
Condições de trabalho e problemas de saúde em Enfermagem na maternidade de um hospital universitário
Resumo:
Trata-se de um estudo fundamentado na Epidemiologia, do tipo quantitativo, não-experimental, transversal apoiado na estatística descritiva e inferencial, baseado no seguinte problema de estudo: qual a associação entre problemas de saúde e riscos ocupacionais a partir da percepção dos trabalhadores de enfermagem da maternidade de um hospital universitário? Teve como objetivo estudar os problemas de saúde dos trabalhadores de enfermagem e sua associação com o trabalho, a partir de suas percepções. Foi desenvolvido em uma maternidade de um hospital universitário do estado do Rio de Janeiro, com uma amostra constituída por 60 trabalhadores de enfermagem, em 2009. Utilizou-se para coleta de dados um questionário de Boix e Vogel (1997) adaptado por Mauro (2009). Os dados foram analisados através do Programa Statistical Package for the Social Sciences (SPSS) versão 12.0. Todos os tipos de risco foram discretamente apontados pelos participantes como existentes no campo de estudo com destaque para os riscos de acidente e mecânicos, riscos ergonômicos e as situações de conflito e violência. Os resultados configuram um ambiente de trabalhado que necessita de adequações de naturezas diversas, para evitar conseqüências negativas na saúde dos trabalhadores, visando a minimização, controle ou eliminação dos referidos riscos. Em relação aos problemas de saúde evidenciados, os que se destacaram foram a depressão, o estresse, os problemas oculares, a hipertensão, as varizes, os problemas respiratórios e as lombalgias. Recomenda-se à instituição promover a melhoria das condições de trabalho, maior atenção à saúde dos trabalhadores e a efetivação de programas de promoção da saúde.
Resumo:
O objeto de estudo é o preparo e a administração de medicamentos pela enfermagem por via intravenosa. O objetivo geral foi discutir as consequências, para os pacientes, dos erros encontrados a partir do preparo e da administração de medicações de uso intravenoso pela enfermagem, no ambiente hospitalar. Os objetivos específicos foram determinar os grupos medicamentosos e os medicamentos envolvidos em erros; e identificar o tipo e frequência desses erros que ocorrem no preparo e administração de medicamentos intravenosos pela enfermagem. Trata-se de uma pesquisa com desenho transversal de natureza observacional, sem modelo de intervenção. Foi desenvolvida em um hospital público, da rede sentinela, do Rio de Janeiro onde foram observados técnicos de enfermagem preparando e administrando medicamentos intravenosos, em três setores: Unidade de Terapia Intensiva, Clínica Médica e Clínica Cirúrgica. Foram observadas 367 doses preparadas e 365 doses administradas, totalizado 732 doses, à luz de 14 categorias. Para cada dose observada havia somente duas possibilidades: certo ou errado. Com relação ao perfil das medicações, os grupos prevalentes foram os antimicrobianos com 176 doses (24,04%), seguidos dos antissecretores com 149 doses (20,36%) e analgésicos com 126 doses (17,21%). Anestésicos e anticonvulsivantes foram os menos observados. Todas as categorias foram divididas em dois grupos: os com potencial de dano para o paciente e os com potencial para alterar a resposta terapêutica do medicamento. Na etapa do preparo, no grupo com potencial de dano, as categorias foram: não troca as agulhas com 88,77% de erro; não desinfecção de ampolas (80,27%) e não faz limpeza de bancada (77,26%). Nas categorias não usa máscara e não identifica o medicamento, não foram encontrado erros. Para o grupo com potencial para alterar a resposta terapêutica, as categorias foram: hora errada (57,26%) e dose errada (6,58%). Na etapa da administração, no grupo com potencial de dano ao paciente, as categorias foram: não confere o medicamento com 96,73% de erro, não avalia flebite (87,47%), não avalia a permeabilidade (86,38%) e não confere o paciente (70,57%). Para o grupo com potencial para alterar a resposta terapêutica, a categoria hora errada apresentou 69,75% de erro; em dose errada e via errada não foi evidenciado erro. Percebeu-se que, nas duas etapas, o grupo prevalente foi o com potencial de dano paciente. Porém, no grupo com potencial para alterar o resultado terapêutico do medicamento, a categoria a hora errada foi a que, provavelmente, apresentou maiores prejuízos para o paciente. Considerando-se que o preparo e administração de medicamentos são umas das maiores responsabilidades da enfermagem e que os erros podem causar danos aos pacientes, sugere-se repensar o processo de trabalho da enfermagem e investir mais em questões que envolvam a segurança com a terapia medicamentosa.
Resumo:
Esse trabalho aborda a elaboração de requisitos dos usuários como parte da adequação do sistema de informação-SISTEMA DE INFORMAÇÃO DE GESTÃO ACADÊMICA-Administrativo- SIGA-Adm, proposto para o Hospital Universitário da Universidade Federal de Juiz de Fora. SIGA-Adm está em utilização, desde 2007, na Universidade Federal de Juiz de Fora. No entanto, para a efetiva aplicabilidade no âmbito do Hospital Universitário, torna-se necessário uma investigação acerca dos processos de trabalho, dentro do HU e uma ação de melhoria desses processos, a fim de evitar a incorporação de um sistema de informação que não corresponda a realidade apresentada. A elaboração dos requisitos dos usuários para a adequação visa a ser um instrumento de intermediação para discussão acerca da elaboração do SIGA-Adm para o HU/UFJF. Os requisitos apresentados originaram-se no processo de gerenciamento de materiais, como resultado da utilização da Metodologia de Análise e Melhoria de Processos-MAMP, aplicada na cadeia de suprimentos do Hospital Universitário, no período de 2004 a 2005. O acompanhamento do gerenciamento de materiais é uma estratégia utilizada pela Rede Sentinela para o desenvolvimento de ações de pós-comercialização de produtos para a saúde tais como: investigação de uso, registro de produtos, retirada de produto do mercado e etc... O Hospital Universitário da UFJF é integrante da Rede Brasileira de Hospitais Sentinela, implementada pela Agência Nacional de Vigilância Sanitária, desde 2001. As ações Pós-Comercialização de Produtos para a Saúde, em Tecnovigilância, são compartilhadas pela ANVISA e pelos integrantes da Rede Sentinela, através de informações relativas a queixas técnicas e/ou eventos adversos que possam causar algum dano à população. A pesquisa indica a possibilidade do SIGA-Adm armazenar informações sobre os produtos que permitam o rastreamento em condições normais e/ou anormais de uso pela instituição, contribuindo para o exercício em Tecnovigilância. Além disso, espera-se que construção do SIGA-Adm/HU-UFJF permita integrar os sistemas existentes no HU.
Resumo:
No presente trabalho foi realizada uma na pesquisa bibliográfica sobre indicadores globais para avaliação da eficiência de um sistema de gestão ambiental (SGA) e sobre o conceito de sustentabilidade ambiental, com o objetivo de estudar o SGA de uma empresa petroquímica, instalada no Rio de Janeiro, certificada pela ISO 9001, ISO 14001 e OSHA 18001. Procurou-se, assim, identificar, a partir da análise dos indicadores de avaliação do desempenho ambiental, a possibilidade de implantar um indicador único para avaliação da eficiência do SGA estudado, de forma a mostrar aos observadores externos e internos, o efetivo engajamento da empresa na preservação dos recursos naturais e na minimização das emissões atmosféricas e de gases de efeito estufa, dentro da ótica de sustentabilidade ambiental focando-se um processo produtivo industrial. Por meio da pesquisa, verificou-se que, apesar de a empresa utilizar indicadores relacionados com o consumo de água, de emissões fugitivas e de geração de resíduos, dentre outros, ela não monitora, de forma objetiva, as emissões em termos de CO2 equivalente e todas as ações ligadas à sustentabilidade ambiental. Assim, foi proposto um indicador global de sustentabilidade ambiental para ser utilizado como referência do processo produtivo, visando fornecer ao responsável pelo SGA os subsídios necessários para tratar da gestão do processo sob a ótica da sustentabilidade ambiental
Resumo:
Pesquisa piloto de intervenção com dados prospectivos, grupo único de intervenção, cujo desfecho é a medida da dor de mulheres em trabalho de parto. Apresenta como objetivo discutir os efeitos da crioterapia no alívio da dor das parturientes. Como referencial teórico este trabalho apresentou o descrito por Soares e Low, onde se encontra que os mecanismos de ação do gelo para alívio da dor propiciam o decréscimo da transmissão das fibras de dor, a diminuição da excitabilidade nas terminações livres, a redução no metabolismo tecidual aumentando o limiar das fibras de dor e a liberação de endorfinas. Baseou-se ainda nos princípios da desmedicalização e do emprego de tecnologias não-invasivas de cuidado de enfermagem obstétrica conforme descritos por Vargens e Progianti. A pesquisa foi realizada no Centro Obstétrico do Hospital Municipal Maternidade Carmela Dutra, no Rio de Janeiro de abril a agosto de 2011. O gelo foi aplicado, utilizando-se para tal uma bolsa-cinta ajustável à região tóraco-lombar de 36 gestantes. A bolsa/cinta é descartável, de tecido TNT, com abertura na parte superior para introdução de gelo picado envolto em plástico. As aplicações se deram aos cinco centímetros de dilatação do colo uterino; e/ou aos sete centímetros de dilatação do colo uterino; e/ou aos nove centímetros de dilatação uterina, totalizando ao final das três aplicações um tempo de 60 minutos, que corresponde ao somatório de 20 minutos para cada uma. O gelo foi produzido em fôrma exclusiva para o projeto, em freezer da unidade. Os dados referentes à avaliação da dor foram coletados através de entrevista estruturada guiada por formulário previamente elaborado. Os resultados evidenciaram que a crioterapia produziu extinção ou alívio da dor quando aplicada na região tóraco-lombar das parturientes aos cinco, sete ou nove centímetros de dilatação do colo uterino, dando-lhes maiores condições de vivenciar o seu trabalho de parto; produziu um relaxamento geral e local (na região lombar) das parturientes; não interferiu na dinâmica uterina e, não causou dano ao binômio mãe-filho. Concluiu-se que a crioterapia, na forma como descrita no presente estudo, pode ser considerada uma tecnologia não-invasiva de cuidado de enfermagem obstétrica para alivio da dor no trabalho de parto.
Resumo:
O alto crescimento populacional tem desencadeado uma elevada ocupação das áreas urbanas com a expansão de edificações e estradas causando alterações no meio ambiente com a consequente minimização das áreas verdes e da infiltração de água no solo. Estes fenômenos acarretam problemas como enxurradas, inundações, aumento da temperatura local e diminuição da biodiversidade com inúmeros efeitos adversos, tanto econômicos quanto ambientais e sociais. Uma das alternativas para minimizar estes problemas é a construção de telhados verdes, que tem como uma das principais funções retardar o escoamento devido ao aumento da infiltração e retenção da água das chuvas atenuando o efeito avassalador das enchentes e das zonas de calor, principalmente em climas muito quentes, além de colaborar para recuperação de ecossistemas, através do replantio de mudas. Este projeto faz parte de um conjunto de ações integradas de cidadania e inclusão social na região hidrográfica da baixada de Jacarepaguá, especificamente envolvendo a Comunidade da Vila Cascatinha, em Vargem Grande, a fim de gerar subsídios para políticas públicas em áreas de assentamentos informais, integrado ao projeto HIDROCIDADES (CNPq, FAPERJ, FINEP), que visa a conservação da água em meios urbanos e periurbanos associado à cidadania, inclusão social e melhoria da qualidade de vida nas grandes cidades. Este trabalho utiliza uma tecnologia adaptada dos telhados verdes para edificação popular (telhado de fibrocimento) muito comum no Brasil, com o objetivo de verificar uma espécie com potencial de geração de renda (visando o social) de ecossistema regionais como restinga, em edificação; analisar o crescimento e biomassa da espécie de restinga cultivada em telhados; e avaliar qualidades das mídias em função do plantio em análise de armazenamento (retenção) de água no solo. A partir da metodologia empregada na implantação dos telhados verdes em habitações populares, os resultados obtidos são desenvolvimento da espécie Ipomoea pes caprae Brasiliensis, em três tipos de mídias de crescimento e também eficiência dessas mídias no escoamento superficial. Observou-se retenção de 69,24L de água para o bagaço de cana de açúcar e 64,7L para a fibra de coco. E foi observado também um retardo da ocorrência do pico de até 14 minutos no telhado vegetado em relação ao telhado controle (convencional).
Resumo:
251 p.