928 resultados para ANESTHETIC TECHNIQUES, General
Resumo:
Introducción: La hipotermia perioperatoria se ha documentado como factor de riesgo para el aumento de la morbimortalidad de los pacientes aumentando morbilidad miocárdica, riesgo de infección, pérdidas sanguíneas y tiempo de hospitalización. La aplicación de anestésicos toma relevancia ya que causa la pérdida de control central de la temperatura. Nuestro objetivo con este estudio fue describir la proporción de casos de hipotermia en la población sometida a un reemplazo articular durante un periodo de cuatro meses. Materiales y métodos: Se realizó un estudio de cohorte prospectivo. La población a estudio fueron los pacientes que fueron sometidos a un reemplazo total de cadera, rodilla u hombro. Se registró la temperatura central en el momento previo a la inducción anestésica, 30, 60 y 90 minutos después, al finalizar el procedimiento y al ingresar a recuperación. Se reportó el porcentaje de pacientes con hipotermia en cada tiempo. Resultados: Se analizaron en total 88 pacientes, el 55,7% fue llevado a cirugía de cadera, 39,7% de rodilla y 4,5% de hombro. El tipo de anestesia más utilizado fue general y la duración promedio de anestesia fue 164 minutos. La medición de la temperatura central se realizó en nasofaringe, esófago o tímpano. La proporción de pacientes que presentaron hipotermia en la inducción fue 21,6%, a 30 minutos 83%, a 60 minutos 73,9%, a 90 minutos 68,2%, al finalizar 59,1% y en recuperación 58%. Se realizó una prueba Chi cuadrado comparando las proporciones entre la inducción y los cinco periodos posteriores, se encontró que la proporción de pacientes con hipotermia en los cinco tiempos posteriores tuvo una diferencia estadísticamente significativa (p=0,00) comparada con la proporción de pacientes con hipotermia durante la inducción. Conclusión: En los pacientes sometidos a un reemplazo articular la hipotermia fue una condición prevalente posterior a la aplicación de los anestésicos sistémicos. Los dispositivos de calentamiento intraoperatorio usados actualmente son insuficientes para evitar la hipotermia, lo que indica concordancia con la literatura en cuanto a las recomendaciones de calentamiento perioperatorio, con énfasis en el precalentamiento, para prevenir la caída significativa de la temperatura y la morbimortalidad asociada.
Resumo:
El presente trabajo es un capítulo de libro titulado “Anestesia Regional y Periférica Guiada por Ultrasonido en el Paciente Crítico” que será incluido en la última edición del libro “Manual de Ultrasonido en Terapia Intensiva y Emergencias” cuyo editor es el Doctor José de Jesús Rincón Salas y que será publicado por la Editorial Prado de México para distribución latinoamericana desde dicho país. Por solicitud del editor y teniendo en cuenta el enfoque del libro, el presente trabajo está dirigido a estudiantes de formación, médicos graduados y especialistas en las áreas de cuidado intensivo, anestesiología, dolor, medicina interna y medicina de urgencias. Tiene como propósito empapar de conocimientos necesarios y prácticos en anestesia regional a personas que usualmente no han tenido contacto con la anestesia regional, pues desafortunadamente sólo en los últimos años ha sido posible que la anestesia regional haya comenzado a salir de las salas de cirugía, ámbito donde ha estado confinada tradicionalmente. El lenguaje utilizado es sencillo y el capítulo ha sido escrito para que sea fácil de leer y consultar, dejando así mensajes muy claros sobre la utilidad, viabilidad e implicaciones que tiene el uso de anestesia regional guiada por ultrasonido en cuidado intensivo. Los autores esperamos que de esta manera, el presente capítulo permita continuar superando los obstáculos que se interponen entre los invaluables beneficios de la anestesia regional y los pacientes de cuidado intensivo que necesitan de ella.
Resumo:
Manual que describe lo que los maestros pueden hacer para promover el aprendizaje de jóvenes con problemas. Comienza con una visión general sobre estos estudiantes. Continúa con la planificación inicial y la organización del ambiente de la clase, de acuerdo con las diversas fases del programa académico, seguido por el diagnóstico de las fortalezas y debilidades de los estudiantes. Se proporcionan ejemplos de aula para ilustrar cómo se pueden aplicar las técnicas sugeridas tanto en especial como en las aulas ordinarias para captar la atención del alumno y estimular el pensamiento creativo.
Resumo:
Metal pollution in rivers is in great concern with human activities in the fluvial watershed. This thesis aims to investigate the potential use of chl-a fluorescence parameters as biomarkers of metal toxicity, and to find cause-effect relationships between metal exposures, other environmental factor (i.e. light), and functional and structural biofilm responses. This thesis demonstrates that the use of chl-a fluorescence parameters allows detect early effects on biofilms caused by zinc toxicity, both in the laboratory as in polluted rivers. In microcosm experiments, the use of chl-a fluorescence parameters allows evaluates structural changes on photosynthetic apparatus and in algal groups’ composition of biofilms long-term exposed to zinc. In order to evaluate the effects of chronic metal pollution in rivers, it is recommended the use of biofilm translocation experiments and the use of a multi-biomarker approach.
Resumo:
Virtual tools are commonly used nowadays to optimize product design and manufacturing process of fibre reinforced composite materials. The present work focuses on two areas of interest to forecast the part performance and the production process particularities. The first part proposes a multi-physical optimization tool to support the concept stage of a composite part. The strategy is based on the strategic handling of information and, through a single control parameter, is able to evaluate the effects of design variations throughout all these steps in parallel. The second part targets the resin infusion process and the impact of thermal effects. The numerical and experimental approach allowed the identificationof improvement opportunities regarding the implementation of algorithms in commercially available simulation software.
Resumo:
La presencia de microorganismos patógenos en alimentos es uno de los problemas esenciales en salud pública, y las enfermedades producidas por los mismos es una de las causas más importantes de enfermedad. Por tanto, la aplicación de controles microbiológicos dentro de los programas de aseguramiento de la calidad es una premisa para minimizar el riesgo de infección de los consumidores. Los métodos microbiológicos clásicos requieren, en general, el uso de pre-enriquecimientos no-selectivos, enriquecimientos selectivos, aislamiento en medios selectivos y la confirmación posterior usando pruebas basadas en la morfología, bioquímica y serología propias de cada uno de los microorganismos objeto de estudio. Por lo tanto, estos métodos son laboriosos, requieren un largo proceso para obtener resultados definitivos y, además, no siempre pueden realizarse. Para solucionar estos inconvenientes se han desarrollado diversas metodologías alternativas para la detección identificación y cuantificación de microorganismos patógenos de origen alimentario, entre las que destacan los métodos inmunológicos y moleculares. En esta última categoría, la técnica basada en la reacción en cadena de la polimerasa (PCR) se ha convertido en la técnica diagnóstica más popular en microbiología, y recientemente, la introducción de una mejora de ésta, la PCR a tiempo real, ha producido una segunda revolución en la metodología diagnóstica molecular, como pude observarse por el número creciente de publicaciones científicas y la aparición continua de nuevos kits comerciales. La PCR a tiempo real es una técnica altamente sensible -detección de hasta una molécula- que permite la cuantificación exacta de secuencias de ADN específicas de microorganismos patógenos de origen alimentario. Además, otras ventajas que favorecen su implantación potencial en laboratorios de análisis de alimentos son su rapidez, sencillez y el formato en tubo cerrado que puede evitar contaminaciones post-PCR y favorece la automatización y un alto rendimiento. En este trabajo se han desarrollado técnicas moleculares (PCR y NASBA) sensibles y fiables para la detección, identificación y cuantificación de bacterias patogénicas de origen alimentario (Listeria spp., Mycobacterium avium subsp. paratuberculosis y Salmonella spp.). En concreto, se han diseñado y optimizado métodos basados en la técnica de PCR a tiempo real para cada uno de estos agentes: L. monocytogenes, L. innocua, Listeria spp. M. avium subsp. paratuberculosis, y también se ha optimizado y evaluado en diferentes centros un método previamente desarrollado para Salmonella spp. Además, se ha diseñado y optimizado un método basado en la técnica NASBA para la detección específica de M. avium subsp. paratuberculosis. También se evaluó la aplicación potencial de la técnica NASBA para la detección específica de formas viables de este microorganismo. Todos los métodos presentaron una especificidad del 100 % con una sensibilidad adecuada para su aplicación potencial a muestras reales de alimentos. Además, se han desarrollado y evaluado procedimientos de preparación de las muestras en productos cárnicos, productos pesqueros, leche y agua. De esta manera se han desarrollado métodos basados en la PCR a tiempo real totalmente específicos y altamente sensibles para la determinación cuantitativa de L. monocytogenes en productos cárnicos y en salmón y productos derivados como el salmón ahumado y de M. avium subsp. paratuberculosis en muestras de agua y leche. Además este último método ha sido también aplicado para evaluar la presencia de este microorganismo en el intestino de pacientes con la enfermedad de Crohn's, a partir de biopsias obtenidas de colonoscopia de voluntarios afectados. En conclusión, este estudio presenta ensayos moleculares selectivos y sensibles para la detección de patógenos en alimentos (Listeria spp., Mycobacterium avium subsp. paratuberculosis) y para una rápida e inambigua identificación de Salmonella spp. La exactitud relativa de los ensayos ha sido excelente, si se comparan con los métodos microbiológicos de referencia y pueden serusados para la cuantificación de tanto ADN genómico como de suspensiones celulares. Por otro lado, la combinación con tratamientos de preamplificación ha resultado ser de gran eficiencia para el análisis de las bacterias objeto de estudio. Por tanto, pueden constituir una estrategia útil para la detección rápida y sensible de patógenos en alimentos y deberían ser una herramienta adicional al rango de herramientas diagnósticas disponibles para el estudio de patógenos de origen alimentario.
Resumo:
Pollination by bees and other animals increases the size, quality, or stability of harvests for 70% of leading global crops. Because native species pollinate many of these crops effectively, conserving habitats for wild pollinators within agricultural landscapes can help maintain pollination services. Using hierarchical Bayesian techniques, we synthesize the results of 23 studies - representing 16 crops on five continents - to estimate the general relationship between pollination services and distance from natural or semi-natural habitats. We find strong exponential declines in both pollinator richness and native visitation rate. Visitation rate declines more steeply, dropping to half of its maximum at 0.6 km from natural habitat, compared to 1.5 km for richness. Evidence of general decline in fruit and seed set - variables that directly affect yields - is less clear. Visitation rate drops more steeply in tropical compared with temperate regions, and slightly more steeply for social compared with solitary bees. Tropical crops pollinated primarily by social bees may therefore be most susceptible to pollination failure from habitat loss. Quantifying these general relationships can help predict consequences of land use change on pollinator communities and crop productivity, and can inform landscape conservation efforts that balance the needs of native species and people.
Resumo:
The family of semi-crystalline, aromatic, high-temperature thermoplastics known as poly(ether-ketone)s are insoluble in conventional organic solvents, but undergo completely general and quantitatively reversible reactions with alkanedithiols in strong acid media, to give soluble poly(dithioacetal)s, which are readily characterisable by GPC and light scattering techniques.
Resumo:
A simple general route of obtaining very stable octacoordinated non-oxovanadium( IV) complexes of the general formula VL2 (where H2L is a tetradentate ONNO donor) is presented. Six such complexes (1-6) are adequately characterized by elemental analysis, mass spectrometry, and various spectroscopic techniques. One of these compounds (1) has been structurally characterized. The molecule has crystallographic 4 symmetry and has a dodecahedral structure existing in a tetragonal space group P4n2. The non-oxo character and VL2 stoichiometry for all of the complexes are established from analytical and mass spectrometric data. In addition, the non-oxo character is clearly indicated by the complete absence of the strong nu(v=o) band in the 925-1025 cm(-1) region, which is a signature of all oxovanadium species. The complexes are quite stable in open air in the solid state and in solution, a phenomenon rarely observed in non-oxovanadium(IV) or bare vanadium(IV) complexes.
Resumo:
The use of n-tuple or weightless neural networks as pattern recognition devices has been well documented. They have a significant advantages over more common networks paradigms, such as the multilayer perceptron in that they can be easily implemented in digital hardware using standard random access memories. To date, n-tuple networks have predominantly been used as fast pattern classification devices. The paper describes how n-tuple techniques can be used in the hardware implementation of a general auto-associative network.
Resumo:
As a part of the Atmospheric Model Intercomparison Project (AMIP), the behaviour of 15 general circulation models has been analysed in order to diagnose and compare the ability of the different models in simulating Northern Hemisphere midlatitude atmospheric blocking. In accordance with the established AMIP procedure, the 10-year model integrations were performed using prescribed, time-evolving monthly mean observed SSTs spanning the period January 1979–December 1988. Atmospheric observational data (ECMWF analyses) over the same period have been also used to verify the models results. The models involved in this comparison represent a wide spectrum of model complexity, with different horizontal and vertical resolution, numerical techniques and physical parametrizations, and exhibit large differences in blocking behaviour. Nevertheless, a few common features can be found, such as the general tendency to underestimate both blocking frequency and the average duration of blocks. The problem of the possible relationship between model blocking and model systematic errors has also been assessed, although without resorting to ad-hoc numerical experimentation it is impossible to relate with certainty particular model deficiencies in representing blocking to precise parts of the model formulation.
Resumo:
As a part of the Atmospheric Model Intercomparison Project (AMIP), the behaviour of 15 general circulation models has been analysed in order to diagnose and compare the ability of the different models in simulating Northern Hemisphere midlatitude atmospheric blocking. In accordance with the established AMIP procedure, the 10-year model integrations were performed using prescribed, time-evolving monthly mean observed SSTs spanning the period January 1979–December 1988. Atmospheric observational data (ECMWF analyses) over the same period have been also used to verify the models results. The models involved in this comparison represent a wide spectrum of model complexity, with different horizontal and vertical resolution, numerical techniques and physical parametrizations, and exhibit large differences in blocking behaviour. Nevertheless, a few common features can be found, such as the general tendency to underestimate both blocking frequency and the average duration of blocks. The problem of the possible relationship between model blocking and model systematic errors has also been assessed, although without resorting to ad-hoc numerical experimentation it is impossible to relate with certainty particular model deficiencies in representing blocking to precise parts of the model formulation.
Resumo:
At surgical depths of anesthesia, inhalational anesthetics cause a loss of motor response to painful stimuli (i.e., immobilization) that is characterized by profound inhibition of spinal motor circuits. Yet, although clearly depressed, the respiratory motor system continues to provide adequate ventilation under these same conditions. Here, we show that isoflurane causes robust activation of CO(2)/pH-sensitive, Phox2b-expressing neurons located in the retrotrapezoid nucleus (RTN) of the rodent brainstem, in vitro and in vivo. In brainstem slices from Phox2b-eGFP mice, the firing of pH-sensitive RTN neurons was strongly increased by isoflurane, independent of prevailing pH conditions. At least two ionic mechanisms contributed to anesthetic activation of RTN neurons: activation of an Na(+)-dependent cationic current and inhibition of a background K(+) current. Single-cell reverse transcription-PCR analysis of dissociated green fluorescent protein-labeled RTN neurons revealed expression of THIK-1 (TWIK-related halothane-inhibited K(+) channel, K(2P)13.1), a channel that shares key properties with the native RTN current (i.e., suppression by inhalational anesthetics, weak rectification, inhibition by extracellular Na(+), and pH-insensitivity). Isoflurane also increased firing rate of RTN chemosensitive neurons in urethane-anesthetized rats, again independent of CO(2) levels. In these animals, isoflurane transiently enhanced activity of the respiratory system, an effect that was most prominent at low levels of respiratory drive and mediated primarily by an increase in respiratory frequency. These data indicate that inhalational anesthetics cause activation of RTN neurons, which serve an important integrative role in respiratory control; the increased drive provided by enhanced RTN neuronal activity may contribute, in part, to maintaining respiratory motor activity under immobilizing anesthetic conditions.
Resumo:
The rapid development of data transfer through internet made it easier to send the data accurate and faster to the destination. There are many transmission media to transfer the data to destination like e-mails; at the same time it is may be easier to modify and misuse the valuable information through hacking. So, in order to transfer the data securely to the destination without any modifications, there are many approaches like cryptography and steganography. This paper deals with the image steganography as well as with the different security issues, general overview of cryptography, steganography and digital watermarking approaches. The problem of copyright violation of multimedia data has increased due to the enormous growth of computer networks that provides fast and error free transmission of any unauthorized duplicate and possibly manipulated copy of multimedia information. In order to be effective for copyright protection, digital watermark must be robust which are difficult to remove from the object in which they are embedded despite a variety of possible attacks. The message to be send safe and secure, we use watermarking. We use invisible watermarking to embed the message using LSB (Least Significant Bit) steganographic technique. The standard LSB technique embed the message in every pixel, but my contribution for this proposed watermarking, works with the hint for embedding the message only on the image edges alone. If the hacker knows that the system uses LSB technique also, it cannot decrypt correct message. To make my system robust and secure, we added cryptography algorithm as Vigenere square. Whereas the message is transmitted in cipher text and its added advantage to the proposed system. The standard Vigenere square algorithm works with either lower case or upper case. The proposed cryptography algorithm is Vigenere square with extension of numbers also. We can keep the crypto key with combination of characters and numbers. So by using these modifications and updating in this existing algorithm and combination of cryptography and steganography method we develop a secure and strong watermarking method. Performance of this watermarking scheme has been analyzed by evaluating the robustness of the algorithm with PSNR (Peak Signal to Noise Ratio) and MSE (Mean Square Error) against the quality of the image for large amount of data. While coming to see results of the proposed encryption, higher value of 89dB of PSNR with small value of MSE is 0.0017. Then it seems the proposed watermarking system is secure and robust for hiding secure information in any digital system, because this system collect the properties of both steganography and cryptography sciences.
Resumo:
JUSTIFICATIVA E OBJETIVOS: Embora a pré-eclâmpsia acometa pequena porcentagem da população obstétrica, ela é responsável por considerável morbidade e mortalidade maternas. Assim sendo, o controle anestésico adequado deste grupo de pacientes ainda hoje é um desafio para os anestesiologistas. Este artigo tem a finalidade de apresentar a fisiopatologia, o tratamento farmacológico e as opções anestésicas para o parto normal ou cirúrgico, em pacientes com pré-eclâmpsia. CONTEÚDO: Estão descritos a classificação e terminologia da hipertensão arterial induzida pela gestação, a fisiopatologia, as alterações nos diversos órgãos e sistemas, os princípios gerais no controle das pacientes e as opções anestésicas para o parto normal e cirúrgico. CONCLUSÕES: O conhecimento, pelo anestesiologista, da fisiopatologia, das formas de tratamento e das características farmacológicas das drogas utilizadas para o controle da hipertensão arterial e a profilaxia das convulsões, assim como sua interação com as drogas e técnicas anestésicas, possibilita a redução das complicações peri-operatórias e da mortalidade materna e fetal.