618 resultados para DURATIONS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rationnel : La pandémie de grippe A(H1N1)pdm09 a induit un grand nombre d’hospitalisation d’enfants en soins intensifs pédiatriques (SIP). L’objectif de cette étude a été de comparer l’incidence et la mortalité des enfants admis en SIP durant l’automne 2009 entre le Canada et la France, deux pays qui diffèrent essentiellement par l’immunisation de la population contre ce virus (première vague en été et taux de couverture vaccinale supérieur à 50% au Canada ; pas de vague estivale et couverture vaccinale de 18% en France). Méthodes : Nous avons comparé deux cohortes nationales qui ont inclue tous les patients avec une infection A(H1N1)pdm09 documentée, admis en SIP au Canada et en France entre le 1er Octobre 2009 et le 31 janvier 2010. Résultats : Au Canada, 160 enfants (incidence=2,63/100000 enfants) en 6 semaines ont été hospitalisés en SIP comparé aux 125 enfants (incidence=1,15/100000 enfants) en 11 semaines en France (p<0,001). Le taux de vaccination avant l’admission était inférieur à 25% parmi les enfants en situation critique dans les deux pays. La gravité à l’admission en SIP et le taux de mortalité ont été similaires au Canada et en France (4,4% en France vs 6,5% au Canada, p=0,45, respectivement). Au Canada, la vaccination contre le virus H1N1pdm09 a été associée avec une diminution du recours à la ventilation invasive (Odd Ratio 0.30, intervalle de confiance à 95% [0,11-0,83], p=0,02). Au Canada comparé à la France, les durées médianes de séjour en SIP et de ventilation invasive ont été plus courtes (2,9 vs 3 jours, p=0,03 et 4 vs 6 jours, p=0,02, respectivement). Conclusion : Les enfants canadiens et français critiquement malades ont été beaucoup moins nombreux à recevoir le vaccin contre le virus influenza A (H1N1)pdm09 en comparaison avec l’ensemble des enfants dans ces deux populations. Au Canada, où la couverture vaccinale a été élevée, le risque d’avoir une détresse respiratoire sévère était moins important parmi les enfants en situation critique ayant été vaccinés avant l’admission.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’objectif de cette étude a été d’évaluer l’effet du remplacement total ou partiel du maïs d’une ration alimentaire standard (MS) sur les performances de croissance, le pH ruminal et les paramètres biochimiques sanguins chez les veaux de grain de race Holstein. Quatre groupes de 80 veaux ont été répartisen32 parcs (10 veaux/parc) et ont été assignés au hasard à quatre rations alimentaires. Les rations alimentaires ont été: la ration standard qui est constituée de maïs et un supplément protéique à 43,6% de protéine brute (MS);une ration réduite de maïs, avec tourteau de canola et de drèche de distillerie de maïs avec soluble (MCD); une ration réduite de maïs, avec supplément protéique à 43,6% de protéine brute et de drèche de distillerie de maïs avec soluble (MSD); et finalement une ration d’orge roulé, de tourteau de canola et de drèche de distillerie de maïs avec soluble (OCD). Les rations alimentaires ont été formulées selon une phase de démarrage P1 (j0 à j54), une de croissance P2 (j55 à j85) et une de finition P3 (j86 à j96). Un groupe additionnel de 5 veaux contrôle (CT), a reçu une ration alimentaire non acidogène à base de fourrage et de concentré. Notons qu’avant le début des traitements alimentaires au j0, sauf CT, les veaux ont reçu une ration d’adaptation contenant du maïs et de l’orge (50-50) et un supplément protéique pendant 20j. Les gains moyens quotidiens (GMQ) ont été similaires aux périodes P1 (0j-j27, j28-j54) et P2 (j55-j85), mais à la période P3 (j86-j96), le GMQ de la ration OCD a été plus grand que ceux dans les autres rations (p<0.001). Le rendement carcasse des veaux abattus au poids vifs d’environ 267 kg, de la ration OCD a été plus petit que ceux des rations MS et MSD (p<0.002). La matière sèche ingérée (MSI) a diminué pour le groupe MSD au j96, comparée à celles des groupes MS et BCD (p<0.001). Cependant, les rations alimentaires n’ont pas eu d’effet sur le poids vif des veaux. Les durées moyennes en dessous du pH ruminal de 5.6 (DpH5.6 en h.j.-1) du j68 au j85 (P2) ont été similaires pour les groupes CT et OCD (p=0.09) et plus petites (p<0.001) que celles des groupes du MS, MCD et MSD. Pendant la phase P3, les DpH5.6 des groupes de MS, MCD et MSD, ont été similaires (p>0.83), mais plus grandes que celle du groupe de OCD (p<0.0001). Les DpH5.6 n’ont pas eu d’effet sur les GMQ. Aux j68 et j96, les rations alimentaires n’ont pas eu d’effet sur la L-lactate (p > 0.05), le pH sanguin (p > 0.001; non significatif après l’ajustement de Bonferroni :NSAB) et le trou anionique (p > 0.009; NSAB). La PCO2 des animaux du groupe MS a été plus grande que celle du groupe CT (p = 0.0003). Au j68, HCO3 - du groupe CT a été plus grande que celle du groupe MCD (p = 0.0008). Les traitements alimentaires n’ont pas d’effets sur la lipopolysaccharide binding protein (LBP) aux j0 et j68. Au j96, la LBP du groupe CT a été plus petite que celle du groupe MS et MCD (p=0.001). Les diètes n’ont pas d’effets significatifs sur les épithéliums et les lamina propria du rumen (p0>0.37), ainsi que sur les abcès du foie (p=0.80). Le remplacement total du maïs par l’orge roulé, la drêche de distillerie de maïs avec soluble et le tourteau de canola amélioré le GMQ en phase de finition, a amélioré le pH du rumen, le rapprochant du pH ruminal physiologique, n’a pas modifié les paramètres biochimiques sanguins qui ont été mesurés et a diminué le rendement carcasse moyen de 1,1%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chez plusieurs espèces, les neurones auditifs sensibles à la durée de la stimulation sont présents au niveau des collicules inférieurs. Toutefois, le décours temporel de leur développement fonctionnel est inconnu. Étant donné que le collicule supérieur est l’un des principaux relais sous-cortical impliqué dans l’intégration des stimuli audio-visuels, nous voulons déterminer si le collicule supérieur du rat contient de tels neurones et s’ils sont sensibles et sélectifs à différentes durées de stimulation auditive. De plus, l'originalité de cette étude est de déterminer les étapes de leur maturation fonctionnelle. Des enregistrements neuronaux unitaires et extra-cellulaires sont effectués dans le collicule supérieur de rats juvéniles (P15-P18, P21-P24, P27-P30) et adultes anesthésiés. La sensibilité à la durée est déterminée lors de la présentation de bruits gaussiens (2-10 dB SPL au-dessus du seuil) de durées variables (3-100 ms). Seulement un faible pourcentage des neurones du collicule supérieur est de type passe-bande (3-9% des neurones parmi les ratons et 20% chez les rats adultes). Une différence significative de la distribution entre les différents types de neurones auditifs sensibles à la durée est présente au cours du développement: les neurones de type passe-haut (63-75%) sont présents en majorité chez les groupes juvéniles alors que 43% des neurones sont de type insensible à la durée de la stimulation auditive chez les rats adultes. Ces résultats montrent qu’une population importante de neurones auditifs du collicule supérieur du rat est sensible à la durée des signaux sonores et qu’un développement fonctionnel important survient au cours du premier mois postnatal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RÉSUMÉ Suite à une centaine de publications sur la réduction de la PIO post-exercice, il est connu que parmi un grand nombre de programme d'exercices de différentes durées et intensités, les effets hypotenseurs de l'exercice sur la PIO sont atténués chez les sujets en bonne condition physique. Le mécanisme proposé est l'augmentation potentielle de l'efficacité du système parasympathique avec l'activité physique. Le principal objectif de cette thèse est d'identifier les facteurs contribuants à la réduction de la PIO post-exercice et d'élucider les différents mécanismes possibles. L'étude 1, une méta-analyse, a été menée afin de quantifier les contributions relatives de l'intensité et de la durée de l'effet de l'exercice sur la PIO et la mesure dans laquelle ces variables affectent les sujets sédentaires et normalement actifs. La tendance ressortant des résultats est que la diminution de la PIO suite à de l'exercice aérobie est plus élevée chez les sujets sédentaires que les sujets en bonne condition physique. (ES = -4.198 mm Hg et -2.340 mm Hg, respectivement). L'absence d'un contrôle des liquides ingérés avant l'activité physique est à souligné dans cette étude. L'hyperosmolarité (un effet secondaire de la déshydratation) est l'un des mécanismes proposés influant l'effet hypotenseur de l'exercice. L'étude 2 comparait la réduction de la PIO dans deux conditions, soit hypohydraté et hyperhydraté, avant, pendant et après un effort de 90 minutes sur un ergocycle. Après une diminution initiale pour les deux conditions, la PIO revient aux valeurs de départ pour la condition hypohydratée malgré une perte de poids significative et elle augmente pour la condition hyperhydratée (résultat du protocole d'hydratation). Étant donné le niveau élevé de participants en bonne condition physique dans l'étude 2, la troisième étude a été conçue afin de etude la relation entre la PIO et la condition physique. À l'aide d'analyses corrélationnelles il a été possible d'observer la relation entre le test de vo2max et la moyenne des mesures de PIO prises sur un intervalle de huit semaines. Une relation significative n'existait que pour les participants se situant dans la portion supérieure du continuum de la condition physique. Conclusion: Les résultats de la présente étude suggèrent que l'effet hypotenseur de l'exercice sur la PIO est probablement une réponse homéostatique à la dérégulation de l'humeur aqueuse causée par l'initiation de l'exercice et le protocole d'ingestion de fluides pré-exercice.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A simple and inexpensive linear magnetic field sweep generating system suitable for magnetic resonance experiments is described. The circuit, utilising a modified IC bootstrap configuration, generates field sweep over a wide range of sweep durations with excellent sweep linearity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The work presented in this thesis is mainly centered on the synthesis and characterization of some encapsulated transition metal complexes and the catalytic activity of the synthesized complexes in certain organic reactions.thesis deals with the catalytic activity of ruthenium-exchanged zeolite and the zeolite encapsulated complexes of SSC, SOD, SPD, AA, ABA, DMG, PCO, PCP, CPO and CPP in the hydroxylation of phenol using hydrogen peroxide. The products were analyzed with a GC to determine the percentage conversion and the chromatograms indicate the presence of different products like hydroquinone, catechol,benzoquinone, benzophenone etc. The major product formed is hydroquinone. From the screening studies, RuYSSC was found to be the most effective catalyst for phenol hydroxylation with 94.4% conversion and 76% hydroquinone selectivity. The influence of different factors like reaction time, temperature, amount of catalyst, effect of various solvents and oxidant to substrate ratio in the catalytic activity were studied in order to find out the optimum conditions for the hydroxylation reaction. The influence of time on the percentage conversion of phenol was studied by conducting the reactions for different durations varying from one hour to four hours. There is an induction period for all the complexes and the length of the induction period depends on the nature of the active components. Though the conversion of phenol and selectivity for hydroquinone. increases with time, the amount of benzoquinone formed decreases with time. This is probably due to the decomposition of benzoquinone formed during the initial stages of the reaction into other degradation products like benzophenones. The effect of temperature was studied by carrying out the reaction at three different temperatures, 30°C, 50°C and 70°C. Reactions carried at temperatures higher than 70°C result either in the decomposition of the products or in the formation of tarry products. Activity increased with increase in the amount of the catalyst up to a certain level. However further increase in the weight of the catalyst did not have any noticeable effect on the percentage conversion. The catalytic studies indicate that the oxidation reaction increases with increase in the volume of hydrogen peroxide till a certain volume. But further increase in the volume of H202 is detrimental as some dark mass is obtained after four hours of reaction. The catalytic activity is largely dependent on the nature of the solvent and maximum percentage conversion occurred when the solvent used is water. The intactness of the complexes within the zeolite cages enhances their possibility of recycling and the activities of the recycled catalysts show only a slight decrease when compared to the fresh samples .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Using a scaling assumption, we propose a phenomenological model aimed to describe the joint probability distribution of two magnitudes A and T characterizing the spatial and temporal scales of a set of avalanches. The model also describes the correlation function of a sequence of such avalanches. As an example we study the joint distribution of amplitudes and durations of the acoustic emission signals observed in martensitic transformations [Vives et al., preceding paper, Phys. Rev. B 52, 12 644 (1995)].

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The progress in microsystem technology or nano technology places extended requirements to the fabrication processes. The trend is moving towards structuring within the nanometer scale on the one hand, and towards fabrication of structures with high aspect ratio (ratio of vertical vs. lateral dimensions) and large depths in the 100 µm scale on the other hand. Current procedures for the microstructuring of silicon are wet chemical etching and dry or plasma etching. A modern plasma etching technique for the structuring of silicon is the so-called "gas chopping" etching technique (also called "time-multiplexed etching"). In this etching technique, passivation cycles, which prevent lateral underetching of sidewalls, and etching cycles, which etch preferably in the vertical direction because of the sidewall passivation, are constantly alternated during the complete etching process. To do this, a CHF3/CH4 plasma, which generates CF monomeres is employed during the passivation cycle, and a SF6/Ar, which generates fluorine radicals and ions plasma is employed during the etching cycle. Depending on the requirements on the etched profile, the durations of the individual passivation and etching cycles are in the range of a few seconds up to several minutes. The profiles achieved with this etching process crucially depend on the flow of reactants, i.e. CF monomeres during the passivation cycle, and ions and fluorine radicals during the etching cycle, to the bottom of the profile, especially for profiles with high aspect ratio. With regard to the predictability of the etching processes, knowledge of the fundamental effects taking place during a gas chopping etching process, and their impact onto the resulting profile is required. For this purpose in the context of this work, a model for the description of the profile evolution of such etching processes is proposed, which considers the reactions (etching or deposition) at the sample surface on a phenomenological basis. Furthermore, the reactant transport inside the etching trench is modelled, based on angular distribution functions and on absorption probabilities at the sidewalls and bottom of the trench. A comparison of the simulated profiles with corresponding experimental profiles reveals that the proposed model reproduces the experimental profiles, if the angular distribution functions and absorption probabilities employed in the model is in agreement with data found in the literature. Therefor the model developed in the context of this work is an adequate description of the effects taking place during a gas chopping plasma etching process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The traditional task of a central bank is to preserve price stability and, in doing so, not to impair the real economy more than necessary. To meet this challenge, it is of great relevance whether inflation is only driven by inflation expectations and the current output gap or whether it is, in addition, influenced by past inflation. In the former case, as described by the New Keynesian Phillips curve, the central bank can immediately and simultaneously achieve price stability and equilibrium output, the so-called ‘divine coincidence’ (Blanchard and Galí 2007). In the latter case, the achievement of price stability is costly in terms of output and will be pursued over several periods. Similarly, it is important to distinguish this latter case, which describes ‘intrinsic’ inflation persistence, from that of ‘extrinsic’ inflation persistence, where the sluggishness of inflation is not a ‘structural’ feature of the economy but merely ‘inherited’ from the sluggishness of the other driving forces, inflation expectations and output. ‘Extrinsic’ inflation persistence is usually considered to be the less challenging case, as policy-makers are supposed to fight against the persistence in the driving forces, especially to reduce the stickiness of inflation expectations by a credible monetary policy, in order to reestablish the ‘divine coincidence’. The scope of this dissertation is to contribute to the vast literature and ongoing discussion on inflation persistence: Chapter 1 describes the policy consequences of inflation persistence and summarizes the empirical and theoretical literature. Chapter 2 compares two models of staggered price setting, one with a fixed two-period duration and the other with a stochastic duration of prices. I show that in an economy with a timeless optimizing central bank the model with the two-period alternating price-setting (for most parameter values) leads to more persistent inflation than the model with stochastic price duration. This result amends earlier work by Kiley (2002) who found that the model with stochastic price duration generates more persistent inflation in response to an exogenous monetary shock. Chapter 3 extends the two-period alternating price-setting model to the case of 3- and 4-period price durations. This results in a more complex Phillips curve with a negative impact of past inflation on current inflation. As simulations show, this multi-period Phillips curve generates a too low degree of autocorrelation and too early turnings points of inflation and is outperformed by a simple Hybrid Phillips curve. Chapter 4 starts from the critique of Driscoll and Holden (2003) on the relative real-wage model of Fuhrer and Moore (1995). While taking the critique seriously that Fuhrer and Moore’s model will collapse to a much simpler one without intrinsic inflation persistence if one takes their arguments literally, I extend the model by a term for inequality aversion. This model extension is not only in line with experimental evidence but results in a Hybrid Phillips curve with inflation persistence that is observably equivalent to that presented by Fuhrer and Moore (1995). In chapter 5, I present a model that especially allows to study the relationship between fairness attitudes and time preference (impatience). In the model, two individuals take decisions in two subsequent periods. In period 1, both individuals are endowed with resources and are able to donate a share of their resources to the other individual. In period 2, the two individuals might join in a common production after having bargained on the split of its output. The size of the production output depends on the relative share of resources at the end of period 1 as the human capital of the individuals, which is built by means of their resources, cannot fully be substituted one against each other. Therefore, it might be rational for a well-endowed individual in period 1 to act in a seemingly ‘fair’ manner and to donate own resources to its poorer counterpart. This decision also depends on the individuals’ impatience which is induced by the small but positive probability that production is not possible in period 2. As a general result, the individuals in the model economy are more likely to behave in a ‘fair’ manner, i.e., to donate resources to the other individual, the lower their own impatience and the higher the productivity of the other individual. As the (seemingly) ‘fair’ behavior is modelled as an endogenous outcome and as it is related to the aspect of time preference, the presented framework might help to further integrate behavioral economics and macroeconomics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We are currently at the cusp of a revolution in quantum technology that relies not just on the passive use of quantum effects, but on their active control. At the forefront of this revolution is the implementation of a quantum computer. Encoding information in quantum states as “qubits” allows to use entanglement and quantum superposition to perform calculations that are infeasible on classical computers. The fundamental challenge in the realization of quantum computers is to avoid decoherence – the loss of quantum properties – due to unwanted interaction with the environment. This thesis addresses the problem of implementing entangling two-qubit quantum gates that are robust with respect to both decoherence and classical noise. It covers three aspects: the use of efficient numerical tools for the simulation and optimal control of open and closed quantum systems, the role of advanced optimization functionals in facilitating robustness, and the application of these techniques to two of the leading implementations of quantum computation, trapped atoms and superconducting circuits. After a review of the theoretical and numerical foundations, the central part of the thesis starts with the idea of using ensemble optimization to achieve robustness with respect to both classical fluctuations in the system parameters, and decoherence. For the example of a controlled phasegate implemented with trapped Rydberg atoms, this approach is demonstrated to yield a gate that is at least one order of magnitude more robust than the best known analytic scheme. Moreover this robustness is maintained even for gate durations significantly shorter than those obtained in the analytic scheme. Superconducting circuits are a particularly promising architecture for the implementation of a quantum computer. Their flexibility is demonstrated by performing optimizations for both diagonal and non-diagonal quantum gates. In order to achieve robustness with respect to decoherence, it is essential to implement quantum gates in the shortest possible amount of time. This may be facilitated by using an optimization functional that targets an arbitrary perfect entangler, based on a geometric theory of two-qubit gates. For the example of superconducting qubits, it is shown that this approach leads to significantly shorter gate durations, higher fidelities, and faster convergence than the optimization towards specific two-qubit gates. Performing optimization in Liouville space in order to properly take into account decoherence poses significant numerical challenges, as the dimension scales quadratically compared to Hilbert space. However, it can be shown that for a unitary target, the optimization only requires propagation of at most three states, instead of a full basis of Liouville space. Both for the example of trapped Rydberg atoms, and for superconducting qubits, the successful optimization of quantum gates is demonstrated, at a significantly reduced numerical cost than was previously thought possible. Together, the results of this thesis point towards a comprehensive framework for the optimization of robust quantum gates, paving the way for the future realization of quantum computers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This is a collection of 12 micro-lectures, to be used by students in advance of practical sessions. Durations range for 3 min to 10 min. Topics include: ****** 1. Introduction ****** 2. Data classes ****** 3. Matrices ****** 4. Getting help ****** 5. Index notation ****** 6. 1- and 2-dimensional data ****** 7. 3-dimensional data ****** 8. Booleans (True/False) ****** 9. Designing a programme (Algorithms) ****** 10. Flow control: If-then statements ****** 11. Flow control: For-do loops ****** 12. Making nicer figures ******

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Existen grupos quirúrgicos específicos donde es mandatorio el uso de relajantes neuromusculares no despolarizantes, como es el caso de los pacientes llevados a procedimiento de neurocirugía; debido a sus características particulares el rocuronio es una buena alternativa para este tipo de procedimientos, ya sea en bolos o en infusión. Sin embargo la relajación residual y los efectos adversos de los medicamentos para revertir la relajación neuromuscular deben tenerse en cuenta en este grupo de pacientes en particular. El presente trabajo busca comparar la reversión de la relajación de infusiones de rocuronio, con Neostigmina mas Atropina vs la reversión con Sugammadex en pacientes llevados a manejo quirúrgico de lesiones supratentoriales por parte del servicio de neurocirugía de la Fundación Cardioinfantil, evaluando complicaciones durante la administración de los medicamentos y 24 horas posoperatorias, así como los tiempos para extubación y salida de salas de cirugía. Estudio con características de experimento prospectivo, aleatorizado, ciego, controlado. En este documento se realiza un reporte preliminar descriptivo de 14 pacientes reclutados hasta la actualidad.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This study compares the discrimination of successive visual number and successive auditory number using the same stimulus durations and presentation rates for both stimuli. The accuracy of the discrimination of successive number decreased as the presentation rate increased and the number in a series increased.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

One of the distinctive characteristics of the water supply system of Greater Amman, the capital of Jordan, is that it has been based on a regime of rationing since 1987, with households receiving water once a week for various durations. This reflects the fact that while Amman's recent growth has been phenomenal, Jordan is one of the ten most water-scarce nations on earth. Amman is highly polarised socio-economically, and by means of household surveys conducted in both high- and low-income divisions of the city, the aim has been to provide detailed empirical evidence concerning the storage and use if water, the strategies used by households to manage water and overall satisfactions with water supply issues, looking specifically at issues of social equity. The analysis demonstrates the social costs of water rationing and consequent household management to be high, as well as emphasising that issues of water quality are of central importance to all consumers.