40 resultados para Aqueous two-phase micellar systems
Resumo:
BACKGROUND: Evaluation of syncope remains often unstructured. The aim of the study was to assess the effectiveness of a standardized protocol designed to improve the diagnosis of syncope. METHODS: Consecutive patients with syncope presenting to the emergency departments of two primary and tertiary care hospitals over a period of 18 months underwent a two-phase evaluation including: 1) noninvasive assessment (phase I); and 2) specialized tests (phase II), if syncope remained unexplained after phase I. During phase II, the evaluation strategy was alternately left to physicians in charge of patients (control), or guided by a standardized protocol relying on cardiac status and frequency of events (intervention). The primary outcomes were the diagnostic yield of each phase, and the impact of the intervention (phase II) measured by multivariable analysis. RESULTS: Among 1725 patients with syncope, 1579 (92%) entered phase I which permitted to establish a diagnosis in 1061 (67%) of them, including mainly reflex causes and orthostatic hypotension. Five-hundred-eighteen patients (33%) were considered as having unexplained syncope and 363 (70%) entered phase II. A cause for syncope was found in 67 (38%) of 174 patients during intervention periods, compared to 18 (9%) of 189 during control (p<0.001). Compared to control periods, intervention permitted diagnosing more cardiac (8%, vs 3%, p=0.04) and reflex syncope (25% vs 6%, p<0.001), and increased the odds of identifying a cause for syncope by a factor of 4.5 (95% CI: 2.6-8.7, p<0.001). Overall, adding the diagnostic yield obtained during phase I and phase II (intervention periods) permitted establishing the cause of syncope in 76% of patients. CONCLUSION: Application of a standardized diagnostic protocol in patients with syncope improved the likelihood of identifying a cause for this symptom. Future trials should assess the efficacy of diagnosis-specific therapy.
Resumo:
Background The aim if this study was to compare percutaneous drainage (PD) of the gallbladder to emergency cholecystectomy (EC) in a well-defined patient group with sepsis related to acute calculous/acalculous cholecystitis (ACC/AAC).Methods Between 2001 and 2007, all consecutive patients of our ICU treated by either PD or EC were retrospectively analyzed. Cases were collected from a prospective database. Percutaneous drainage was performed by a transhepatic route and EC by open or laparoscopic approach. Patients' general condition and organ dysfunction were assessed by two validated scoring systems (SAPS II and SOFA, respectively). Morbidity, mortality, and long-term outcome were systematically reviewed and analyzed in both groups.Results Forty-two patients [median age = 65.5 years (range = 32-94)] were included; 45% underwent EC (ten laparoscopic, nine open) and 55% PD (n = 23). Both patient groups had similar preoperative characteristics. Percutaneous drainage and EC were successful in 91 and 100% of patients, respectively. Organ dysfunctions were similarly improved by the third postoperative/postdrainage days. Despite undergoing PD, two patients required EC due to gangrenous cholecystitis. The conversion rate after laparoscopy was 20%. Overall morbidity was 8.7% after PD and 47% after EC (P = 0.011). Major morbidity was 0% after PD and 21% after EC (P = 0.034). The mortality rate was not different (13% after PD and 16% after EC, P = 1.0) and the deaths were all related to the patients' preexisting disease. Hospital and ICU stays were not different. Recurrent symptoms (17%) occurred only after ACC in the PD group.Conclusions In high-risk patients, PD and EC are both efficient in the resolution of acute cholecystitis sepsis. However, EC is associated with a higher procedure-related morbidity and the laparoscopic approach is not always possible. Percutaneous drainage represents a valuable intervention, but secondary cholecystectomy is mandatory in cases of acute calculous cholecystitis.
Resumo:
RESUME Il a longtemps été admis que le glucose était le principal, sinon le seul substrat du métabolisme énergétique cérébral. Néanmoins, des études récentes indiquent que dans des situations particulières, d'autres substrats peuvent être employés. C'est le cas des monocarboxylates (lactate et pyruvate principalement). Bien que la barrière hématoencéphalique soit peu perméable à ces molécules, elles deviennent néanmoins des substrats possibles si elles sont produites localement. Les deux systèmes enzymatiques pivots des voies glycolytiques et oxydatives sont la lactate déshydrogénase (LDH, EC 1.1.1.27) qui catalyse l'interconversion du pyruvate et du lactate et le complexe pyruvate déshydrogénase qui catalyse la conversion irréversible du pyruvate en acétyl-CoA qui entre dans la respiration mitochondriale. Nous avons étudié la localisation, tant régionale que cellulaire, des isoformes LDH-1, LDH-5 et PDHEla dans le cerveau du chat et dé l'homme au moyen de diverses techniques histologiques. Dans un premier temps, des investigations par hybridation in situ au moyen d'oligosondes marquées au 33P sur de coupes de cerveau de chat ont permis de montrer une différence de l'expression des enzymes à vocation oxydative (LDH-1 et PDHA1, le gène codant pour la protéine PDHEIa) par rapport à LDH-5, isoforme qui catalyse préférentiellement la formation de lactate. LDH-1 et PDHA 1 ont des distributions similaires et sont enrichies dans de nombreuses structures cérébrales, comme l'hippocampe, de nombreux noyaux thalamiques et des structures pontiques. Le cortex cérébral exhibe également une expression importante de LDH-1 et PDH. LDH-5 a par contre une expression largement plus diffuse à travers le cerveau, bien que l'on trouve néanmoins un enrichissement plus important dans l'hippocampe. Ces résultats sont en accord avec les observations que nous avons précédemment publiées chez le rongeur pour LDH-1 et LDH-5 (Laughton et collaborateurs, 2000). Des analyses par PCR en temps réel ont confirmé que dans certaines régions, LDH-1 est exprimée de façon nettement plus importante que LDH-5. Dans un deuxième temps, nous avons appliqué sur des coupes histologiques d'hippocampe et de cortex occipital humain post-mortem des anticorps monoclonaux spécifiques de l'isoforme LDH-5 et la sous-unité PDHela du complexe pyruvate déshydrogénase. Là aussi, les immunoréactions révèlent une ségrégation régionale mais aussi cellulaire des deux enzymes. Dans les deux régions étudiées, LDH-5 est localisée exclusivement dans les astrocytes. Dans le cortex occipital, la matière blanche et également la couche I corticale sont immunopositives pour LDH-5. Dans l'hippocampe, le CA4 et l'alveus exhibe l'immunomarquage le plus intense pour LDH-5. Seuls des neurones (à de rares exceptions quelques astrocytes) sont immunopositifs à l'anticorps monoclonal dirigé contre PDHela. La couche IV du cortex occipital présente la plus forte immunoréaction. Dans l'hippocampe, une immunoréactivité est observée dans le stratum granulosum et à travers la région CA1 jusqu'à la région CA3. L'ensemble de ces résultats montre une hétérogénéité métabolique dans le cerveau et étaye l'hypothèse "astrocyte-neurone lactate shuttle" (ANL5) (Bittar et collaborateurs, 1996; Magistretti et Pellerin, 1999) qui propose que les astrocytes fournissent aux neurones activés du lactate comme substrat alternatif de leur métabolisme énergétique. ABSTRACT For a long time now, glucose has been thought to be the main, if not the sole substrate for brain energy metabolism. Recent data nevertheless suggest that other molecules, such as monocarboxylates (lactate and pyruvate mainly) could be suitable substrates. Although monocarboxylates poorly cross the blood brain barrier (BBB), such substrates could replace glucose if produced locally. The two key enzymatic systems required for the use and production of these substats are lactate dehydrogenase (LDH; EC 1.1.1.27) that catalyses the interconversion of lactate and pyruvate and the pyruvate dehydrogenase complex that irreversibly funnels pyruvate towards the mitochondrial TCA cycle and oxydative phosphorylation. Our study consisted in localizing these different systems with various histochemical procedures in the cat brain and two regions, i.e. hippocampus and primary visual cortex, of the human brain. First, by means of in situ hybridization with 33P labeled oligoprobes, we have demonstrated that the more oxidative enzymes (LDH-1 and PDHA1, the gene coding for PDHEla) are highly expressed in a variety of feline brain structures. These structures include the hippocampus, various thalamic nuclei and the pons. The cerebral cortex exhibits also a high LDH-1 and PDHAl expression. On the other hand, LDH-5 expression is poorer and more diffuse, although the hippocampus does seem to have a higher expression. These fmdings are consistent with our previous observation of the expression of LDH1 and LDH-5 in the rodent brain (Laughton et al, 2000). Real-time PCR (TagMan tm) revealed that, in various regions, LDH-1 is effectively more highly expressed than LDH-5. In a second set of experiments, monoclonal antibodies to LDH-5 and PDHeIa were applied to cryostat sections of post-mortem human hippocampus and occipital cortex. These procedures revealed not only that the two enzymes have different regional distributions, but also distinct cellular localisation. LDH-5 immunoreactivity is solely observed in astrocytes. In the occipital cortex, the white matter and layer I are immunopositive. In the hippocampus, the alveus and CA4 show LDH-5 immunoréactivity. PDHeIa has been detected, with few exceptions, only in neurons. Layer IV of the occipital cortex was most immmunoreactive. In the hippocampus, PDHela immunoreactivity is noticed in the stratum granulosum and through CA 1 to CA3 areas. The overall observations made in this study show that there is a metabolic heterogeneity in the brain and our findings support the hypothesis of an astrocyte-neuron lactate shuttle (ANLS)(Bittar et al., 1996; Magistretti & Pellerin, 1999) where astrocytes export to active neurons lactate to fuel their energy demands.
Resumo:
EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.
Resumo:
PURPOSE: To improve the traditional Nyquist ghost correction approach in echo planar imaging (EPI) at high fields, via schemes based on the reversal of the EPI readout gradient polarity for every other volume throughout a functional magnetic resonance imaging (fMRI) acquisition train. MATERIALS AND METHODS: An EPI sequence in which the readout gradient was inverted every other volume was implemented on two ultrahigh-field systems. Phantom images and fMRI data were acquired to evaluate ghost intensities and the presence of false-positive blood oxygenation level-dependent (BOLD) signal with and without ghost correction. Three different algorithms for ghost correction of alternating readout EPI were compared. RESULTS: Irrespective of the chosen processing approach, ghosting was significantly reduced (up to 70% lower intensity) in both rat brain images acquired on a 9.4T animal scanner and human brain images acquired at 7T, resulting in a reduction of sources of false-positive activation in fMRI data. CONCLUSION: It is concluded that at high B(0) fields, substantial gains in Nyquist ghost correction of echo planar time series are possible by alternating the readout gradient every other volume.
Resumo:
Although the pathology of Morbillivirus in the central nervous system (CNS) is well described, the molecular basis of neurodegenerative events still remains poorly understood. As a model to explore Morbillivirus-mediated CNS dysfunctions, we used canine distemper virus (CDV) that we inoculated into two different cell systems: a monkey cell line (Vero) and rat primary hippocampal neurons. Importantly, the recombinant CDV used in these studies not only efficiently infects both cell types but recapitulates the uncommon, non-cytolytic cell-to-cell spread mediated by virulent CDVs in brain of dogs. Here, we demonstrated that both CDV surface glycoproteins (F and H) markedly accumulated in the endoplasmic reticulum (ER). This accumulation triggered an ER stress, characterized by increased expression of the ER resident chaperon calnexin and the proapoptotic transcription factor CHOP/GADD 153. The expression of calreticulin (CRT), another ER resident chaperon critically involved in the response to misfolded proteins and in Ca(2+) homeostasis, was also upregulated. Transient expression of recombinant CDV F and H surface glycoproteins in Vero cells and primary hippocampal neurons further confirmed a correlation between their accumulation in the ER, CRT upregulation, ER stress and disruption of ER Ca(2+) homeostasis. Furthermore, CDV infection induced CRT fragmentation with re-localisation of a CRT amino-terminal fragment, also known as vasostatin, on the surface of infected and neighbouring non-infected cells. Altogether, these results suggest that ER stress, CRT fragmentation and re-localization on the cell surface may contribute to cytotoxic effects and ensuing cell dysfunctions triggered by Morbillivirus, a mechanism that might potentially be relevant for other neurotropic viruses.
Resumo:
Depuis le séminaire H. Cartan de 1954-55, il est bien connu que l'on peut trouver des éléments de torsion arbitrairement grande dans l'homologie entière des espaces d'Eilenberg-MacLane K(G,n) où G est un groupe abélien non trivial et n>1. L'objectif majeur de ce travail est d'étendre ce résultat à des H-espaces possédant plus d'un groupe d'homotopie non trivial. Dans le but de contrôler précisément le résultat de H. Cartan, on commence par étudier la dualité entre l'homologie et la cohomologie des espaces d'Eilenberg-MacLane 2-locaux de type fini. On parvient ainsi à raffiner quelques résultats qui découlent des calculs de H. Cartan. Le résultat principal de ce travail peut être formulé comme suit. Soit X un H-espace ne possédant que deux groupes d'homotopie non triviaux, tous deux finis et de 2-torsion. Alors X n'admet pas d'exposant pour son groupe gradué d'homologie entière réduite. On construit une large classe d'espaces pour laquelle ce résultat n'est qu'une conséquence d'une caractéristique topologique, à savoir l'existence d'un rétract faible X K(G,n) pour un certain groupe abélien G et n>1. On généralise également notre résultat principal à des espaces plus compliqués en utilisant la suite spectrale d'Eilenberg-Moore ainsi que des méthodes analytiques faisant apparaître les nombres de Betti et leur comportement asymptotique. Finalement, on conjecture que les espaces qui ne possédent qu'un nombre fini de groupes d'homotopie non triviaux n'admettent pas d'exposant homologique. Ce travail contient par ailleurs la présentation de la « machine d'Eilenberg-MacLane », un programme C++ conçu pour calculer explicitement les groupes d'homologie entière des espaces d'Eilenberg-MacLane. <br/><br/>By the work of H. Cartan, it is well known that one can find elements of arbitrarilly high torsion in the integral (co)homology groups of an Eilenberg-MacLane space K(G,n), where G is a non-trivial abelian group and n>1. The main goal of this work is to extend this result to H-spaces having more than one non-trivial homotopy groups. In order to have an accurate hold on H. Cartan's result, we start by studying the duality between homology and cohomology of 2-local Eilenberg-MacLane spaces of finite type. This leads us to some improvements of H. Cartan's methods in this particular case. Our main result can be stated as follows. Let X be an H-space with two non-vanishing finite 2-torsion homotopy groups. Then X does not admit any exponent for its reduced integral graded (co)homology group. We construct a wide class of examples for which this result is a simple consequence of a topological feature, namely the existence of a weak retract X K(G,n) for some abelian group G and n>1. We also generalize our main result to more complicated stable two stage Postnikov systems, using the Eilenberg-Moore spectral sequence and analytic methods involving Betti numbers and their asymptotic behaviour. Finally, we investigate some guesses on the non-existence of homology exponents for finite Postnikov towers. We conjecture that Postnikov pieces do not admit any (co)homology exponent. This work also includes the presentation of the "Eilenberg-MacLane machine", a C++ program designed to compute explicitely all integral homology groups of Eilenberg-MacLane spaces. <br/><br/>Il est toujours difficile pour un mathématicien de parler de son travail. La difficulté réside dans le fait que les objets qu'il étudie sont abstraits. On rencontre assez rarement un espace vectoriel, une catégorie abélienne ou une transformée de Laplace au coin de la rue ! Cependant, même si les objets mathématiques sont difficiles à cerner pour un non-mathématicien, les méthodes pour les étudier sont essentiellement les mêmes que celles utilisées dans les autres disciplines scientifiques. On décortique les objets complexes en composantes plus simples à étudier. On dresse la liste des propriétés des objets mathématiques, puis on les classe en formant des familles d'objets partageant un caractère commun. On cherche des façons différentes, mais équivalentes, de formuler un problème. Etc. Mon travail concerne le domaine mathématique de la topologie algébrique. Le but ultime de cette discipline est de parvenir à classifier tous les espaces topologiques en faisant usage de l'algèbre. Cette activité est comparable à celle d'un ornithologue (topologue) qui étudierait les oiseaux (les espaces topologiques) par exemple à l'aide de jumelles (l'algèbre). S'il voit un oiseau de petite taille, arboricole, chanteur et bâtisseur de nids, pourvu de pattes à quatre doigts, dont trois en avant et un, muni d'une forte griffe, en arrière, alors il en déduira à coup sûr que c'est un passereau. Il lui restera encore à déterminer si c'est un moineau, un merle ou un rossignol. Considérons ci-dessous quelques exemples d'espaces topologiques: a) un cube creux, b) une sphère et c) un tore creux (c.-à-d. une chambre à air). a) b) c) Si toute personne normalement constituée perçoit ici trois figures différentes, le topologue, lui, n'en voit que deux ! De son point de vue, le cube et la sphère ne sont pas différents puisque ils sont homéomorphes: on peut transformer l'un en l'autre de façon continue (il suffirait de souffler dans le cube pour obtenir la sphère). Par contre, la sphère et le tore ne sont pas homéomorphes: triturez la sphère de toutes les façons (sans la déchirer), jamais vous n'obtiendrez le tore. Il existe un infinité d'espaces topologiques et, contrairement à ce que l'on serait naïvement tenté de croire, déterminer si deux d'entre eux sont homéomorphes est très difficile en général. Pour essayer de résoudre ce problème, les topologues ont eu l'idée de faire intervenir l'algèbre dans leurs raisonnements. Ce fut la naissance de la théorie de l'homotopie. Il s'agit, suivant une recette bien particulière, d'associer à tout espace topologique une infinité de ce que les algébristes appellent des groupes. Les groupes ainsi obtenus sont appelés groupes d'homotopie de l'espace topologique. Les mathématiciens ont commencé par montrer que deux espaces topologiques qui sont homéomorphes (par exemple le cube et la sphère) ont les même groupes d'homotopie. On parle alors d'invariants (les groupes d'homotopie sont bien invariants relativement à des espaces topologiques qui sont homéomorphes). Par conséquent, deux espaces topologiques qui n'ont pas les mêmes groupes d'homotopie ne peuvent en aucun cas être homéomorphes. C'est là un excellent moyen de classer les espaces topologiques (pensez à l'ornithologue qui observe les pattes des oiseaux pour déterminer s'il a affaire à un passereau ou non). Mon travail porte sur les espaces topologiques qui n'ont qu'un nombre fini de groupes d'homotopie non nuls. De tels espaces sont appelés des tours de Postnikov finies. On y étudie leurs groupes de cohomologie entière, une autre famille d'invariants, à l'instar des groupes d'homotopie. On mesure d'une certaine manière la taille d'un groupe de cohomologie à l'aide de la notion d'exposant; ainsi, un groupe de cohomologie possédant un exposant est relativement petit. L'un des résultats principaux de ce travail porte sur une étude de la taille des groupes de cohomologie des tours de Postnikov finies. Il s'agit du théorème suivant: un H-espace topologique 1-connexe 2-local et de type fini qui ne possède qu'un ou deux groupes d'homotopie non nuls n'a pas d'exposant pour son groupe gradué de cohomologie entière réduite. S'il fallait interpréter qualitativement ce résultat, on pourrait dire que plus un espace est petit du point de vue de la cohomologie (c.-à-d. s'il possède un exposant cohomologique), plus il est intéressant du point de vue de l'homotopie (c.-à-d. il aura plus de deux groupes d'homotopie non nuls). Il ressort de mon travail que de tels espaces sont très intéressants dans le sens où ils peuvent avoir une infinité de groupes d'homotopie non nuls. Jean-Pierre Serre, médaillé Fields en 1954, a montré que toutes les sphères de dimension >1 ont une infinité de groupes d'homotopie non nuls. Des espaces avec un exposant cohomologique aux sphères, il n'y a qu'un pas à franchir...
Resumo:
OBJECTIVE: This pilot experimental study tested the feasibility and intended effect of an educational intervention for parents to help them assist their adolescent child with chronic illness (CI) in becoming autonomous. METHODS: A two-phase pre-post pilot intervention study targeting parents of adolescents with CI was conducted. Parents were allocated to group 1 and 2 and received the four-module intervention consecutively. Intended effect was measured through online questionnaires for parents and adolescents before, at 2 months after, and at 4-6 months after the intervention. Feasibility was assessed through an evaluation questionnaire for parents. RESULTS: The most useful considered modules concerned the future of the adolescent and parents and social life. The most valued aspect was to exchange with other parents going through similar problems and receiving a new outlook on their relationship with their child. For parents, improvement trends appeared for shared management, parent protection, and self-efficacy, and worsening trends appeared for coping skills, parental perception of child vulnerability, and parental stress. For adolescents, improvement trends appeared for self-efficacy and parental bonding and worsening trends appeared for shared management and coping skills. CONCLUSION: Parents could benefit from peer-to-peer support and education as they support the needed autonomy development of their child. Future studies should test an online platform for parents to find peer support at all times and places.
Resumo:
BACKGROUND: Autologous blood transfusion (ABT) efficiently increases sport performance and is the most challenging doping method to detect. Current methods for detecting this practice center on the plasticizer di(2-ethlyhexyl) phthalate (DEHP), which enters the stored blood from blood bags. Quantification of this plasticizer and its metabolites in urine can detect the transfusion of autologous blood stored in these bags. However, DEHP-free blood bags are available on the market, including n-butyryl-tri-(n-hexyl)-citrate (BTHC) blood bags. Athletes may shift to using such bags to avoid the detection of urinary DEHP metabolites. STUDY DESIGN AND METHODS: A clinical randomized double-blinded two-phase study was conducted of healthy male volunteers who underwent ABT using DEHP-containing or BTHC blood bags. All subjects received a saline injection for the control phase and a blood donation followed by ABT 36 days later. Kinetic excretion of five urinary DEHP metabolites was quantified with liquid chromatography coupled with tandem mass spectrometry. RESULTS: Surprisingly, considerable levels of urinary DEHP metabolites were observed up to 1 day after blood transfusion with BTHC blood bags. The long-term metabolites mono-(2-ethyl-5-carboxypentyl) phthalate and mono-(2-carboxymethylhexyl) phthalate were the most sensitive biomarkers to detect ABT with BTHC blood bags. Levels of DEHP were high in BTHC bags (6.6%), the tubing in the transfusion kit (25.2%), and the white blood cell filter (22.3%). CONCLUSIONS: The BTHC bag contained DEHP, despite being labeled DEHP-free. Urinary DEHP metabolite measurement is a cost-effective way to detect ABT in the antidoping field even when BTHC bags are used for blood storage.
Resumo:
Automation was introduced many years ago in several diagnostic disciplines such as chemistry, haematology and molecular biology. The first laboratory automation system for clinical bacteriology was released in 2006, and it rapidly proved its value by increasing productivity, allowing a continuous increase in sample volumes despite limited budgets and personnel shortages. Today, two major manufacturers, BD Kiestra and Copan, are commercializing partial or complete laboratory automation systems for bacteriology. The laboratory automation systems are rapidly evolving to provide improved hardware and software solutions to optimize laboratory efficiency. However, the complex parameters of the laboratory and automation systems must be considered to determine the best system for each given laboratory. We address several topics on laboratory automation that may help clinical bacteriologists to understand the particularities and operative modalities of the different systems. We present (a) a comparison of the engineering and technical features of the various elements composing the two different automated systems currently available, (b) the system workflows of partial and complete laboratory automation, which define the basis for laboratory reorganization required to optimize system efficiency, (c) the concept of digital imaging and telebacteriology, (d) the connectivity of laboratory automation to the laboratory information system, (e) the general advantages and disadvantages as well as the expected impacts provided by laboratory automation and (f) the laboratory data required to conduct a workflow assessment to determine the best configuration of an automated system for the laboratory activities and specificities.