42 resultados para Two-Phase Start-up Demonstration Test


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Background :¦In addition to opportunistic infections of the central nervous system (CNS), which are due to immunosuppression related to HIV, the latter virus, itself, can cause neuropathological abnormalities which are located mainly in the basal ganglia and are characterized by microglial giant cells, reactive astrocytosis and perivascular monocytes. This HIV encephalopathy is characterized, clinically, by psycho-motor slowing, memory loss, difficulties in complex tasks requiring executive functions, as well as motor disorders .These cognitive deficits are grouped under the acronym of HIV-associated neurocognitive disorders (HAND). In fact, HANDs are subdivided in three groups in accordance with the severity of the cognitive impairment: Asymptomatic Neurocognitive Impairment (ANI), Mild/moderate Neurocognitive Disorders (MND) and HIV Associated Dementia (HAD).¦While the incidence of HAD has significantly decreased in the era of combined antiretrobiral therapy (cART), the prevalence of milder forms of HIV-associated neurocognitive disorders HAND seem to have increased. There are many potential reasons to explain this state of facts.¦An important question is to understand how soon the brain may be affected by HIV. Since performing a biopsy in these patients is not an issue, the study of the CSF represents the best available way to look at putative biomarkers of inflammation/neurodegeneration in the CNS. Here, we wanted to examined the putative usefulness of different biomarkers as early indicators of anti-retroviral failure at the level of the CNS. We chose to study the CSF levels of:¦Amyloid-β 1-42 (Aβ42), Tau total (tTau), phosphorylated Tau (pTau), Neopterin and S100-β.¦Indeed, these molecules are representative biomarkers of the major cells of the CNS, i.e. neurons,¦macrophages/microglia and astrocytes.¦To examine how sensitive were these CSF biomarkers to indicate CNS insults caused by HIV, we proposed to take advantage of the MOST (Monotherapy Switzerland/Thailand study) study, recently published in AIDS. Thus, we collaborated with Prof. Pietro Vernazza in St-Gall. In MOST study, monotherapy (MT) consisting in ritonavir-boosted lopinavir (LPV/r) was compared to continuous conventional antiretroviral therapy including several molecules, hereafter referred as CT¦Methods :We tested 61 cerebrospinal fluid (CSF) samples from 52 patients enrolled in MOST, including 34 CSF samples of CT and 27 of MT (mean duration on MT: 47+20 weeks) in patients who maintained full VL suppression in blood (<50cps/ml). Using enzyme-linked immunosorbent assay (ELISA), we determined the CSF concentration of S100-beta (astrocytosis), neopterin (microglia, inflammation), total Tau (tTau), phosphorylated Tau (pTau), and amyloid-beta 1-42 (Abeta), the latter three markers indicating neuronal damages. The CSF samples of 37 HIV-negative patients with Alzheimer dementia (AD) served as controls. Results are expressed in pg/ml and reported as median ± interquartile range. Mann Whitney-U test was used to compare the results of a given biomarker between two groups and the Fisher test to compare frequencies.¦Results: We found a higher concentration of S100-beta (570±1132) and neopterin (2.5±2.9) in the CSF of MT versus CT (0±532, p=0.002 and 1.2±2.5, p=0.058, respectively). A cutoff of 940 pg/ml for S100-beta allowed to discriminate MT (11 above versus 16 below) from CT (1 vs 33, p=0.0003). At a lesser extent, a cutoff of 11 pg/ml for neopterin separated MT (4 above versus 23) from CT (0 vs 34, p=0.034) (Figure).¦In AD, tTau was higher (270±414) and Abeta lower (234±328) than in CT (150±153, p=0.0078, and 466±489, p=0.007, respectively). Such as for CT, Abeta was lower in AD than in MT (390±412, p=0.01). However, contrasting with CT, the levels of tTau were not different between AD and MT (199±177, p=0.11). S100b (173±214; p=0.0006) and neopterin (1.1±0.9; p=0.0014) were lower in AD than MT.¦Conclusions: Despite full VL-suppression in blood, HIV monotherapy is sufficient to trigger inflammation and, especially, astrocytosis. CSF markers of patients on CT have the same profile as reported for healthy subjects, suggesting that CT permits a good control of HIV in the brain. Finally, the levels of tTau, which are relatively similar between AD and MT patients, suggest that neurons are damaged during monotherapy.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Multiple Aspergillus fumigatus isolates from a patient with two aspergillomas complicating chronic pulmonary aspergillosis were pan-azole resistant. Microsatellite typing was identical for all isolates despite major phenotypic and some growth rate differences. Three different cyp51A mutations were found (G138C, Y431C, and G434C), of which the first two were demonstrated by heterologous expression in a hypersusceptible Saccharomyces cerevisiae strain to be at least partly responsible for elevated MICs. cyp51A and cyp51B gene duplication was excluded, but increased expression of cyp51A was demonstrated in three isolates selected for additional study (7-to 13-fold increases). In the isolate with the greatest cyp51A expression, an Aft1 transposon was found inserted 370 bp upstream of the start codon of the cyp51A gene, an integration location never previously demonstrated in Aspergillus. Two transcription start sites were identified at 49 and 136 bp upstream of the start codon. The role of the Aft1 transposon, if any, in modulating cyp51A expression remains to be established. Increased mRNA expression of the transporters AfuMDR1 and AfuMDR4 also was demonstrated in some isolates, which could contribute to azole resistance or simply represent a stress response. The diversity of confirmed and possible azole resistance mechanisms demonstrated in a single series of isogenic isolates is remarkable, indicating the ability of A. fumigatus to adapt in the clinical setting.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Our objective was to describe the interventions aimed at preventing a recurrent hip fracture, and other injurious falls, which were provided during hospitalization for a first hip fracture and during the two following years. A secondary objective was to study some potential determinants of these preventive interventions. The design of the study was an observational, two-year follow-up of patients hospitalized for a first hip fracture at the University Hospital of Lausanne, Switzerland. The participants were 163 patients (median age 82 years, 83% women) hospitalized in 1991 for a first hip fracture, among 263 consecutively admitted patients (84 did not meet inclusion criteria, e.g., age>50, no cancer, no high energy trauma, and 16 refused to participate). Preventive interventions included: medical investigations performed during the first hospitalization and aimed at revealing modifiable pathologies that raise the risk of injurious falls; use of medications acting on the risk of falls and fractures; preventive recommendations given by medical staff; suppression of environmental hazards; and use of home assistance services. The information was obtained from a baseline questionnaire, the medical record filled during the index hospitalization, and an interview conducted 2 years after the fracture. Potential predictors of the use of preventive interventions were: age; gender; destination after discharge from hospital; comorbidity; cognitive functioning; and activities of daily living. Bi- and multivariate associations between the preventive interventions and the potential predictors were measured. In hospital investigations to rule out medical pathologies raising the risk of fracture were performed in only 20 patients (12%). Drugs raising the risk of falls were reduced in only 17 patients (16%). Preventive procedures not requiring active collaboration by the patient (e.g., modifications of the environment) were applied in 68 patients (42%), and home assistance was provided to 67 patients (85% of the patients living at home). Bivariate analyses indicated that prevention was less often provided to patients in poor general conditions, but no ascertainment of this association was found in multivariate analyses. In conclusion, this study indicates that, in the study setting, measures aimed at preventing recurrent falls and injuries were rarely provided to patients hospitalized for a first hip fracture at the time of the study. Tertiary prevention could be improved if a comprehensive geriatric assessment were systematically provided to the elderly patient hospitalized for a first hip fracture, and passive preventive measures implemented.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction: Glenoid bone volume and bone quality can render the fixation of a reversed shoulder arthroplasty (RSA) basis plate hazardous. Cadaveric study at our institution has demonstrated that optimal baseplate fixation could be achieved with screws in three major columns. Our aim is to review our early rate of aseptic glenoid loosening in a series of baseplates fixed according to this principle. Methods: Between 2005 and 2008, 48 consecutive RSA (Reversed Aequalis) were implanted in 48 patients with an average age of 74.4 years (range, 56 to 86 years). There were 37 women and 11 men. Twenty-seven primary RSAs were performed for cuff tear arthropathy, 3 after failed rotator cuff surgery, 6 for failed arthroplasties, 7 for acute fractures and 5 after failed ORIF. All baseplate fixations were done using a nonlocking posterior screw in the scapular spine, a nonlocking anterior screw in the glenoid body, a locking superior screw in the coracoid and a locking inferior screw in the pillar. All patients were reviewed with standardized radiographs. We reported the positions of the screws in relation to the scapular spine and the coracoid process in two different views. We defined screw positions as totally, partially or out of the target. Finally, we reported aseptic glenoid loosening which was defined as implant subsidence. Results: Four patients were lost to follow-up. Thus 44 shoulders could be reviewed after a mean follow-up of 16 months (range, 9 to 32 months). Thirty-seven (84%) screws were either partially or totally in the spine. Thus, 7 (16%) scapular spine screws were out of the target. No coracoid screw was out of the target. At final follow-up control, we reported no glenoid loosening. Conclusion: Early glenoid loosening occurred before the two years follow-up and is most of time related to technical problems and/or insufficient glenoid bone stock and bone quality. Our study demonstrate that baseplate fixation of a RSA according to the three columns principle is a reproducible technique and a valuable way to prevent early glenoid loosening.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper reports molar heat capacities of Ru50SixGe(50-x) and Ru40SiyGe(60-y) ternary solid solutions determined by differential scanning calorimetry. A second order transition has been characterised for alloys ranging from Ru40Ge60 to Ru40Si10Ge50 at temperatures ranging from 850 to 1040 K, respectively. Tie lines have been established at 1000-900-800-700-600 degrees C by electron microprobe measurements on annealed alloys of the two phase domains: Ru50SixGe(50-x)-Ru40SiyGe(60-y) and Ru40SiyGe(60-y)-SizGe(100-z).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The objective of this study was to comprehensively compare the genomic profiles in the breast of parous and nulliparous postmenopausal women to identify genes that permanently change their expression following pregnancy. The study was designed as a two-phase approach. In the discovery phase, we compared breast genomic profiles of 37 parous with 18 nulliparous postmenopausal women. In the validation phase, confirmation of the genomic patterns observed in the discovery phase was sought in an independent set of 30 parous and 22 nulliparous postmenopausal women. RNA was hybridized to Affymetrix HG_U133 Plus 2.0 oligonucleotide arrays containing probes to 54,675 transcripts, scanned and the images analyzed using Affymetrix GCOS software. Surrogate variable analysis, logistic regression, and significance analysis of microarrays were used to identify statistically significant differences in expression of genes. The false discovery rate (FDR) approach was used to control for multiple comparisons. We found that 208 genes (305 probe sets) were differentially expressed between parous and nulliparous women in both discovery and validation phases of the study at an FDR of 10% and with at least a 1.25-fold change. These genes are involved in regulation of transcription, centrosome organization, RNA splicing, cell-cycle control, adhesion, and differentiation. The results provide initial evidence that full-term pregnancy induces long-term genomic changes in the breast. The genomic signature of pregnancy could be used as an intermediate marker to assess potential chemopreventive interventions with hormones mimicking the effects of pregnancy for prevention of breast cancer.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

BACKGROUND: Evaluation of syncope remains often unstructured. The aim of the study was to assess the effectiveness of a standardized protocol designed to improve the diagnosis of syncope. METHODS: Consecutive patients with syncope presenting to the emergency departments of two primary and tertiary care hospitals over a period of 18 months underwent a two-phase evaluation including: 1) noninvasive assessment (phase I); and 2) specialized tests (phase II), if syncope remained unexplained after phase I. During phase II, the evaluation strategy was alternately left to physicians in charge of patients (control), or guided by a standardized protocol relying on cardiac status and frequency of events (intervention). The primary outcomes were the diagnostic yield of each phase, and the impact of the intervention (phase II) measured by multivariable analysis. RESULTS: Among 1725 patients with syncope, 1579 (92%) entered phase I which permitted to establish a diagnosis in 1061 (67%) of them, including mainly reflex causes and orthostatic hypotension. Five-hundred-eighteen patients (33%) were considered as having unexplained syncope and 363 (70%) entered phase II. A cause for syncope was found in 67 (38%) of 174 patients during intervention periods, compared to 18 (9%) of 189 during control (p<0.001). Compared to control periods, intervention permitted diagnosing more cardiac (8%, vs 3%, p=0.04) and reflex syncope (25% vs 6%, p<0.001), and increased the odds of identifying a cause for syncope by a factor of 4.5 (95% CI: 2.6-8.7, p<0.001). Overall, adding the diagnostic yield obtained during phase I and phase II (intervention periods) permitted establishing the cause of syncope in 76% of patients. CONCLUSION: Application of a standardized diagnostic protocol in patients with syncope improved the likelihood of identifying a cause for this symptom. Future trials should assess the efficacy of diagnosis-specific therapy.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Epigenetic silencing of the DNA repair protein O(6)-methylguanine-DNA methyltransferase (MGMT) by promoter methylation predicts successful alkylating agent therapy, such as with temozolomide, in glioblastoma patients. Stratified therapy assignment of patients in prospective clinical trials according to tumor MGMT status requires a standardized diagnostic test, suitable for high-throughput analysis of small amounts of formalin-fixed, paraffin-embedded tumor tissue. A direct, real-time methylation-specific PCR (MSP) assay was developed to determine methylation status of the MGMT gene promoter. Assay specificity was obtained by selective amplification of methylated DNA sequences of sodium bisulfite-modified DNA. The copy number of the methylated MGMT promoter, normalized to the beta-actin gene, provides a quantitative test result. We analyzed 134 clinical glioma samples, comparing the new test with the previously validated nested gel-based MSP assay, which yields a binary readout. A cut-off value for the MGMT methylation status was suggested by fitting a bimodal normal mixture model to the real-time results, supporting the hypothesis that there are two distinct populations within the test samples. Comparison of the tests showed high concordance of the results (82/91 [90%]; Cohen's kappa = 0.80; 95% confidence interval, 0.82-0.95). The direct, real-time MSP assay was highly reproducible (Pearson correlation 0.996) and showed valid test results for 93% (125/134) of samples compared with 75% (94/125) for the nested, gel-based MSP assay. This high-throughput test provides an important pharmacogenomic tool for individualized management of alkylating agent chemotherapy.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Summary Background: Percutaneous transluminal coronary angioplasty (PTCA) is an effective and minimally invasive treatment for angina pectoris, but its impact on patient's quality of life has not been extensively studied with specific questionnaires. Methods: Over a 6 month period, ail patients suffering from angina, planned for elective PTCA, and available for a 6 months follow-up, were included in the study. The specific "Seattle Angina Questionnaire" (SAQ) was administered the day before and 6 months after PTCA. The decision to implant a coronary stent was left to the cardiologist in charge of the procedure. Results: 112 patients were initially included (39 PTCA and 62 PTCA with stent im-plantation). There was no difference in gender, age, angina severity and type of coronary lesion between the two groups. Follow-up at 6 months was available for 101 patients (90%). Quality of life was dramatically improved in 4 of 5 SAQ dimensions (physical limitation, angina stability, angina frequency, disease perception, p <0.001). Only treatment satisfaction was worse at follow-up then before the procedure (p = 0.03), in particular satisfaction with received explanations, belief that everything possible was donc to treat angina, and global satisfaction. A stent implantation had no impact on these results. Conclusions: PTCA for ischaemic cardiac disease improved not only physical abilities, but also quality of life dramatically. Dissatisfaction with treatment could be corrected with better information during follow-up. SAQ is easy to use and could be selected as a monitoring instrument. Résumé Contexte: Le traitement de l'angine de poitrine par angioplastie coronaire transluminale per-cutanée (PTCA) est efficace et peu invasif, mais son impact sur la qualité de vie des patients a été relativement peu étudié avec des questionnaires spécifiques. Méthode: Durant 6 mois, tous les patients souffrant d'une angine de poitrine pour qui une PTCA élective était envisagée, et qui étaient disponibles pour un suivi à 6 mois ont été inclus dans l'étude. Le questionnaire spécifique «Seattle Angina Questionnaire» (SAQ) a été utilisé le jour avant et 6 mois après la procédure. La décision d'implanter un stent était laissée au cardiologue au moment de la procédure. Résultats: 112 patients ont été initialement inclus. Trente-neuf d'entre eux ont été traités avec une PTCA, et 62 avec une PTCA et l'implantation de stent. Il n'y avait pas de différence de sexe, d'âge, de sévérité de l'angine de poitrine, et de type de lésion coronaire entre les deux groupes. Un suivi à 6 mois a été possible pour 101 patients (90% de la cohorte initiale). La qualité de vie a été améliorée de façon spectaculaire dans 4 des 5 dimensions du SAQ (limites physiques, stabilité de l'angor, fréquence de l'angor, perception de l'angor, p <0,001). Seule, la satisfaction avec le traitement était pire lors du suivi qu'avant l'intervention (p = 0,03), en particulier la satisfaction avec les explications reçues, la conviction que tous les moyens avaient été utilisés pour le traitement, et la satisfaction globale. L'implantation d'un stent n'a eu aucun impact sur ces résultats.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

CERN-MEDICIS (Medical Isotopes Collected from ISOLDE) est une plateforme de recherche destinée à la production de radioisotopes biomédicaux. Inauguré en 2014, il produira progressivement un nombre croissant de radioisotopes grâce au faisceau de protons ISOLDE déjà existant. Ce projet réunit des spécialistes du cancer, des chirurgiens, des experts en médecine nucléaire, en radiochimie et radiopharmacie et les scientifiques du CERN. Les radioisotopes ainsi produits seront destinés à la recherche fondamentale contre le cancer, à des études précliniques ainsi qu'au développement de protocoles d'imagerie et de thérapie destinés aux patients.Le CERN, les HUG, le CHUV, l'ISREC et l'EPFL qui soutiennent ce projet seront les premiers bénéficiaires de ces radioisotopes novateurs dont la distribution sera ensuite étendue à d'autres centres européens. CERN-MEDICIS is a facility dedicated to research and development in life science and medical applications. The research platform was inaugurated in October 2014 and will produce an increasing range of innovative isotopes using the proton beam of ISOLDE for fundamental studies in cancer research, for new imaging and therapy protocols in cell and animal models and for preclinical trials, possibly extended to specific early phase clinical studies (phase 0) up to phase I trials. CERN, the University Hospital of Geneva (HUG), the University Hospital of Lausanne (CHUV), the Swiss Institute for Experimental Cancer (ISREC) at Swiss Federal Institutes of Technology (EPFL) that currently support the project will benefit of the initial production that will then be extended to other centers.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction: L'hyperglycémie est un phénomène connu chez les patients gravement agressés, et surtout chez ceux nécessitant un séjour aux soins intensifs, alors que l'hypoglycémie est une complication menaçante. Des valeurs de glycémies anormales sont associées avec une mortalité et morbidité augmentées chez les patients de soins intensifs, y compris les grands brûlés. Des glycémies jusqu'à 15mmol/l ont longtemps été tolérées sans traitement. En 2001, une grande étude randomisée a complètement changé les pratiques du contrôle glycémique aux soins intensifs. Van den Berghe et al. ont montré qu'un contrôle glycémique strict atteint au moyen d'une « intensive insulin therapy » (HT) visant une glycémie 4.1-6.0 mmol/l réduisait la mortalité chez les patients chirurgicaux traités plus que 5. Par la suite plusieurs études contradictoires ont questionné la validité externe de l'étude de Louvain: avec la publication de l'étude « NICE-SUGAR » en 2009 enrôlant plus de 6000 patients cette hypothèse a été réfutée, aboutissant à un contrôle modéré de la glycémie (6-8 mmol/l). Bien que plusieurs études sur le contrôle glycémique aient également inclus quelques patients brûlés, à ce jour il n'y a pas de recommandation ferme concernant la gestion de la glycémie chez les patients brûlés adultes. Le but de l'étude était d'évaluer la sécurité du protocole de contrôle de la glycémie qui avait été introduit aux soins intensifs adultes chez des patients grand brûlés nécessitant un traitement prolongé aux soins intensifs. Méthodes : 11 s'agit d'une étude rétrospective uni-centrique sur des patients brûlés admis aux soins intensifs du CHUV à Lausanne entre de 2000 à juin 2014. Critères d'inclusions : Age >16 ans, brûlures nécessitant un traitement aux soins intensifs >10 jours. Critères d'exclusion : Décès ou transfert hors des soins intensifs <10 jours. Les investigations ont été limitées aux 21 premiers jours de l'hospitalisation aux soins intensifs. Variables : Variables démographiques, surface brûlée (TBSA), scores de sévérité, infections, durée d'intubation, durée du séjour aux soins intensifs, mortalité. Variables métaboliques : Administration totale de glucides, énergie et insuline/2411, valeurs de glycémie artérielle et CRP. Quatre périodes (P) ont été analysées, correspondant à l'évolution du protocole de contrôle de glycémie du service. P1: Avant son introduction (2000-2001) ; P2: Contrôle glycémie serré géré par les médecins (2002-2006) ; P3: Contrôle glycémie serré géré par lés infirmières (2007-2010); P4: Contrôle modéré géré par les infirmières (2011-2014). Les limites glycémiques ont été définis de manière suivante: Hypoglycémie extrême <2.3mmol/l ; hypoglycémie modéré <4.0mmol/l ; hyperglycémie modérée 8.1-10.0mmol/l ; hyperglycémie sévère >10.0mmol/l. Toutes les valeurs de glycémies artérielles ont été extraites depuis le système informatisé des soins intensifs (MetaVision ®). Statistiques: Wilcoxon rank test, Two- way Anova, Tuckey Kramer test, area under the curve (AUC), Spearman's test et odds ratio. STATA 12 1 ' StataCorp, College station, TX, USA and JPM V 10.1 (SAS Institute, Cary, NC, USA). Résultats: Sur les 508 patients brûlés admis durant la période étudiée, 229 patients correspondaient aux critères d'inclusion, âgés de 45±20ans (X±SD) et brûlés sur 32±20% de la surface corporelle. Les scores de sévérité sont restés stables. Au total 28'690 glycémies artérielles ont été analysées. La valeur médiane de glycémie est restée stable avec une diminution progressive de la variabilité intra-patient. Après initiation du protocole, les valeurs normoglycémiques ont augmenté de 34.7% à 65.9% avec diminution des événements hypoglycémiques (pas d'hypoglycémie extrême en P4). Le nombre d'hyperglycémies sévères est resté stable durant les périodes 1 à 3, avec une diminution en P4 (9.25%) : les doses d'insuline ont aussi diminué. L'interprétation des résultats de P4 a été compliquée par une diminution concomitante des apports d'énergie et de glucose (p<0.0001). Conclusions: L'application du protocole destiné aux patients de soins intensifs non brûlés a amélioré le contrôle glycémique chez les patients adultes brûlés, aboutissant à une diminution significative de la variabilité des glycémies. Un contrôle modéré de la glycémie peut être appliqué en sécurité, considérant le nombre très faible d'hypoglycémies. La gestion du protocole par les infirmières s'avère plus sûre qu'un contrôle par les médecins, avec diminution des hypoglycémies. Cependant le nombre d'hyperglycémies reste trop élevé. L'hyperglycémie' n'est pas contrôlable uniquement par l'administration d'insuline, mais nécessite également une approche multifactorielle comprenant une optimisation de la nutrition adaptée aux besoins énergétiques élevés des grands brûlés. Plus d'études seront nécessaire pour mieux comprendre la complexité du mécanisme de l'hyperglycémie chez le patient adulte brûlé et pour en améliorer le contrôle glycémique.