81 resultados para 3-D trunk image analysis
Resumo:
De nombreux travailleurs utilisent le captan et le folpet comme fongicides en agriculture, mais leur exposition n'est pas toujours mesurée de manière spécifique et précise. La surveillance biologique est un excellent outil à cet effet puisqu'elle permet de quantifier l'exposition réelle. Toutefois, la majorité des connaissances toxicologiques pour ces fongicides proviennent d'études sur les animaux, et les données chez l'humain sont limitées.Le but du présent projet est donc de développer des outils de surveillance biologique pour évaluer l'exposition de travailleurs au captan et au folpet. Dans cette perspective, le projet a été subdivisé en trois parties complémentaires, soit i) de développer des méthodes analytiques spécifiques pour quantifier les biomarqueurs d'intérêt du captan, à savoir le tétrahydrophtalimide (THPI), et du folpet, à savoir le phtalimide (PI) et l'acide phtalique, dans le plasma et l'urine; ii) de déterminer la toxicocinétique des deux fongicides en exposant desvolontaires de façon aigüe à de faibles doses de captan ou de folpet par voie orale et cutanée dans des conditions semi-contrôlées et en quantifiant les biomarqueurs dans chacune des deux matrices, excepté l'acide phtalique qui a été mesuré seulement dans l'urine; iii) de valider les biomarqueurs d'exposition sélectionnés et d'évaluer l'exposition réelle des travailleurs et les voies prédominantes d'exposition au captan et au folpet en collectant des données biologiques chez des travailleurs en arboriculture et en viticulture lors d'activités de traitement et d'effeuillage pendant sept jours consécutifs.Selon ces travaux, le THPI et le PI sont deux biomarqueurs valides et spécifiques pour quantifier l'exposition au captan et au folpet, respectivement, chez l'humain. En effet, les méthodes développées pour ces deux métabolites sont robustes avec des limites de détection plus sensibles que celles rapportées dans la littérature, un taux de recouvrement de 90% pour le THPI et de 75% pour le PI, une très bonne linéarité (R2>0,99) et une bonne stabilité avec des variations intra- et inter-journalières faibles (RSD<15%). Elles ont permis de déterminer les profils cinétiques des deux métabolites chez les volontaires et chez les travailleurs. Ces derniers indiquent d'ailleurs une élimination rapide, avec une demi-vie d'élimination dans l'urine de 11,7 h et 18,7 h pour le THPI et de 27,3 h et 28,8 h pour le PI, respectivement après une absorption par voie orale et cutanée, ainsi qu'une faible absorption cutanée lorsque les valeurs sont comparées pour les deux voies d'exposition. Des profils parallèles sont aussi observés entre le PI et l'acide phtalique pour les volontaires et les agriculteurs, mais le folpet se retrouve davantage métabolisé sous forme d'acide phtalique que de PI. Quant à l'étude des agriculteurs, elle montre que la voie principale d'exposition de ces travailleurs est la voiecutanée. Il est aussi souligné qu'il est important 1) de favoriser les collectes d'urines complètes sur 24 h au urines ponctuelles, 2) de mesurer plusieurs métabolites, et 3) d'associer les données de surveillance biologique à la toxicocinétique. Ainsi, les connaissances acquises par cette étude peuvent s'appliquer à d'autres fongicides, voire d'autres substances.
Resumo:
The high complexity of cortical convolutions in humans is very challenging both for engineers to measure and compare it, and for biologists and physicians to understand it. In this paper, we propose a surface-based method for the quantification of cortical gyrification. Our method uses accurate 3-D cortical reconstruction and computes local measurements of gyrification at thousands of points over the whole cortical surface. The potential of our method to identify and localize precisely gyral abnormalities is illustrated by a clinical study on a group of children affected by 22q11 Deletion Syndrome, compared to control individuals.
Resumo:
To study human T cell migration to human skin in vivo, we grafted severe combined immunodeficient mice with 500-microm thick human skin. Two weeks after grafting, epidermal and dermal structures in the grafts were of human origin. When we intraperitoneally injected grafted mice with clones of the human HUT-78 T cell line derived from a patient with cutaneous T cell lymphoma and Sézary syndrome, we detected in the grafts the rare Vbeta23-Jbeta1.2 T cell receptor transcripts characteristic for the HUT-78 clones. These signals were found 2-6 d after cell injection in about 40% of the grafted and HUT-78 cell injected mice but not in grafts from mice that received no exogenous T cells. In contrast to HUT-78 cells, which only accumulate in low number, grafts topically challenged with nickel sufate in vaseline from mice that were injected with autologous nickel-reactive T cell lines led to massive accumulation of T cells within 3 d. Only scattered T cells accumulated in the skin when grafted mice received vaseline plus T cells, nickel sulfate alone, T cells alone, or nickel sulfate plus an allogeneic nickel-nonreactive T cell clone. When the T cell lines were labeled with the fluorochrome PKH-26 before cell injection, spots of fluorescent label in the size and shape of cells were found in the grafts challenged with nickel. Together, these results clearly demonstrate that human T cells can migrate to human skin in this chimeric human/mouse model.
Resumo:
Sophisticated magnetic resonance tagging techniques provide powerful tools for the non-invasive assessment of the local heartwall motion towards a deeper fundamental understanding of local heart function. For the extraction of motion data from the time series of magnetic resonance tagged images and for the visualization of the local heartwall motion a new image analysis procedure has been developed. New parameters have been derived which allows quantification of the motion patterns and are highly sensitive to any changes in these patterns. The new procedure has been applied for heart motion analysis in healthy volunteers and in patient collectives with different heart diseases. The achieved results are summarized and discussed.
Resumo:
Introduction. Development of the fetal brain surfacewith concomitant gyrification is one of the majormaturational processes of the human brain. Firstdelineated by postmortem studies or by ultrasound, MRIhas recently become a powerful tool for studying in vivothe structural correlates of brain maturation. However,the quantitative measurement of fetal brain developmentis a major challenge because of the movement of the fetusinside the amniotic cavity, the poor spatial resolution,the partial volume effect and the changing appearance ofthe developing brain. Today extensive efforts are made todeal with the âeurooepost-acquisitionâeuro reconstruction ofhigh-resolution 3D fetal volumes based on severalacquisitions with lower resolution (Rousseau, F., 2006;Jiang, S., 2007). We here propose a framework devoted tothe segmentation of the basal ganglia, the gray-whitetissue segmentation, and in turn the 3D corticalreconstruction of the fetal brain. Method. Prenatal MRimaging was performed with a 1-T system (GE MedicalSystems, Milwaukee) using single shot fast spin echo(ssFSE) sequences in fetuses aged from 29 to 32gestational weeks (slice thickness 5.4mm, in planespatial resolution 1.09mm). For each fetus, 6 axialvolumes shifted by 1 mm were acquired (about 1 min pervolume). First, each volume is manually segmented toextract fetal brain from surrounding fetal and maternaltissues. Inhomogeneity intensity correction and linearintensity normalization are then performed. A highspatial resolution image of isotropic voxel size of 1.09mm is created for each fetus as previously published byothers (Rousseau, F., 2006). B-splines are used for thescattered data interpolation (Lee, 1997). Then, basalganglia segmentation is performed on this superreconstructed volume using active contour framework witha Level Set implementation (Bach Cuadra, M., 2010). Oncebasal ganglia are removed from the image, brain tissuesegmentation is performed (Bach Cuadra, M., 2009). Theresulting white matter image is then binarized andfurther given as an input in the Freesurfer software(http://surfer.nmr.mgh.harvard.edu/) to provide accuratethree-dimensional reconstructions of the fetal brain.Results. High-resolution images of the cerebral fetalbrain, as obtained from the low-resolution acquired MRI,are presented for 4 subjects of age ranging from 29 to 32GA. An example is depicted in Figure 1. Accuracy in theautomated basal ganglia segmentation is compared withmanual segmentation using measurement of Dice similarity(DSI), with values above 0.7 considering to be a verygood agreement. In our sample we observed DSI valuesbetween 0.785 and 0.856. We further show the results ofgray-white matter segmentation overlaid on thehigh-resolution gray-scale images. The results arevisually checked for accuracy using the same principlesas commonly accepted in adult neuroimaging. Preliminary3D cortical reconstructions of the fetal brain are shownin Figure 2. Conclusion. We hereby present a completepipeline for the automated extraction of accuratethree-dimensional cortical surface of the fetal brain.These results are preliminary but promising, with theultimate goal to provide âeurooemovieâeuro of the normal gyraldevelopment. In turn, a precise knowledge of the normalfetal brain development will allow the quantification ofsubtle and early but clinically relevant deviations.Moreover, a precise understanding of the gyraldevelopment process may help to build hypotheses tounderstand the pathogenesis of several neurodevelopmentalconditions in which gyrification have been shown to bealtered (e.g. schizophrenia, autismâeuro¦). References.Rousseau, F. (2006), 'Registration-Based Approach forReconstruction of High-Resolution In Utero Fetal MR Brainimages', IEEE Transactions on Medical Imaging, vol. 13,no. 9, pp. 1072-1081. Jiang, S. (2007), 'MRI of MovingSubjects Using Multislice Snapshot Images With VolumeReconstruction (SVR): Application to Fetal, Neonatal, andAdult Brain Studies', IEEE Transactions on MedicalImaging, vol. 26, no. 7, pp. 967-980. Lee, S. (1997),'Scattered data interpolation with multilevel B-splines',IEEE Transactions on Visualization and Computer Graphics,vol. 3, no. 3, pp. 228-244. Bach Cuadra, M. (2010),'Central and Cortical Gray Mater Segmentation of MagneticResonance Images of the Fetal Brain', ISMRM Conference.Bach Cuadra, M. (2009), 'Brain tissue segmentation offetal MR images', MICCAI.
Resumo:
Aggregates of fetal rat brain were maintained in rotating culture for 30-40 days and were analyzed morphologically and biochemically. At 4 days in culture all cells were undifferentiated. At 26 days in vitro over 90% of all cells within the aggregates could be identified as neurons, astrocytes or oligodendrocytes. Myelinated axons and morphologically mature synapses were present at 26 days. Myelination started between 18 and 19 days in culture as determined biochemically. Myelin basic protein sulphatide synthesis and 2′,3′-cyclic nucleotide 3′-phosphohydrolase activity increased with in vitro age. The amount of myelin observed within the aggregates was much lower than observed at the corresponding age in vivo. Neurons and neuronal processes were undergoing severe degeneration in the 40-day aggregates and synaptic contacts were not maintained. There were no normal myelinated axons at 40 days although multilammellar membranes were found intra- and extracellularly. The ganglioside pattern of the aggregates were qualitatively similar to rat whole brain. Quantitatively the GM3ganglioside was elevated in comparison to whole rat brain. Our results indicate that aggregating rat brain cultures provide a useful in vitro system for the biochemical and morphological analysis of myelin formation.
Resumo:
AIM: This study evaluates the effect of front suspension (FS) and dual suspension (DS) mountain-bike on performance and vibrations during off-road uphill riding. METHODS: Thirteen male cyclists (27+/-5 years, 70+/-6 kg, VO(2max)59+/-6 mL.kg(-1).min(-1), mean+/-SD) performed, in a random sequence, at their lactate threshold, an off-road uphill course (1.69 km, 212 m elevation gain) with both type of bicycles. Variable measured: a) VO(2) consumption (K4b2 analyzer, Cosmed), b) power output (SRM) c) gain in altitude and d) 3-D accelerations under the saddle and at the wheel (Physilog, EPFL, Switzerland). Power spectral analy- sis (Fourier) was performed from the vertical acceleration data. RESULTS: Respectively for the FS and DS mountain bike: speed amounted to 7.5+/-0.7 km.h(-1) and 7.4+/-0.8 km.h(-1), (NS), energy expenditure 1.39+/-0.16 kW and 1.38+/-0.18, (NS), gross efficiency 0.161+/-0.013 and 0.159+/-0.013, (NS), peak frequency of vibration under the saddle 4.78+/-2.85 Hz and 2.27+/-0.2 Hz (P<0.01) and median-frequency of vertical displacements of the saddle 9.41+/-1.47 Hz and 5.78+/-2.27 Hz (P<0.01). CONCLUSION: Vibrations at the saddle level of the DS bike are of low frequencies whereas those of the FS bike are mostly of high frequencies. In the DS bike, the torque produced by the cyclist at the pedal level may generate low frequency vibrations. We conclude that the DS bike absorbs more high frequency vibrations, is more comfortable and performs as well as the FS bicycle.
Resumo:
BACKGROUND: Conversion of glucose into lipid (de novo lipogenesis; DNL) is a possible fate of carbohydrate administered during nutritional support. It cannot be detected by conventional methods such as indirect calorimetry if it does not exceed lipid oxidation. OBJECTIVE: The objective was to evaluate the effects of carbohydrate administered as part of continuous enteral nutrition in critically ill patients. DESIGN: This was a prospective, open study including 25 patients nonconsecutively admitted to a medicosurgical intensive care unit. Glucose metabolism and hepatic DNL were measured in the fasting state or after 3 d of continuous isoenergetic enteral feeding providing 28%, 53%, or 75% carbohydrate. RESULTS: DNL increased with increasing carbohydrate intake (f1.gif" BORDER="0"> +/- SEM: 7.5 +/- 1.2% with 28% carbohydrate, 9.2 +/- 1.5% with 53% carbohydrate, and 19.4 +/- 3.8% with 75% carbohydrate) and was nearly zero in a group of patients who had fasted for an average of 28 h (1.0 +/- 0.2%). In multiple regression analysis, DNL was correlated with carbohydrate intake, but not with body weight or plasma insulin concentrations. Endogenous glucose production, assessed with a dual-isotope technique, was not significantly different between the 3 groups of patients (13.7-15.3 micromol * kg(-1) * min(-1)), indicating impaired suppression by carbohydrate feeding. Gluconeogenesis was measured with [(13)C]bicarbonate, and increased as the carbohydrate intake increased (from 2.1 +/- 0.5 micromol * kg(-1) * min(-1) with 28% carbohydrate intake to 3.7 +/- 0.3 micromol * kg(-1) * min(-1) with 75% carbohydrate intake, P: < 0. 05). CONCLUSION: Carbohydrate feeding fails to suppress endogenous glucose production and gluconeogenesis, but stimulates DNL in critically ill patients.
Resumo:
EXECUTIVE SUMMARY : Evaluating Information Security Posture within an organization is becoming a very complex task. Currently, the evaluation and assessment of Information Security are commonly performed using frameworks, methodologies and standards which often consider the various aspects of security independently. Unfortunately this is ineffective because it does not take into consideration the necessity of having a global and systemic multidimensional approach to Information Security evaluation. At the same time the overall security level is globally considered to be only as strong as its weakest link. This thesis proposes a model aiming to holistically assess all dimensions of security in order to minimize the likelihood that a given threat will exploit the weakest link. A formalized structure taking into account all security elements is presented; this is based on a methodological evaluation framework in which Information Security is evaluated from a global perspective. This dissertation is divided into three parts. Part One: Information Security Evaluation issues consists of four chapters. Chapter 1 is an introduction to the purpose of this research purpose and the Model that will be proposed. In this chapter we raise some questions with respect to "traditional evaluation methods" as well as identifying the principal elements to be addressed in this direction. Then we introduce the baseline attributes of our model and set out the expected result of evaluations according to our model. Chapter 2 is focused on the definition of Information Security to be used as a reference point for our evaluation model. The inherent concepts of the contents of a holistic and baseline Information Security Program are defined. Based on this, the most common roots-of-trust in Information Security are identified. Chapter 3 focuses on an analysis of the difference and the relationship between the concepts of Information Risk and Security Management. Comparing these two concepts allows us to identify the most relevant elements to be included within our evaluation model, while clearing situating these two notions within a defined framework is of the utmost importance for the results that will be obtained from the evaluation process. Chapter 4 sets out our evaluation model and the way it addresses issues relating to the evaluation of Information Security. Within this Chapter the underlying concepts of assurance and trust are discussed. Based on these two concepts, the structure of the model is developed in order to provide an assurance related platform as well as three evaluation attributes: "assurance structure", "quality issues", and "requirements achievement". Issues relating to each of these evaluation attributes are analysed with reference to sources such as methodologies, standards and published research papers. Then the operation of the model is discussed. Assurance levels, quality levels and maturity levels are defined in order to perform the evaluation according to the model. Part Two: Implementation of the Information Security Assurance Assessment Model (ISAAM) according to the Information Security Domains consists of four chapters. This is the section where our evaluation model is put into a welldefined context with respect to the four pre-defined Information Security dimensions: the Organizational dimension, Functional dimension, Human dimension, and Legal dimension. Each Information Security dimension is discussed in a separate chapter. For each dimension, the following two-phase evaluation path is followed. The first phase concerns the identification of the elements which will constitute the basis of the evaluation: ? Identification of the key elements within the dimension; ? Identification of the Focus Areas for each dimension, consisting of the security issues identified for each dimension; ? Identification of the Specific Factors for each dimension, consisting of the security measures or control addressing the security issues identified for each dimension. The second phase concerns the evaluation of each Information Security dimension by: ? The implementation of the evaluation model, based on the elements identified for each dimension within the first phase, by identifying the security tasks, processes, procedures, and actions that should have been performed by the organization to reach the desired level of protection; ? The maturity model for each dimension as a basis for reliance on security. For each dimension we propose a generic maturity model that could be used by every organization in order to define its own security requirements. Part three of this dissertation contains the Final Remarks, Supporting Resources and Annexes. With reference to the objectives of our thesis, the Final Remarks briefly analyse whether these objectives were achieved and suggest directions for future related research. Supporting resources comprise the bibliographic resources that were used to elaborate and justify our approach. Annexes include all the relevant topics identified within the literature to illustrate certain aspects of our approach. Our Information Security evaluation model is based on and integrates different Information Security best practices, standards, methodologies and research expertise which can be combined in order to define an reliable categorization of Information Security. After the definition of terms and requirements, an evaluation process should be performed in order to obtain evidence that the Information Security within the organization in question is adequately managed. We have specifically integrated into our model the most useful elements of these sources of information in order to provide a generic model able to be implemented in all kinds of organizations. The value added by our evaluation model is that it is easy to implement and operate and answers concrete needs in terms of reliance upon an efficient and dynamic evaluation tool through a coherent evaluation system. On that basis, our model could be implemented internally within organizations, allowing them to govern better their Information Security. RÉSUMÉ : Contexte général de la thèse L'évaluation de la sécurité en général, et plus particulièrement, celle de la sécurité de l'information, est devenue pour les organisations non seulement une mission cruciale à réaliser, mais aussi de plus en plus complexe. A l'heure actuelle, cette évaluation se base principalement sur des méthodologies, des bonnes pratiques, des normes ou des standards qui appréhendent séparément les différents aspects qui composent la sécurité de l'information. Nous pensons que cette manière d'évaluer la sécurité est inefficiente, car elle ne tient pas compte de l'interaction des différentes dimensions et composantes de la sécurité entre elles, bien qu'il soit admis depuis longtemps que le niveau de sécurité globale d'une organisation est toujours celui du maillon le plus faible de la chaîne sécuritaire. Nous avons identifié le besoin d'une approche globale, intégrée, systémique et multidimensionnelle de l'évaluation de la sécurité de l'information. En effet, et c'est le point de départ de notre thèse, nous démontrons que seule une prise en compte globale de la sécurité permettra de répondre aux exigences de sécurité optimale ainsi qu'aux besoins de protection spécifiques d'une organisation. Ainsi, notre thèse propose un nouveau paradigme d'évaluation de la sécurité afin de satisfaire aux besoins d'efficacité et d'efficience d'une organisation donnée. Nous proposons alors un modèle qui vise à évaluer d'une manière holistique toutes les dimensions de la sécurité, afin de minimiser la probabilité qu'une menace potentielle puisse exploiter des vulnérabilités et engendrer des dommages directs ou indirects. Ce modèle se base sur une structure formalisée qui prend en compte tous les éléments d'un système ou programme de sécurité. Ainsi, nous proposons un cadre méthodologique d'évaluation qui considère la sécurité de l'information à partir d'une perspective globale. Structure de la thèse et thèmes abordés Notre document est structuré en trois parties. La première intitulée : « La problématique de l'évaluation de la sécurité de l'information » est composée de quatre chapitres. Le chapitre 1 introduit l'objet de la recherche ainsi que les concepts de base du modèle d'évaluation proposé. La maniéré traditionnelle de l'évaluation de la sécurité fait l'objet d'une analyse critique pour identifier les éléments principaux et invariants à prendre en compte dans notre approche holistique. Les éléments de base de notre modèle d'évaluation ainsi que son fonctionnement attendu sont ensuite présentés pour pouvoir tracer les résultats attendus de ce modèle. Le chapitre 2 se focalise sur la définition de la notion de Sécurité de l'Information. Il ne s'agit pas d'une redéfinition de la notion de la sécurité, mais d'une mise en perspectives des dimensions, critères, indicateurs à utiliser comme base de référence, afin de déterminer l'objet de l'évaluation qui sera utilisé tout au long de notre travail. Les concepts inhérents de ce qui constitue le caractère holistique de la sécurité ainsi que les éléments constitutifs d'un niveau de référence de sécurité sont définis en conséquence. Ceci permet d'identifier ceux que nous avons dénommés « les racines de confiance ». Le chapitre 3 présente et analyse la différence et les relations qui existent entre les processus de la Gestion des Risques et de la Gestion de la Sécurité, afin d'identifier les éléments constitutifs du cadre de protection à inclure dans notre modèle d'évaluation. Le chapitre 4 est consacré à la présentation de notre modèle d'évaluation Information Security Assurance Assessment Model (ISAAM) et la manière dont il répond aux exigences de l'évaluation telle que nous les avons préalablement présentées. Dans ce chapitre les concepts sous-jacents relatifs aux notions d'assurance et de confiance sont analysés. En se basant sur ces deux concepts, la structure du modèle d'évaluation est développée pour obtenir une plateforme qui offre un certain niveau de garantie en s'appuyant sur trois attributs d'évaluation, à savoir : « la structure de confiance », « la qualité du processus », et « la réalisation des exigences et des objectifs ». Les problématiques liées à chacun de ces attributs d'évaluation sont analysées en se basant sur l'état de l'art de la recherche et de la littérature, sur les différentes méthodes existantes ainsi que sur les normes et les standards les plus courants dans le domaine de la sécurité. Sur cette base, trois différents niveaux d'évaluation sont construits, à savoir : le niveau d'assurance, le niveau de qualité et le niveau de maturité qui constituent la base de l'évaluation de l'état global de la sécurité d'une organisation. La deuxième partie: « L'application du Modèle d'évaluation de l'assurance de la sécurité de l'information par domaine de sécurité » est elle aussi composée de quatre chapitres. Le modèle d'évaluation déjà construit et analysé est, dans cette partie, mis dans un contexte spécifique selon les quatre dimensions prédéfinies de sécurité qui sont: la dimension Organisationnelle, la dimension Fonctionnelle, la dimension Humaine, et la dimension Légale. Chacune de ces dimensions et son évaluation spécifique fait l'objet d'un chapitre distinct. Pour chacune des dimensions, une évaluation en deux phases est construite comme suit. La première phase concerne l'identification des éléments qui constituent la base de l'évaluation: ? Identification des éléments clés de l'évaluation ; ? Identification des « Focus Area » pour chaque dimension qui représentent les problématiques se trouvant dans la dimension ; ? Identification des « Specific Factors » pour chaque Focus Area qui représentent les mesures de sécurité et de contrôle qui contribuent à résoudre ou à diminuer les impacts des risques. La deuxième phase concerne l'évaluation de chaque dimension précédemment présentées. Elle est constituée d'une part, de l'implémentation du modèle général d'évaluation à la dimension concernée en : ? Se basant sur les éléments spécifiés lors de la première phase ; ? Identifiant les taches sécuritaires spécifiques, les processus, les procédures qui auraient dû être effectués pour atteindre le niveau de protection souhaité. D'autre part, l'évaluation de chaque dimension est complétée par la proposition d'un modèle de maturité spécifique à chaque dimension, qui est à considérer comme une base de référence pour le niveau global de sécurité. Pour chaque dimension nous proposons un modèle de maturité générique qui peut être utilisé par chaque organisation, afin de spécifier ses propres exigences en matière de sécurité. Cela constitue une innovation dans le domaine de l'évaluation, que nous justifions pour chaque dimension et dont nous mettons systématiquement en avant la plus value apportée. La troisième partie de notre document est relative à la validation globale de notre proposition et contient en guise de conclusion, une mise en perspective critique de notre travail et des remarques finales. Cette dernière partie est complétée par une bibliographie et des annexes. Notre modèle d'évaluation de la sécurité intègre et se base sur de nombreuses sources d'expertise, telles que les bonnes pratiques, les normes, les standards, les méthodes et l'expertise de la recherche scientifique du domaine. Notre proposition constructive répond à un véritable problème non encore résolu, auquel doivent faire face toutes les organisations, indépendamment de la taille et du profil. Cela permettrait à ces dernières de spécifier leurs exigences particulières en matière du niveau de sécurité à satisfaire, d'instancier un processus d'évaluation spécifique à leurs besoins afin qu'elles puissent s'assurer que leur sécurité de l'information soit gérée d'une manière appropriée, offrant ainsi un certain niveau de confiance dans le degré de protection fourni. Nous avons intégré dans notre modèle le meilleur du savoir faire, de l'expérience et de l'expertise disponible actuellement au niveau international, dans le but de fournir un modèle d'évaluation simple, générique et applicable à un grand nombre d'organisations publiques ou privées. La valeur ajoutée de notre modèle d'évaluation réside précisément dans le fait qu'il est suffisamment générique et facile à implémenter tout en apportant des réponses sur les besoins concrets des organisations. Ainsi notre proposition constitue un outil d'évaluation fiable, efficient et dynamique découlant d'une approche d'évaluation cohérente. De ce fait, notre système d'évaluation peut être implémenté à l'interne par l'entreprise elle-même, sans recourir à des ressources supplémentaires et lui donne également ainsi la possibilité de mieux gouverner sa sécurité de l'information.
Resumo:
Introduction : Doublecortin (DCX) is a microtubule associated protein expressed by migrating neural precursors. DCX is also expressed in approximately 4% of all cortical cells in adult normal primate brain. DCX expression is also enhanced locally in response to an acute insult made to the brain. This is thought to play a role in plasticity or neural repair. That being said, it would be interesting to know how the expression of DCX is modified in a more chronic insult, like in neurodegeneration such as in Parkinson's Disease (PD) and Alzheimer's Disease (AD). The aim of my study is to study the expression of DCX cells in the cortex of patients having a neurodegenerative disease, compared to control patients. Method: DCX cells quantification on 9 DCX‐stained 5 μm thick formalin fixed paraffin embedded brain sections: 3 Alzheimer's disease patients, 3 Parkinson's disease patients and 3 control patients. Each patient had several sections that we could stain with different stainings (GALLYA, TAU, DCX). By using a computerized image analysis system (Explora Nova, La Rochelle, France), cortical columns were selected on areas on the cortex with a lot of degeneration subjectively observed on GALLYA stained sections and on TAU stained sections. Then total number of cells was counted on TAU sections, where all nuclei were colored in blue. Then the DCX cells were counted on the corresponding DCX sections. These values were standardized to a reference surface area. The ratio of DCX cells over total cells was then calculated. Results : There is a difference of DCX cell expression between Alzheimer's Disease patients and control patients. The percentage of dcx cells in the cortex of an Alzheimer's patient is around 12.54% ± 2.17%, where as in the cortex of control patients, it is around 5.47% ± 0.83%. On the other hand, there is no significant difference in the ratio of DCX cells over total cells between parkinson's patients and control patients, both having around 5% of DCX cells. Discussion: There is a dramatic increase of DCX expression in AD (12.5%) compared to PD and controls (5.5%). The increase in DCX ratio in AD may have two potential causes: 1.The increased ratio is due to DCX cells being more resistant to degeneration compared to surrounding cells which are degenerating due to AD, leading to the cortical atrophy observed in AD patients. So the decrease of total cells without any change in the number of DCX cells makes the ratio bigger in AD compared to the controls. 2.The increased ratio is due to an actual increase in DCX cells. This means that there is some neural repair to compensate the degenerative process, just like the repair process observed in acute lesions to the brain. This second idea can be integrated in the broader point of view of neuroinflammation. The progression of the disease would trigger neuroinflammation and the process following the primary inflammatory response which is neural repair. So our study can show that the increase in DCX cells is an attempt to repair the degenerated neurons, in the context of neuroinflammation triggered by the physiopathological progression of the disease.
Resumo:
L'hypertension artérielle touche 5 à 10 % des femmes enceintes. Afin de prévenir les¦complications d'une pression sanguine trop élevée, des médicaments antihypertenseurs tel¦que le labétalol (bétabloquant) peuvent être administrés en cours de grossesse. Ces¦médicaments traversent tous, sans exception, la barrière foeto-placentaire. En ce qui¦concerne le labétalol, 30 à 50% de la concentration dans le sang maternel se retrouve dans¦le sang du cordon ombilical.¦Le principal objectif de cette étude rétrospective consiste à déterminer s'il existe une¦corrélation entre une éventuelle imprégnation du nouveau-né par du labétalol administré en¦prénatal et son adaptation à la naissance et durant les 96 premières heures de vie.¦Pour ce faire, une liste de 268 patientes, suivies par le service de gynécologie-obstétrique du¦CHUV sur une période allant du 01.01.2008 au 31.12.2009, a été établie à partir des motsclés¦hypertension artérielle et/ou pré-éclampsie comme diagnostic.¦Parmi ces 268 patientes, ont été retenues pour l'étude uniquement celles ayant reçu du¦labétalol durant les 4 derniers jours de leur grossesse. Cela concerne 38 patientes (14.2%)¦dont 3 d'entre elles ont eu une grossesse gémellaire. Par conséquent, cela représente un¦collectif de 41 nouveau-nés. Afin d'évaluer l'adaptation du nouveau-né à la naissance et¦durant les 96 premières heures de vie, différents paramètres ont été retenus parmi lesquels¦le besoin d'une hospitalisation dans le service de néonatologie, la fréquence cardiaque, la¦fréquence respiratoire, la tension artérielle ainsi que la glycémie. Pour écarter toute influence¦de la prématurité ou d'un poids de naissance trop bas sur l'adaptation néonatale, quatre¦groupes ont été constitués.¦Finalement, une analyse relative à la dose de labétalol a été abordée dans le but de¦déterminer une dose seuil à partir de laquelle l'adaptation du nouveau-né, imprégné par le¦labétalol serait plus difficile.
Resumo:
Une expertise collective sur l'évaluation des risques liés aux nanomatériaux pour la population générale et pour l'environnement a identifié plusieurs centaines de produits de grande consommation contenant des nanomatériaux, présents dans notre quotidien : textiles, cosmétiques, alimentaires, équipements sportifs, matériaux de construction... Des études nouvelles suggèrent la possibilité de risques pour la santé et pour l'environnement de certains produits. Face à cette situation d'incertitude, l'Afsset recommande d'agir sans attendre au nom du principe de précaution et de 1) Rendre obligatoire la traçabilité des nanomatériaux. Cela passe par une obligation de déclaration par les industriels, 2) la mise en place un étiquetage clair qui mentionne la présence de nanomatériaux dans les produits et informe sur la possibilité de relargage à l'usage, 3) d'aller jusqu'à l'interdiction de certains usages des nanomatériaux pour lesquels l'utilité est faible par rapport aux dangers potentiels, 4) l'harmonisation des cadres réglementaires français et européens pour généraliser les meilleures pratiques : déclaration, autorisation, substitution. En particulier, une révision de REACh s'impose pour prendre en compte les nanomatériaux manufacturés de manière spécifique et quel que soit leur tonnage. L'expertise fait également des recommandations pour construire une méthode renouvelée d'évaluation des risques sanitaires qui soit adaptée aux spécificités des nanomatériaux. Pour cela l'Afsset a testé les méthodologies classiques d'évaluation des risques sur 4 produits particuliers et courants : la chaussette antibactérienne (nanoparticules d'argent), le ciment autonettoyant et le lait solaire (nanoparticules de dioxyde de titane), la silice alimentaire à l'état nanométrique. Ces 4 produits représentent bien les voies d'exposition de l'homme (cutanée, inhalation, ingestion) et la possibilité de dispersion environnementale. Ces travaux font apparaître une urgence à faire progresser les connaissances sur les expositions et les dangers potentiels des nanomatériaux. Aujourd'hui, seuls 2% des études publiées sur les nanomatériaux concernent leurs risques pour la santé et l'environnement. Le premier effort devra porter sur la normalisation des caractéristiques des nanomatériaux. Les priorités de la recherche devront cibler la toxicologie, l'écotoxicologie et la mesure des expositions. Enfin, l'Afsset prévoit de s'autosaisir pour définir en 2 ans, avec son groupe de travail, un outil simplifié d'évaluation des risques. Il s'agit d'une grille de cotation des risques qui permet de catégoriser les produits en plusieurs gammes de risques. Face à ce chantier considérable, une mise en réseau entre les organismes européens et internationaux pour se partager le travail est nécessaire. Elle a commencé autour de l'OCDE qui coordonne des travaux d'évaluation des risques et de l'ISO qui travaille à la mise en place de nouvelles normes. [Auteurs]
Resumo:
Most hematopoietic stem cells (HSC) in the bone marrow reside in a quiescent state and occasionally enter the cell cycle upon cytokine-induced activation. Although the mechanisms regulating HSC quiescence and activation remain poorly defined, recent studies have revealed a role of lipid raft clustering (LRC) in HSC activation. Here, we tested the hypothesis that changes in lipid raft distribution could serve as an indicator of the quiescent and activated state of HSCs in response to putative niche signals. A semi-automated image analysis tool was developed to map the presence or absence of lipid raft clusters in live HSCs cultured for just one hour in serum-free medium supplemented with stem cell factor (SCF). By screening the ability of 19 protein candidates to alter lipid raft dynamics, we identified six factors that induced either a marked decrease (Wnt5a, Wnt3a and Osteopontin) or increase (IL3, IL6 and VEGF) in LRC. Cell cycle kinetics of single HSCs exposed to these factors revealed a correlation of LRC dynamics and proliferation kinetics: factors that decreased LRC slowed down cell cycle kinetics, while factors that increased LRC led to faster and more synchronous cycling. The possibility of identifying, by LRC analysis at very early time points, whether a stem cell is activated and possibly committed upon exposure to a signaling cue of interest could open up new avenues for large-scale screening efforts.
Resumo:
PURPOSE: To test the hypothesis that both coronary anatomy and ventricular function can be assessed simultaneously using a single four-dimensional (4D) acquisition. METHODS: A free-running 4D whole-heart self-navigated acquisition incorporating a golden angle radial trajectory was implemented and tested in vivo in nine healthy adult human subjects. Coronary magnetic resonance angiography (MRA) datasets with retrospective selection of acquisition window width and position were extracted and quantitatively compared with baseline self-navigated electrocardiography (ECG) -triggered coronary MRA. From the 4D datasets, the left-ventricular end-systolic, end-diastolic volumes (ESV & EDV) and ejection fraction (EF) were computed and compared with values obtained from conventional 2D cine images. RESULTS: The 4D datasets enabled dynamic assessment of the whole heart with isotropic spatial resolution of 1.15 mm(3) . Coronary artery image quality was very similar to that of the ECG-triggered baseline scan despite some SNR penalty. A good agreement between 4D and 2D cine imaging was found for EDV, ESV, and EF. CONCLUSION: The hypothesis that both coronary anatomy and ventricular function can be assessed simultaneously in vivo has been tested positive. Retrospective and flexible acquisition window selection allows to best visualize each coronary segment at its individual time point of quiescence. Magn Reson Med, 2014. © 2014 Wiley Periodicals, Inc.
Resumo:
Morphogenesis emerges from complex multiscale interactions between genetic and mechanical processes. To understand these processes, the evolution of cell shape, proliferation and gene expression must be quantified. This quantification is usually performed either in full 3D, which is computationally expensive and technically challenging, or on 2D planar projections, which introduces geometrical artifacts on highly curved organs. Here we present MorphoGraphX ( www.MorphoGraphX.org), a software that bridges this gap by working directly with curved surface images extracted from 3D data. In addition to traditional 3D image analysis, we have developed algorithms to operate on curved surfaces, such as cell segmentation, lineage tracking and fluorescence signal quantification. The software's modular design makes it easy to include existing libraries, or to implement new algorithms. Cell geometries extracted with MorphoGraphX can be exported and used as templates for simulation models, providing a powerful platform to investigate the interactions between shape, genes and growth.