938 resultados para Chaîne de Markov cachée
Resumo:
En aquest projecte es proposa un algorisme de detecció de pell que introdueix el veïnatge a l’hora de classificar píxels. Partim d’un espai de color invariant après a partir de múltiples vistes i introduïm la influència del veïnatge mitjançant camps aleatoris de Markov. A partir dels experiments realitzats podem concloure que la inclusió del veïnatge en el procés de classificació de píxels millora significativament els resultats de detecció.
Resumo:
Motivation. The study of human brain development in itsearly stage is today possible thanks to in vivo fetalmagnetic resonance imaging (MRI) techniques. Aquantitative analysis of fetal cortical surfacerepresents a new approach which can be used as a markerof the cerebral maturation (as gyration) and also forstudying central nervous system pathologies [1]. However,this quantitative approach is a major challenge forseveral reasons. First, movement of the fetus inside theamniotic cavity requires very fast MRI sequences tominimize motion artifacts, resulting in a poor spatialresolution and/or lower SNR. Second, due to the ongoingmyelination and cortical maturation, the appearance ofthe developing brain differs very much from thehomogenous tissue types found in adults. Third, due tolow resolution, fetal MR images considerably suffer ofpartial volume (PV) effect, sometimes in large areas.Today extensive efforts are made to deal with thereconstruction of high resolution 3D fetal volumes[2,3,4] to cope with intra-volume motion and low SNR.However, few studies exist related to the automatedsegmentation of MR fetal imaging. [5] and [6] work on thesegmentation of specific areas of the fetal brain such asposterior fossa, brainstem or germinal matrix. Firstattempt for automated brain tissue segmentation has beenpresented in [7] and in our previous work [8]. Bothmethods apply the Expectation-Maximization Markov RandomField (EM-MRF) framework but contrary to [7] we do notneed from any anatomical atlas prior. Data set &Methods. Prenatal MR imaging was performed with a 1-Tsystem (GE Medical Systems, Milwaukee) using single shotfast spin echo (ssFSE) sequences (TR 7000 ms, TE 180 ms,FOV 40 x 40 cm, slice thickness 5.4mm, in plane spatialresolution 1.09mm). Each fetus has 6 axial volumes(around 15 slices per volume), each of them acquired inabout 1 min. Each volume is shifted by 1 mm with respectto the previous one. Gestational age (GA) ranges from 29to 32 weeks. Mother is under sedation. Each volume ismanually segmented to extract fetal brain fromsurrounding maternal tissues. Then, in-homogeneityintensity correction is performed using [9] and linearintensity normalization is performed to have intensityvalues that range from 0 to 255. Note that due tointra-tissue variability of developing brain someintensity variability still remains. For each fetus, ahigh spatial resolution image of isotropic voxel size of1.09 mm is created applying [2] and using B-splines forthe scattered data interpolation [10] (see Fig. 1). Then,basal ganglia (BS) segmentation is performed on thissuper reconstructed volume. Active contour framework witha Level Set (LS) implementation is used. Our LS follows aslightly different formulation from well-known Chan-Vese[11] formulation. In our case, the LS evolves forcing themean of the inside of the curve to be the mean intensityof basal ganglia. Moreover, we add local spatial priorthrough a probabilistic map created by fitting anellipsoid onto the basal ganglia region. Some userinteraction is needed to set the mean intensity of BG(green dots in Fig. 2) and the initial fitting points forthe probabilistic prior map (blue points in Fig. 2). Oncebasal ganglia are removed from the image, brain tissuesegmentation is performed as described in [8]. Results.The case study presented here has 29 weeks of GA. Thehigh resolution reconstructed volume is presented in Fig.1. The steps of BG segmentation are shown in Fig. 2.Overlap in comparison with manual segmentation isquantified by the Dice similarity index (DSI) equal to0.829 (values above 0.7 are considered a very goodagreement). Such BG segmentation has been applied on 3other subjects ranging for 29 to 32 GA and the DSI hasbeen of 0.856, 0.794 and 0.785. Our segmentation of theinner (red and blue contours) and outer cortical surface(green contour) is presented in Fig. 3. Finally, torefine the results we include our WM segmentation in theFreesurfer software [12] and some manual corrections toobtain Fig.4. Discussion. Precise cortical surfaceextraction of fetal brain is needed for quantitativestudies of early human brain development. Our workcombines the well known statistical classificationframework with the active contour segmentation forcentral gray mater extraction. A main advantage of thepresented procedure for fetal brain surface extraction isthat we do not include any spatial prior coming fromanatomical atlases. The results presented here arepreliminary but promising. Our efforts are now in testingsuch approach on a wider range of gestational ages thatwe will include in the final version of this work andstudying as well its generalization to different scannersand different type of MRI sequences. References. [1]Guibaud, Prenatal Diagnosis 29(4) (2009). [2] Rousseau,Acad. Rad. 13(9), 2006, [3] Jiang, IEEE TMI 2007. [4]Warfield IADB, MICCAI 2009. [5] Claude, IEEE Trans. Bio.Eng. 51(4) (2004). [6] Habas, MICCAI (Pt. 1) 2008. [7]Bertelsen, ISMRM 2009 [8] Bach Cuadra, IADB, MICCAI 2009.[9] Styner, IEEE TMI 19(39 (2000). [10] Lee, IEEE Trans.Visual. And Comp. Graph. 3(3), 1997, [11] Chan, IEEETrans. Img. Proc, 10(2), 2001 [12] Freesurfer,http://surfer.nmr.mgh.harvard.edu.
Resumo:
BACKGROUND: In vitro aggregating brain cell cultures containing all types of brain cells have been shown to be useful for neurotoxicological investigations. The cultures are used for the detection of nervous system-specific effects of compounds by measuring multiple endpoints, including changes in enzyme activities. Concentration-dependent neurotoxicity is determined at several time points. METHODS: A Markov model was set up to describe the dynamics of brain cell populations exposed to potentially neurotoxic compounds. Brain cells were assumed to be either in a healthy or stressed state, with only stressed cells being susceptible to cell death. Cells may have switched between these states or died with concentration-dependent transition rates. Since cell numbers were not directly measurable, intracellular lactate dehydrogenase (LDH) activity was used as a surrogate. Assuming that changes in cell numbers are proportional to changes in intracellular LDH activity, stochastic enzyme activity models were derived. Maximum likelihood and least squares regression techniques were applied for estimation of the transition rates. Likelihood ratio tests were performed to test hypotheses about the transition rates. Simulation studies were used to investigate the performance of the transition rate estimators and to analyze the error rates of the likelihood ratio tests. The stochastic time-concentration activity model was applied to intracellular LDH activity measurements after 7 and 14 days of continuous exposure to propofol. The model describes transitions from healthy to stressed cells and from stressed cells to death. RESULTS: The model predicted that propofol would affect stressed cells more than healthy cells. Increasing propofol concentration from 10 to 100 μM reduced the mean waiting time for transition to the stressed state by 50%, from 14 to 7 days, whereas the mean duration to cellular death reduced more dramatically from 2.7 days to 6.5 hours. CONCLUSION: The proposed stochastic modeling approach can be used to discriminate between different biological hypotheses regarding the effect of a compound on the transition rates. The effects of different compounds on the transition rate estimates can be quantitatively compared. Data can be extrapolated at late measurement time points to investigate whether costs and time-consuming long-term experiments could possibly be eliminated.
Resumo:
OBJECTIVE: To investigate the evolution of delirium of nursing home (NH) residents and their possible predictors. DESIGN: Post-hoc analysis of a prospective cohort assessment. SETTING: Ninety NHs in Switzerland. PARTICIPANTS: Included 14,771 NH residents. MEASUREMENTS: The Resident Assessment Instrument Minimum Data Set and the Nursing Home Confusion Assessment Method were used to determine follow-up of subsyndromal or full delirium in NH residents using discrete Markov chain modeling to describe long-term trajectories and multiple logistic regression analyses to determine predictors of the trajectories. RESULTS: We identified four major types of delirium time courses in NH. Increasing severity of cognitive impairment and of depressive symptoms at the initial assessment predicted the different delirium time courses. CONCLUSION: More pronounced cognitive impairment and depressive symptoms at the initial assessment are associated with different subsequent evolutions of delirium. The presence and evolution of delirium in the first year after NH admission predicted the subsequent course of delirium until death.
Resumo:
La Bible est l'un des plus fabuleux trésors d'histoires de l'humanité. Car depuis la nuit des temps, les croyants racontent. Mais pas n'importe quoi. Longuement façonnés dans l'oralité, patiemment rédigés, les récits bibliques obéissent à de subtiles règles de composition. Derrière les histoires apparemment naives se cache la fine stratégie d'un narrateur. Grâce à ses qualités pédagogiques, le livre de Daniel Marguerat et Yvan Bourquin s'est imposé comme un manuel de référence pour l'initiation à l'analyse narrative des textes bibliques. Il a été traduit en plusieurs langue.
Resumo:
La Bible est l'un des plus fabuleux trésors d'histoires de l'humanité. Car depuis la nuit des temps, les croyants racontent. Mais pas n'importe quoi. Longuement façonnés dans l'oralité, patiemment rédigés, les récits bibliques obéissent à de subtiles règles de composition. Derrière les histoires apparemment naives se cache la fine stratégie d'un narrateur. Grâce à ses qualités pédagogiques, le livre de Daniel Marguerat et Yvan Bourquin s'est imposé comme un manuel de référence pour l'initiation à l'analyse narrative des textes bibliques. Il a été traduit en plusieurs langue. Pour cette 4e édition, l'étude de l'intrigue et de la construction des personnages a été renouvelée. Avec clarté, ses auteurs ont aménagé un parcours qui permet de découvrir les outils de l'analyse narrative, d'étudier leur application, d'évaluer leur efficacité. Toute la magie de la lecture biblique s'en trouve éclairée.
Resumo:
Des progrès significatifs ont été réalisés dans le domaine de l'intégration quantitative des données géophysique et hydrologique l'échelle locale. Cependant, l'extension à de plus grandes échelles des approches correspondantes constitue encore un défi majeur. Il est néanmoins extrêmement important de relever ce défi pour développer des modèles fiables de flux des eaux souterraines et de transport de contaminant. Pour résoudre ce problème, j'ai développé une technique d'intégration des données hydrogéophysiques basée sur une procédure bayésienne de simulation séquentielle en deux étapes. Cette procédure vise des problèmes à plus grande échelle. L'objectif est de simuler la distribution d'un paramètre hydraulique cible à partir, d'une part, de mesures d'un paramètre géophysique pertinent qui couvrent l'espace de manière exhaustive, mais avec une faible résolution (spatiale) et, d'autre part, de mesures locales de très haute résolution des mêmes paramètres géophysique et hydraulique. Pour cela, mon algorithme lie dans un premier temps les données géophysiques de faible et de haute résolution à travers une procédure de réduction déchelle. Les données géophysiques régionales réduites sont ensuite reliées au champ du paramètre hydraulique à haute résolution. J'illustre d'abord l'application de cette nouvelle approche dintégration des données à une base de données synthétiques réaliste. Celle-ci est constituée de mesures de conductivité hydraulique et électrique de haute résolution réalisées dans les mêmes forages ainsi que destimations des conductivités électriques obtenues à partir de mesures de tomographic de résistivité électrique (ERT) sur l'ensemble de l'espace. Ces dernières mesures ont une faible résolution spatiale. La viabilité globale de cette méthode est testée en effectuant les simulations de flux et de transport au travers du modèle original du champ de conductivité hydraulique ainsi que du modèle simulé. Les simulations sont alors comparées. Les résultats obtenus indiquent que la procédure dintégration des données proposée permet d'obtenir des estimations de la conductivité en adéquation avec la structure à grande échelle ainsi que des predictions fiables des caractéristiques de transports sur des distances de moyenne à grande échelle. Les résultats correspondant au scénario de terrain indiquent que l'approche d'intégration des données nouvellement mise au point est capable d'appréhender correctement les hétérogénéitées à petite échelle aussi bien que les tendances à gande échelle du champ hydraulique prévalent. Les résultats montrent également une flexibilté remarquable et une robustesse de cette nouvelle approche dintégration des données. De ce fait, elle est susceptible d'être appliquée à un large éventail de données géophysiques et hydrologiques, à toutes les gammes déchelles. Dans la deuxième partie de ma thèse, j'évalue en détail la viabilité du réechantillonnage geostatique séquentiel comme mécanisme de proposition pour les méthodes Markov Chain Monte Carlo (MCMC) appliquées à des probmes inverses géophysiques et hydrologiques de grande dimension . L'objectif est de permettre une quantification plus précise et plus réaliste des incertitudes associées aux modèles obtenus. En considérant une série dexemples de tomographic radar puits à puits, j'étudie deux classes de stratégies de rééchantillonnage spatial en considérant leur habilité à générer efficacement et précisément des réalisations de la distribution postérieure bayésienne. Les résultats obtenus montrent que, malgré sa popularité, le réechantillonnage séquentiel est plutôt inefficace à générer des échantillons postérieurs indépendants pour des études de cas synthétiques réalistes, notamment pour le cas assez communs et importants où il existe de fortes corrélations spatiales entre le modèle et les paramètres. Pour résoudre ce problème, j'ai développé un nouvelle approche de perturbation basée sur une déformation progressive. Cette approche est flexible en ce qui concerne le nombre de paramètres du modèle et lintensité de la perturbation. Par rapport au rééchantillonage séquentiel, cette nouvelle approche s'avère être très efficace pour diminuer le nombre requis d'itérations pour générer des échantillons indépendants à partir de la distribution postérieure bayésienne. - Significant progress has been made with regard to the quantitative integration of geophysical and hydrological data at the local scale. However, extending corresponding approaches beyond the local scale still represents a major challenge, yet is critically important for the development of reliable groundwater flow and contaminant transport models. To address this issue, I have developed a hydrogeophysical data integration technique based on a two-step Bayesian sequential simulation procedure that is specifically targeted towards larger-scale problems. The objective is to simulate the distribution of a target hydraulic parameter based on spatially exhaustive, but poorly resolved, measurements of a pertinent geophysical parameter and locally highly resolved, but spatially sparse, measurements of the considered geophysical and hydraulic parameters. To this end, my algorithm links the low- and high-resolution geophysical data via a downscaling procedure before relating the downscaled regional-scale geophysical data to the high-resolution hydraulic parameter field. I first illustrate the application of this novel data integration approach to a realistic synthetic database consisting of collocated high-resolution borehole measurements of the hydraulic and electrical conductivities and spatially exhaustive, low-resolution electrical conductivity estimates obtained from electrical resistivity tomography (ERT). The overall viability of this method is tested and verified by performing and comparing flow and transport simulations through the original and simulated hydraulic conductivity fields. The corresponding results indicate that the proposed data integration procedure does indeed allow for obtaining faithful estimates of the larger-scale hydraulic conductivity structure and reliable predictions of the transport characteristics over medium- to regional-scale distances. The approach is then applied to a corresponding field scenario consisting of collocated high- resolution measurements of the electrical conductivity, as measured using a cone penetrometer testing (CPT) system, and the hydraulic conductivity, as estimated from electromagnetic flowmeter and slug test measurements, in combination with spatially exhaustive low-resolution electrical conductivity estimates obtained from surface-based electrical resistivity tomography (ERT). The corresponding results indicate that the newly developed data integration approach is indeed capable of adequately capturing both the small-scale heterogeneity as well as the larger-scale trend of the prevailing hydraulic conductivity field. The results also indicate that this novel data integration approach is remarkably flexible and robust and hence can be expected to be applicable to a wide range of geophysical and hydrological data at all scale ranges. In the second part of my thesis, I evaluate in detail the viability of sequential geostatistical resampling as a proposal mechanism for Markov Chain Monte Carlo (MCMC) methods applied to high-dimensional geophysical and hydrological inverse problems in order to allow for a more accurate and realistic quantification of the uncertainty associated with the thus inferred models. Focusing on a series of pertinent crosshole georadar tomographic examples, I investigated two classes of geostatistical resampling strategies with regard to their ability to efficiently and accurately generate independent realizations from the Bayesian posterior distribution. The corresponding results indicate that, despite its popularity, sequential resampling is rather inefficient at drawing independent posterior samples for realistic synthetic case studies, notably for the practically common and important scenario of pronounced spatial correlation between model parameters. To address this issue, I have developed a new gradual-deformation-based perturbation approach, which is flexible with regard to the number of model parameters as well as the perturbation strength. Compared to sequential resampling, this newly proposed approach was proven to be highly effective in decreasing the number of iterations required for drawing independent samples from the Bayesian posterior distribution.
Resumo:
In the PhD thesis “Sound Texture Modeling” we deal with statistical modelling or textural sounds like water, wind, rain, etc. For synthesis and classification. Our initial model is based on a wavelet tree signal decomposition and the modeling of the resulting sequence by means of a parametric probabilistic model, that can be situated within the family of models trainable via expectation maximization (hidden Markov tree model ). Our model is able to capture key characteristics of the source textures (water, rain, fire, applause, crowd chatter ), and faithfully reproduces some of the sound classes. In terms of a more general taxonomy of natural events proposed by Graver, we worked on models for natural event classification and segmentation. While the event labels comprise physical interactions between materials that do not have textural propierties in their enterity, those segmentation models can help in identifying textural portions of an audio recording useful for analysis and resynthesis. Following our work on concatenative synthesis of musical instruments, we have developed a pattern-based synthesis system, that allows to sonically explore a database of units by means of their representation in a perceptual feature space. Concatenative syntyhesis with “molecules” built from sparse atomic representations also allows capture low-level correlations in perceptual audio features, while facilitating the manipulation of textural sounds based on their physical and perceptual properties. We have approached the problem of sound texture modelling for synthesis from different directions, namely a low-level signal-theoretic point of view through a wavelet transform, and a more high-level point of view driven by perceptual audio features in the concatenative synthesis setting. The developed framework provides unified approach to the high-quality resynthesis of natural texture sounds. Our research is embedded within the Metaverse 1 European project (2008-2011), where our models are contributting as low level building blocks within a semi-automated soundscape generation system.
Resumo:
SummaryGene duplication and neofunctidnalization are important processes in the evolution of phenotypic complexity. They account for important evolutionary novelties that confer ecological adaptation, such as the major histocompatibility complex (MHC), a multigene family with a central role in vertebrates' adaptive immune system. Multigene families, which evolved in large part through duplication, represent promising systems to study the still strongly depbated relative roles of neutral and adaptive processes in the evolution of phenotypic complexity. Detailed knowledge on ecological function and a well-characterized evolutionary history place the mammals' MHC amongst ideal study systems. However mammalian MHCs usually encompass several million base pairs and hold a large number of functional and non-functional duplicate genes, which makes their study complex. Avian MHCs on the other hand are usually way more compact, but the reconstruction of. their evolutionary history has proven notoriously difficult. However, no focused attempt has been undertaken so far to study the avian MHC evolutionary history in a broad phylogenetic context and using adequate gene regions.In the present PhD, we were able to make important contributions to the understanding of the long-term evolution of the avian MHC class II Β (MHCI1B). First, we isolated and characterized MHCIIB genes in barn owl (Tyto alba?, Strigiformes, Tytonidae), a species from an avian lineage in which MHC has not been studied so far. Our results revealed that with only two functional MHCIIB genes the MHC organization of barn owl may be similar to the 'minimal essential' MHC of chicken (Gallus gallus), indicating that simple MHC organization may be ancestral to birds. Taking advantage of the sequence information from barn owl, we studied the evolution of MHCIIB genes in 13 additional species of 'typical' owls (Strigiformes, Strigidae). Phylogenetic analyses revealed that according to their function, in owls the peptide-binding region (PBR) encoding exon 2 and the non-PBR encoding exon 3 evolve by different patterns. Exon 2 exhibited an evolutionary history of positive selection and recombination, while exon 3 traced duplication history and revealed two paralogs evolving divergently from each other in owls, and in a shorebird, the great snipe {Gallinago media). The results from exon 3 were the first ever from birds to demonstrate gene orthology in species that diverged tens of millions of years ago, and strongly questioned whether the taxa studied before provided an adequate picture of avian MHC evolution. In a follow-up study, we aimed at explaining a striking pattern revealed by phylogenetic trees analyzing the owl sequences along with MHCIIB sequences from other birds: One owl paralog (termed DAB1) grouped with sequences of passerines and falcons, while the other (DAB2) grouped with wildfowl, penguins and birds of prey. This could be explained by either a duplication event preceding the evolution of these bird orders, or by convergent evolution of similar sequences in a number of orders. With extensive phylogenetic analyses we were able to show, that indeed a duplication event preceeded the major avian radiation -100 my ago, and that following this duplication, the paralogs evolved under positive selection. Furthermore, we showed that the divergently evolving amino acid residues in the MHCIIB-encoded β-chain potentially interact with the MHCI I α-chain, and that molecular coevolution of the interacting residues may have been involved in the divergent evolution of the MHCIIB paralogs.The findings of this PhD are of particular interest to the understanding of the evolutionary history of the avian MHC and, by providing essential information on long-term gene history in the avian MHC, open promising perspectives for advances in the understanding of the evolution of multigene families in general, and for avian MHC organization in particular. Amongst others I discuss the importance of including protein structure in the phylogenetic study of multigene families, and the roles of ecological versus molecular selection pressures. I conclude by providing a population genomic perspective on avian MHC, which may serve as a basis for future research to investigate the relative roles of neutral processes involving effective population size effects and of adaptation in the evolution of avian MHC diversity and organization.RésuméLa duplication de gènes et leur néo-fonctionnalisation sont des processus importants dans l'évolution de la complexité phénotypique. Ils sont impliqués dans l'apparition d'importantes nouveautés évolutives favorisant l'adaptation écologique, comme c'est le cas pour le complexe majeur d'histocompatibilité
Resumo:
Summary: Detailed knowledge on tumor antigen expression and specific immune cells is required for a rational design of immunotherapy for patients with tumor invaded liver. In this study, we confirmed that Cancer/Testis (CT) tumor-associated antigens are frequently expressed in hepatocellular carcinoma (HCC) and searched for the presence of CD8+ T cells specific for these antigens. In 2/10 HLA-A2+ patients with HCC, we found that MAGE-A10 and/or SSX-2 specific CD8+ T cells naturally responded to the disease, since they were enriched in tumor lesions but not in non-tumoral liver. Isolated T cells specifically and strongly killed tumor cells in vitro, suggesting that these CTL were selected in vivo for high avidity antigen recognition, providing the rational for specific immunotherapy of HCC, based on immunization with CT antigens such as MAGE-Al 0 and SSX-2. Type 1 NKT cells express an invariant TCR α chain (Vα24.1α18, paired with Vβ11 in human) and share a specific reactivity to αGalactosylceramide (αGC) presented by CD1d. These cells can display paradoxical immuno-regulatory properties including strong anti-tumor effects upon αGC administration in murine models. To understand why NKT cells were not sufficiently protective against tumor development in patients with tumor invaded liver, we characterized the diversity of Vα24/Vβ11 NKT cells in healthy donors (HD) and cancer patients: NKT cells from HD and patients were generally diverse in terms of TCR β chain (Vβ11) variability and NKT cells from HD showed a variable recognition of αGC loaded CD 1 d multimers. Vα24/ Vβ11 NKT cells can be divided in 3 populations, the CD4, DN (CD4-/CD8-) and CD8 NKT cell subsets that show distinct ability of cytokine production. In addition, our functional analysis revealed that DN and CD8 subsets displayed a higher cytolytic potential and a weaker IFNγ release than the CD4 NKT cell subset. NKT cell subsets were variably represented in the blood of HD and cancer patients. However, HD with high NKT cell frequencies displayed an enrichment of the DN and CD8 subsets, and few of them were suggestive of an oligoclonal expansion in vivo. Comparable NKT cell frequencies were found between blood, non-tumoral liver and tumor of patients. In contrast, we identified a gradual enrichment of CD4 NKT cells from blood to the liver and to the tumor, together with a decrease of DN and CD8 NKT cell subsets. Most patient derived NKT cells were unresponsive upon αGalactosylceramide stimulation ex vivo; NKT cells from few patients displayed a weak responsiveness with different cytokine polarization. The NKT cell repertoire was thus different in tumor tissue, suggesting that CD4 NKT cells infiltrating tumors may be detrimental for protection against tumors and instead may favour the tumor growth/recurrence as recently reported in mice. Résumé en français scientifique : Afin de développer le traitement des patients porteurs d'une tumeur dans le foie par immunothérapie, de nouvelles connaissances sont requises concernant l'expression d'antigènes par les tumeurs et les cellules immunitaires spécifiques de ces antigènes. Nous avons vérifié que des antigènes associés aux tumeurs, tels que les antigènes « Cancer-Testis » (CT), sont fréquemment exprimés par le carcinome hepatocéllulaire (CHC). La recherche de lymphocytes T CD8+ spécifiques (CTL) de ces antigènes a révélé que des CTL spécifiques de MAGE-A10 et/ou SSX-2 ont répondu naturellement à la tumeur chez 2/10 patients étudiés. Ces cellules étaient présentes dans les lésions tumorales mais pas dans le foie adjacent. De plus, ces CTL ont démontré une activité cytolytique forte et spécifique contre les cellules tumorales in vitro, ce qui suggère que ces CTL ont été sélectionnés pour une haute avidité de reconnaissance de l'antigène in vivo. Ces données fournissent une base pour l'immunothérapie spécifique du CHC, en proposant de cibler les antigènes CT tels que MAGE-A10 ou SSX-2. Les cellules NKT de type 1 ont une chaîne α de TCR qui est invariante (chez l'homme, Vα24Jα18, apparié avec Vβ11) et reconnaissent spécifiquement l'αGalactosylceramide (αGC) présenté par CD1d. Ces cellules ont des propriétés immuno¬régulatrices qui peuvent être parfois contradictoires et leur activation par l'αGC induit une forte protection anti-tumorale chez la souris: Afin de comprendre pourquoi ces cellules ne sont pas assez protectrices contre le développement des tumeurs dans le foie chez l'homme, nous avons étudié la diversité des cellules NKT Vα24/Vβ11 d'individus sains (IS) et de patients cancéreux. Les cellules NKT peuvent être sous-divisées en 3 populations : Les CD4, DN (CD4- /CD8-) ou CDS, qui ont la capacité de produire des cytokines différentes. Nos analyses fonctionnelles ont aussi révélé que les sous-populations DN et CD8 ont un potentiel cytolytique plus élevé et une production d'IFNγ plus faible que la sous-population CD4. Ces sous-populations sont représentées de manière variable dans le sang des IS ou des patients. Cependant, les IS avec un taux élevé de cellules NKT ont un enrichissement des sous- populations DN ou CDS, et certains suggèrent qu'il s'agit d'une expansion oligo-clonale in vivo. Les patients avaient des fréquences comparables de cellules NKT entre le sang, le foie et la tumeur. Par contre, la sous-population CD4 était progressivement enrichie du sang vers le foie et la tumeur, tandis que les sous-populations DN ou CD8 était perdues. La plupart des cellules NKT des patients ne réagissaient pas lors de stimulation avec l'αGC ex vivo et les cellules NKT de quelques patients répondaient faiblement et avec des polarisations de cytokines différentes. Ces données suggèrent que les cellules NKT CD4, prédominantes dans les tumeurs, sont inefficaces pour la lutte anti-tumorale et pourraient même favoriser la croissance ou la récurrence tumorale. Donc, une mobilisation spécifique des cellules NKT CD4 négatives par immunothérapie pourrait favoriser l'immunité contre des tumeurs chez l'homme. Résumé en français pour un large public Au sein des globules blancs, les lymphocytes T expriment un récepteur (le TCR), qui est propre à chacun d'entre eux et leur permet d'accrocher de manière très spécifique une molécule appelée antigène. Ce TCR est employé par les lymphocytes pour inspecter les antigènes associés avec des molécules présentatrices à la surface des autres cellules. Les lymphocytes T CD8 reconnaissent un fragment de protéine (ou peptide), qui est présenté par une des molécules du Complexe Majeur d'Histocompatibilité de classe I et tuent la cellule qui présente ce peptide. Ils sont ainsi bien adaptés pour éliminer les cellules qui présentent un peptide issu d'un virus quand la cellule est infectée. D'autres cellules T CD8 reconnaissent des peptides comme les antigènes CT, qui sont produits anormalement par les cellules cancéreuses. Nous avons confirmé que les antigènes CT sont fréquemment exprimés par le cancer du foie. Nous avons également identifié des cellules T CD8 spécifiques d'antigènes CT dans la tumeur, mais pas dans le foie normal de 2 patients sur 10. Cela signifie que ces lymphocytes peuvent être naturellement activés contre la tumeur et sont capables de la trouver. De plus les lymphocytes issus d'un patient ont démontré une forte sensibilité pour reconnaître l'antigène et tuent spécifiquement les cellules tumorales. Les antigènes CT représentent donc des cibles intéressantes qui pourront être intégrés dans des vaccins thérapeutiques du cancer du foie. De cette manière, les cellules T CD8 du patient lui-même pourront être induites à détruire de manière spécifique les cellules cancéreuses. Un nouveau type de lymphocytes T a été récemment découvert: les lymphocytes NKT. Quand ils reconnaissent un glycolipide présenté par la molécule CD1d, ils sont capables, de manière encore incomprise, d'initier, d'augmenter, ou à l'inverse d'inhiber la défense immunitaire. Ces cellules NKT ont démontré qu'elles jouent un rôle important dans la défense contre les tumeurs et particulièrement dans le foie des souris. Nous avons étudié les cellules NKT de patients atteints d'une tumeur dans le foie, afin de comprendre pourquoi elles ne sont pas assez protectrice chez l'homme. Les lymphocytes NKT peuvent être sous-divisés en 3 populations: Les CD4, les DN (CD4-/CD8-) et les CD8. Ces 3 classes de NKT peuvent produire différents signaux chimiques appelés cytokines. Contrairement aux cellules NKT DN ou CDS, seules les cellules NKT CD4 sont capables de produire des cytokines qui sont défavorables pour la défense anti-tumorale. Par ailleurs nous avons trouvé que les cellules NKT CD4 tuent moins bien les cellules cancéreuses que les cellules NKT DN ou CD8. L'analyse des cellules NKT, fraîchement extraites du sang, du foie et de la tumeur de patients a révélé que les cellules NKT CD4 sont progressivement enrichies du sang vers le foie et la tumeur. La large prédominance des NKT CD4 à l'intérieur des tumeurs suggère que, chez l'homme, ces cellules sont inappropriées pour la lutte anti-tumorale. Par ailleurs, la plupart des cellules NKT de patients n'étaient pas capables de produire des cytokines après stimulation avec un antigène. Cela explique également pourquoi ces cellules ne protègent pas contre les tumeurs dans le foie.
Resumo:
Longtemps cachée, déniée, considérée comme honteuse par ses victimes, la violence domestique n'en est pas moins une réalité concrète qui tue, dans notre pays, une femme toutes les deux semaines et qui coûte des millions de francs par an à la société civile. Dès lors, ce type de violence ne peut plus être considéré comme relevant uniquement de la sphère privée. L'isolement des victimes, dû à l'incompréhension du phénomène, aux préjugés, à la peur et à l'ignorance de structures d'aides, n'est plus admissible. La violence domestique est un cas complexe et aucune discipline ne peut, à elle seule, y faire face. Les solutions sont donc l'affaire de tous. C'est pourquoi des professionnels romands créent le programme «C'est assez», au début des années 2000. S'ensuit un long cheminement pour mettre en lumière la problématique de la violence domestique et construire un réseau de soins, de prise en charge et de prévention cohérent, soutenu tant par le travail d'infirmiers, de travailleurs sociaux, de policiers, de médecins et de psychologues que de juges et de politiciens. Cet ouvrage parle de succès, d'échecs, d'espoirs, et il cherche avant tout à rendre sensible chaque citoyen à ce qui devrait être une évidence: prévenir la violence domestique et en faire une affaire de santé publique.
Resumo:
L'objectiu principal del projecte és el disseny d'un proxy que té com a funció filtrar el recursos web sol·licitats pels usuaris i registrar-los en un historial, indicant si s'han permès o no. Una característica important del disseny és que ha de permetre incorporar noves funcionalitats al proxy, per exemple, catxé de recursos, filtrat de correus electrònics, xats, FTP, P2P, ...). A més, com a objectiu secundari, l'autor pretén implementar el disseny en un prototipus.
Resumo:
We investigated the role of the number of loci coding for a neutral trait on the release of additive variance for this trait after population bottlenecks. Different bottleneck sizes and durations were tested for various matrices of genotypic values, with initial conditions covering the allele frequency space. We used three different types of matrices. First, we extended Cheverud and Routman's model by defining matrices of "pure" epistasis for three and four independent loci; second, we used genotypic values drawn randomly from uniform, normal, and exponential distributions; and third we used two models of simple metabolic pathways leading to physiological epistasis. For all these matrices of genotypic values except the dominant metabolic pathway, we find that, as the number of loci increases from two to three and four, an increase in the release of additive variance is occurring. The amount of additive variance released for a given set of genotypic values is a function of the inbreeding coefficient, independently of the size and duration of the bottleneck. The level of inbreeding necessary to achieve maximum release in additive variance increases with the number of loci. We find that additive-by-additive epistasis is the type of epistasis most easily converted into additive variance. For a wide range of models, our results show that epistasis, rather than dominance, plays a significant role in the increase of additive variance following bottlenecks.
Resumo:
The Hardy-Weinberg law, formulated about 100 years ago, states that under certainassumptions, the three genotypes AA, AB and BB at a bi-allelic locus are expected to occur inthe proportions p2, 2pq, and q2 respectively, where p is the allele frequency of A, and q = 1-p.There are many statistical tests being used to check whether empirical marker data obeys theHardy-Weinberg principle. Among these are the classical xi-square test (with or withoutcontinuity correction), the likelihood ratio test, Fisher's Exact test, and exact tests in combinationwith Monte Carlo and Markov Chain algorithms. Tests for Hardy-Weinberg equilibrium (HWE)are numerical in nature, requiring the computation of a test statistic and a p-value.There is however, ample space for the use of graphics in HWE tests, in particular for the ternaryplot. Nowadays, many genetical studies are using genetical markers known as SingleNucleotide Polymorphisms (SNPs). SNP data comes in the form of counts, but from the countsone typically computes genotype frequencies and allele frequencies. These frequencies satisfythe unit-sum constraint, and their analysis therefore falls within the realm of compositional dataanalysis (Aitchison, 1986). SNPs are usually bi-allelic, which implies that the genotypefrequencies can be adequately represented in a ternary plot. Compositions that are in exactHWE describe a parabola in the ternary plot. Compositions for which HWE cannot be rejected ina statistical test are typically “close" to the parabola, whereas compositions that differsignificantly from HWE are “far". By rewriting the statistics used to test for HWE in terms ofheterozygote frequencies, acceptance regions for HWE can be obtained that can be depicted inthe ternary plot. This way, compositions can be tested for HWE purely on the basis of theirposition in the ternary plot (Graffelman & Morales, 2008). This leads to nice graphicalrepresentations where large numbers of SNPs can be tested for HWE in a single graph. Severalexamples of graphical tests for HWE (implemented in R software), will be shown, using SNPdata from different human populations