133 resultados para Bruit


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction La stabilisation dynamique de la colonne lombaire a été développée comme alternative à la spondylodèse pour les lombalgies chroniques dans l'optique de réduire le risque de dégénération du segment adjacent. Le système de neutralisation dynamique « Dynesys » produit par Zimmer (Suisse) est un des produits les plus populaires. Des études portant sur un suivi à moyen terme ont montré des taux de révision dans près de 30% des patients. Nous avons observé quelques cas d'infections tardives chez nos patients et avons décidé de les passer systématiquement en revue. La bactérie Propionibacterium acnés a été récemment identifiée comme cause d'infections à bas bruit de matériel prothétique. Matériels et méthodes Nous présentons une série consécutive de 50 implantations du système Dynesys. Les patients ont été suivis pendant une durée moyenne de 51 mois (0 - 91). Durant cette période, nous avons identifié 12 complications de type infectieuse et 11 complications de type mécanique nécessitant une ré-opération ou une ablation de matériel dans un collectif de 17 patients. Résultats Les infections de matériel se sont produites après une durée médiane de 52 mois (2-77). Les germes trouvés étaient Propionibacterium acnés dans 7 patients sur 11 (seul η = 4 ou en combinaison η = 3). La présentation clinique associe des douleurs nouvelles ou en augmentation et, à la radiologie conventionnelle, un descellement des vis. Cependant, 73.5% des patients présentent, à des degrés divers, des signes radiologiques de descellements sans avoir de symptômes d'infection. Conclusion Le haut taux d'infections tardives avec des germes peu virulents ainsi que la fréquence des signes de descellements de vis constatés nous amènent à suspecter un défaut d'intégration au niveau de l'interface entre l'os et les vis. Les chirurgiens devraient être attentifs à ces signes et exclure activement une infection chez les patients présentant des douleurs nouvelles (ou en augmentation) en combinaison de signes de descellement radiologiques. Une attitude agressive de révision chirurgicale est recommandée dans ces cas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les menaces pour la santé des voyageurs proviennent souvent de l'émergence ou de la réémergence d'anciennes et de nouvelles maladies infectieuses. En Amérique du Sud c'est une augmentation des cas de fièvre jaune qui a fait du bruit. A Bornéo, une nouvelle espèce de Plasmodium pathogène pour l'humain a été mise en évidence. Après l'épidémie sur les îles de l'océan Indien, le virus du Chikungunya a causé de nouveaux foyers et ceci même en Europe. La première journée mondiale de la rage a rappelé que cette maladie continue à tuer un nombre important de personnes dans les pays aux ressources limitées. La rage affecte également des personnes de nos pays comme l'illustre deux situations récentes. Finalement, le nouveau Règlement sanitaire international permettra à l'OMS de mieux répondre aux urgences de santé publique de portée internationale. The threats for the health of travellers come often from the emergence or the re-emergence of old and new infectious diseases. In South America an important increase of the number of cases of yellow fever was reported. On the island of Borneo a new species of Plasmodium pathogenic for humans has been identified. After the Chikungunya epidemic that affected the islands of the Indian Ocean, the virus has caused new epidemic foci and this even in Europe. The first World Rabies Day reminded us that this disease still kills a large number of persons in countries with limited resources. Rabies can also affect persons from our countries, as it was illustrated by two recent situations. Finally the new International Health Regulation will allow the WHO to better respond to public health emergencies of international concern

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thousands of chemical compounds enter the natural environment but many have unknown effects and consequences, in particular at low concentrations. This thesis work contributes to our understanding of pollution effects by using bacteria as test organisms. Bacteria are important for this question because some of them degrade and transform pollutants into less harmful compounds, but secondly because they themselves can be inhibited in their reproduction by exposure to toxic compounds. When inhibitory effects occur this may change the composition of the microbial com¬munity in the long run, leading to altered or diminished ecosystem services by those communities. As a result chemicals of anthropogenic origin may accumulate and per¬sist in the environment, and finally, affect higher organisms as well. In addition to acquiring basic understanding of pollutant effects at low concentrations on bacterial communities an applied goal of this thesis work was to develop bacteria-based tests to screen new organic chemicals for toxicity and biodégradation. In the first part of this work we developed a flow cytometry-based assay on SYT09 plus ethidium-bromide or propidium-iodide stained cells of Pseudomonas ûuorescens exposed or not to a variety of pollutants under oligotrophic growth conditions. Flow cytometry (FC) allows fast and accurate counting of bacterial cells under simul¬taneous assessment of their physiological state, in particular in combination with different fluorescent dyes. Here we employed FC and fluorescent dyes to monitor the effect that pollutants may exert on Pseudomonas ûuorescens SV3. First we designed an oligotrophic growth test, which enabled us to follow population growth at low densities (104 - 10 7 cells per ml) using 0.1 mM sodium acetate as carbon source. Cells in the oligotrophic milieu were then exposed or not to a variety of common pollutants, such as 2-chlorobiphenyl (2CBP), naphthalene (NAH), 4-chlorophenol (4CP), tetradecane (TD), mercury chloride (HgCl2) or benzene, in different dosages. Exposed culture samples were stained with SYT09 (green fluorescent dye binding nucleic acids, generally staining all cells) in combination with propidium iodide (PI) or ethidium bromide (EB), both dyes being membrane integrity indicators. We ob- served that most of the tested compounds decreased population growth in a dosage- dependent manner. SYT09/PI or SYT09/EB staining then revealed that chemical exposure led to arisal of subpopulations of live and injured or dead cells. By modeling population growth on the total cell numbers in population or only the subpopulation of live cells we inferred that even in stressed populations live cells multiply at rates no different to unexposed controls. The net decrease in population growth would thus be a consequence of more and more cells being not able to multiply at all, rather than all cells multiplying at slower rates. In addition, the proportion of injured cells correlated to the compound dosage. We concluded that the oligotrophic test may be useful to asses toxicity of unknown chemicals on a variety of model bacteria. Mul¬tiple tests can be run in parallel and effects are rapidly measured within a period of 8 hours. Interestingly, in the same exposure tests with P. fluorescens SV3 we observed that some chemicals which did not lead to a reduction of net population growth rates did cause measurable effects on live cells. This was mainly observed in cells within the live subpopulation as an increase of the EB fluorescence signal. We showed that SYT09/EB is a more useful combination of dyes than SYT09/PI because PI fluorescence tend to increase only when cells are effectively dead, but not so much in live cells (less then twofold). In contrast, EB geometric mean fluorescence in live cells increased up to eightfold after exposure to toxic compounds. All compounds even at the lowest concentration caused a measurable increase in EB geometric mean fluorescence especially after 2 h incubation time. This effect was found to be transient for cells exposed to 2CBP and 4CP, but chronic for cells incubated with TD and NAH (ultimately leading to cell death). In order to understand the mechanism underlying the observed effects we used known membrane or energy uncouplers. The pattern of EB signal increase in chemical-exposed populations resembled mostly that of EDTA, although EB fluorescence in EDTA-treated or pasteurized cells was even higher than after exposure to the four test chemicals. We conclude that the ability of cells to efflux EB under equilibrium conditions is an appropriate measure for the potential of a chemical to exert toxicity. Since most bacterial species possess efflux systems for EB that all require cellular energy, our test should be more widely relevant to infer toxicity effects of chemical exposure on the physiological status of the bacterial cell. To better understand the effect of toxicant exposure on efflux defense systems, we studied 2-hydroxybiphenyl toxicity to Pseudomonas azeiaica HBP1. We showed that 2-HBP exerts toxicity even to P. azelaica HBP1, but only at concentrations higher than 0.5 mM. Above this concentration transient loss of membrane polarization and integrity occurred, which we conclude from staining of growing cells with fluorescent dyes. Cells finally recover and resume growth on 2HBP. The high resistance of P. azelaica HBP1 to 2-HBP was found to be the result of an efficient MexABOprM- type efflux pump system counteracting passive influx of this compound into the membrane and cellular interior. Mutants with disrupted mexA, mexB and oprM genes did no longer grow on 2-HBP at concentrations above 100 μΜ, whereas below this concentration we found 2-HBP-concentration dependent decrease of growth rate. The MexAB-OprM system in P. azeiaica HBP1 is indeed an efflux pump for ethidium bromide as well. By introducing gfp reporter fusions responsive to intracellular 2- HBP concentrations into HBP1 wild-type or the mutants we demonstrated that 2HBP enters into the cells in a similar way. In contrast, the reporter system in the wild-type cells does not react to 2-HBP at an outside concentration of 2.4 μΜ, whereas in mutant cells it does. This suggests that wild-type cells pump 2-HBP to the outside very effectively preventing accumulation of 2-HBP. 2HBP metabolism, therefore, is not efficient enough to lower the intracellular concentration and prevent toxicity. We conclude that P. azelaica HBP1 resistance to 2-HBP is mainly due to an efficient efflux system and that 2HBP in high concentrations exerts narcotic effects on the bacterial membrane. In the part of this thesis, we investigated the possibilities of bacteria to degrade pollutants at low concentrations (1 mg per L and below). As test components we used 2-hydroxybiphenyl, antibiotics and a variety of fragrances, many of which are known to be difficult to biodegrade. By using accurate counting of low numbers of bacterial cells we could demonstrate that specific growth on these compounds is possible. We demonstrated the accuracy of FC counting at low cell numbers (down to 103 bacterial cells per ml). Then we tested whether bacterial population growth could be specifically monitored at the expense of low substrate concentrations, us¬ing P. azelaica HBP1. A perfect relationship was found between growth rate, yield and 2-HBP concentrations in the range of 0.1 up to 5 mg per L. Mixing P. azelaica within sludge, however, suggested that growth yields in a mixed community can be much lower than in pure culture, perhaps because of loss of metabolic intermediates. We then isolated new strains from activated sludge using 2-HBP or antibiotics (Nal, AMP, SMX) at low concentrations (0.1-1 mg per L) as sole carbon and energy sub¬strate and PAO microdishes. The purified strains were then examined for growth on their respective substrate, which interestingly, showed that all strains can not with¬stand higher than 1 or 10 mg per L concentrations of target substrate. Thus, bacteria must exist that contribute to compound degradation at low pollutant concentrations but are inhibited at higher concentrations. Finally we tested whether specific biomass growth (in number of cells) at the expense of pollutants can also be detected with communities as starting material. Hereto, we focused on a number of fragrance chemicals and measured community biomass increase by flow cytometry cell counting on two distinct starter communities: (i) diluted Lake Geneva water, and dilute activated sludge from a wastewater treatment plant. We observed that most of the test compounds indeed resulted in significant biomass increase in the starter community compared to a no-carbon added control, but activated sludge and lake Geneva water strongly differed (almost mutually ex¬clusive) in their capacity to degrade the test chemicals. In two cases for activated sludge the same type of microbial community developed upon compound exposure, as concluded from transcription fragment length polymorphism analysis on community purified and PCR amplified 16S rRNA gene fragments. To properly test compound biodegradability it is thus important to use starter communities of different origin. We conclude that FC counting can be a valuable tool to screen chemicals for their biodegradability and toxicity. - Des milliers de produits chimiques sont libérés dans l'environnement mais beaucoup ont des effets inconnus, en particulier à basses concentrations. Ce travail de thèse contribue à notre comprehension des effets de la pollution en utilisant des bacteries comme des organismes-tests. Les bacteries sont importantes pour etudier cette ques¬tion car certaines d'entre elles peuvent degrader ou transformer les polluants, mais également parce qu'elles-mmes peuvent tre inhibees dans leur reproduction après avoit ete exposees à ces composes toxiques. Quand des effets inhibiteurs ont lieu, la composition de la communauté microbienne peut tre changee à long terme, ce qui mène à une reduction du service d'ecosystème offert par ces communautés. En consequence, après leur liberation dans l'environnement, les produits chimiques d'origine anthropogenique peuvent soit s'y accumuler et per¬sister, exerant ainsi des effets encore inconnus sur les organismes vivants. En plus d'acquérir des connaissances de base sur les effets des polluants à basses concentra¬tions sur les communautés microbiennes, un but applique de cette thèse était de développer des tests bases sur les bacteries afin d'identifier de nouveau composes pour leur toxicité ou leur biodégradation. Dans la première partie de ce travail, nous avons developpe un test base sur la cytometrie de flux (FC) sur des cellules de Pseudomonas fluorescens colorees par du bromure d'ethidium ou de l'iodure de propidium et exposees ou non à une palette de polluants sous des conditions de croissance oligotrophique. La cytometrie de flux est une technique qui connaît de nombreuses applications dans la microbiologie environ¬nementale. Cela est principalement du au fait qu'elle permet un comptage rapide et precis ainsi que l'évaluation de l'état physiologique, en particulier lorsqu'elle est combinée h des colorations fluorescentes. Ici, nous avons utilise la technique FC et des colorants fluorescents afin de mesurer l'effet que peuvent exercer certains pollu¬ants sur Pseudomonas ûuorescens SV3 . D'abord nous avons conu des tests oligo- trophiques qui nous permettent de suivre la croissance complète de cellules en culture h des densites faibles (104 -10 7 cellules par ml), sur de l'acetate de sodium à 0.1 mM, en presence ou absence de produits chimiques (2-chlorobiphenyl (2CBP), naphthalène (NAH), 4-chlorophenol (4CP), tetradecane (TD), chlorure de mercure(II) (HgCl2)) à différentes concentrations. Afin de montrer le devenir des bacteries tant au niveau de la cellule individuelle que celui de la population globale, après exposition à des series de composes chimiques, nous avons compte les cellules colorees avec du SYT09 (col¬orant fluorescent vert des acides nucléiques pour la discrimination des cellules par rapport au bruit de fond) en combinaison avec l'iodure de propidium (PI) ou le bromure d'ethidium (EB), indicateurs de l'intégrité de la membrane cellulaire avec FC. Nous avons observe que de nombreux composes testes avaient un effet sur la croissance bacterienne, resultant en une baisse du taux de reproduction de la pop¬ulation. En outre, la double coloration que nous avons utilisee dans cette etude SYT09/PI ou SYT09/EB a montre que les produits chimiques testes induisaient une reponse heterogène des cellules dans la population, divisant celle-ci en sous- populations "saine", "endommagee" ou "morte". Les nombres de cellules à partir du comptage et de la proportion de celles "saines" et "endommagees/mortes" ont ensuite ete utilises pour modeliser la croissance de P. ûuorescens SV3 exposee aux produits chimiques. La reduction nette dans la croissance de population est une consequence du fait que de plus en plus de cellules sont incapables de se reproduire, plutt que du fait d'une croissance plus lente de l'ensemble de la population. De plus, la proportion de cellules endommagees est correllee au dosage du compose chimique. Les résultats obtenus nous ont permis de conclure que le test oligotrophique que nous avons developpe peut tre utilise pour l'évaluation de la toxicité de produits chimiques sur différents modèles bacteriens. Des tests multiples peuvent tre lances en parallèle et les effets sont mesures en l'espace de huit heures. Par ailleurs, nous en déduisons que les produits chimiques exercént un effet sur la croissance des cellules de P. ûuorescens SV3, qui est heterogène parmi les cellules dans la population et depend du produit chimique. Il est intéressant de noter que dans les mmes tests d'exposition avec P. ûuorescens SV3, nous avons observe que certains composes qui n'ont pas conduit à une reduction du taux de la croissance nette de la population, ont cause des effets mesurables sur les cellule saines. Ceci a ete essentiellement observe dans la portion "saine" des cellules en tant qu'augmentation du signal de la fluorescence de 1ΈΒ. D'abord nous avons montre que SYT09/EB était une com¬binaison de colorants plus utile que celle de SYT09/PI parce que la fluorescence du PI a tendance à augmenter uniquement lorsque les cellules sont effectivement mortes, et non pas dans les cellules saines (moins de deux fois plus). Par opposi¬tion, la fluorescence moyenne de l'EB dans les cellules saines augmente jusqu'à huit fois plus après exposition aux composes toxiques. Tous les composes, mme aux plus basses concentrations, induisent une augmentation mesurable de la fluorescence moy¬enne de 1ΈΒ, plus particulièrement après deux heures d'incubation. Cet effet s'est revele tre transitoire pour les cellules exposees aux 2CNP et 4CP, mais est chro¬nique pour les cellules incubees avec le TD et le NAH (entranant la mort cellulaire). Afin de comprendre les mécanismes qui sous-tendent les effets observes, nous avons utilise des decoupleurs d'energie ou de membrane. L'augmentation du signal EB dans les populations causee par des produits chimiques ressemblait à celle exerce par le chelateur des ions divalents EDTA. Cependant, les intensités du signal EB des cellules exposees aux produits chimiques testees n'ont jamais atteint les valeurs des cellules traitees avec l'EDTA ou pasteurises. Nous en concluons que le test oli- gotrophique utilisant la coloration (SYT09/)EB des cellules exposees ou non à un produit chimique est utile afin d'evaluer l'effet toxique exerce par les polluants sur la physiologie bacterienne. Afin de mieux comprendre la reaction d'un système de defense par pompe à efflux après exposition à une toxine, nous avons étudié la toxicité du 2-hydroxybiphenyl (2-HBP) sur Pseudomonas azeiaica HBP1. Nous avons montre que le 2-HBP exerce une toxicité mme sur HBP1, mais uniquement à des concentrations supérieures à 0.5 mM. Au-dessus de cette concentration, des pertes transitoires d'intégrité et de polarization membranaire ont lieu, comme cela nous a ete montre par coloration des cellules en croissance. Les cellules sont finalement capables de se rétablir et de reprendre leur croissance sur 2-HBP. La forte resistance de P. azeiaica HBP1 h 2-HBP physiologie bacterienne s'est revele tre le résultat d'un système de pompe h efflux de type MexABOprM qui contre-balance l'influx passif de ce compose h travers la membrane. Nous avons montre, en construisant des mutants avec des insertions dans les gènes mexA, mexB and oprM et des fusions avec le gène rapporteur gfp, que l'altération de n'importe quelle partie du système d'efflux conduisait à accroître l'accumulation de 2-HBP dans la cellule, en comparaison avec la souche sauvage HBP1, provoquant une diminution de la resistance au 2-HBP ainsi qu'une baisse du taux de reproduction des cellules. Des systèmes d'efflux similaires sont répandus chez de nombreuses espèces bactériennes. Ils seraient responsables de la resistance aux produits chimiques tels que les colorants fluorescents (bromure d'ethidium) et des antibiotiques. Nous concluons que la resistance de P. azelaica HBP1 à 2-HBP est principalement due à un système d'efflux efficace et que 2-HBP, à des concentrations elevees, exerce un effet deletère sur la membrane bacterienne. En se basant sur le comptage des cellules avec la FC, nous avons developpe ensuite une methode pour evaluer la biodegradabilite de polluants tels que le 2-HBP ainsi que les antibiotiques (acide nalidixique (Nal), ampicilline (AMP) ou sulfamethoxazole (SMX)) à de faibles concentrations lmg par L et moins), par le suivi de la croissance spécifique sur le compose de cultures microbiennes pures et mixtes. En utilisant un comptage precis de faibles quantités de cellules nous avons pu demontrer que la croissance spécifique sur ces composes est possible. Nous avons pu illustrer la precision du comptage par cytometrie de flux à faible quantité de cellules (jusqu'à 10 3 cellules par ml). Ensuite, nous avons teste s'il était possible de suivre dynamiquement la croissance de la population de cellules sur faibles concentrations de substrats, en utilisant P. azelaica HBP1. Une relation parfaite a ete trouvee entre le taux de croissance, le rendement et les concentrations de 2-HBP (entre 0.1 et 5 mg par L). En mélangeant HBP1 à de la boue active, nous avons pu montrer que le rendement en communauté mixtes pouvait tre bien inférieur qu'en culture pure. Ceci étant peut tre le résultat d'une perte d'intermédiaires métaboliques. Nous avons ensuite isole de nouvelles souches à partir de la boue active en utilisant le 2-HBP ou des antibiotiques (Nal, AMP, SMX) h basses concentrations (0.1-1 mg par L) comme seules sources de carbone et d'energie. En combinaison avec ceci, nous avons également utilise des microplaques PAO. Les souches purifiees ont ensuite ete examinees pour leurs croissances sur leurs substrats respectifs. De faon intéressante, toutes ces souches ont montre qu'elles ne pouvaient pas survivre à des concentrations de substrats supérieures à 1 ou 10 mg par L. Ainsi, il existe des bacteries qui contribuent à la degradation de composes à basses concentrations de polluant mais sont inhibes lorsque ces concentrations deviennent plus hautes. Finalement, nous avons cherche à savoir s'il est possible de detecter une croissance spécifique à une biomasse au depend d'un polluant, en partant d'une communauté microbienne. Ainsi, nous nous sommes concentre sur certains composes et avons mesure l'augmentation de la biomasse d'une communauté grce à la cytometrie de flux. Nous avons compte deux communautés de depart distinctes: (i) une dilution d'eau du Lac Léman, et une dilution de boue active d'une station d'épuration. Nous avons observe que la plupart des composes testes ont entrane une augmentation de la biomasse de depart par rapport au control sans addition de source de carbone. Néanmoins, les échantillons du lac Léman et de la station d'épuration différaient largement (s'excluant mutuellement l'un l'autre) dans leur capacité à degrader les composes chimiques. Dans deux cas provenant de la station d'épuration, le mme type de communauté microbienne s'est developpe après exposition aux composes, comme l'a démontré l'analyse TRFLP sur les fragments d'ARN 16S purifie de la communauté et amplifie par PCR. Afin de tester correctement la biodegradabilite d'un compose, il est donc important d'utiliser des communautés de depart de différentes origines Nous en concluons que le comptage par cytometrie de flux peut tre un outil de grande utilité pour mettre en valeur la biodegradabillite et la toxicité des composes chimiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La théorie de l'autocatégorisation est une théorie de psychologie sociale qui porte sur la relation entre l'individu et le groupe. Elle explique le comportement de groupe par la conception de soi et des autres en tant que membres de catégories sociales, et par l'attribution aux individus des caractéristiques prototypiques de ces catégories. Il s'agit donc d'une théorie de l'individu qui est censée expliquer des phénomènes collectifs. Les situations dans lesquelles un grand nombre d'individus interagissent de manière non triviale génèrent typiquement des comportements collectifs complexes qui sont difficiles à prévoir sur la base des comportements individuels. La simulation informatique de tels systèmes est un moyen fiable d'explorer de manière systématique la dynamique du comportement collectif en fonction des spécifications individuelles. Dans cette thèse, nous présentons un modèle formel d'une partie de la théorie de l'autocatégorisation appelée principe du métacontraste. À partir de la distribution d'un ensemble d'individus sur une ou plusieurs dimensions comparatives, le modèle génère les catégories et les prototypes associés. Nous montrons que le modèle se comporte de manière cohérente par rapport à la théorie et est capable de répliquer des données expérimentales concernant divers phénomènes de groupe, dont par exemple la polarisation. De plus, il permet de décrire systématiquement les prédictions de la théorie dont il dérive, notamment dans des situations nouvelles. Au niveau collectif, plusieurs dynamiques peuvent être observées, dont la convergence vers le consensus, vers une fragmentation ou vers l'émergence d'attitudes extrêmes. Nous étudions également l'effet du réseau social sur la dynamique et montrons qu'à l'exception de la vitesse de convergence, qui augmente lorsque les distances moyennes du réseau diminuent, les types de convergences dépendent peu du réseau choisi. Nous constatons d'autre part que les individus qui se situent à la frontière des groupes (dans le réseau social ou spatialement) ont une influence déterminante sur l'issue de la dynamique. Le modèle peut par ailleurs être utilisé comme un algorithme de classification automatique. Il identifie des prototypes autour desquels sont construits des groupes. Les prototypes sont positionnés de sorte à accentuer les caractéristiques typiques des groupes, et ne sont pas forcément centraux. Enfin, si l'on considère l'ensemble des pixels d'une image comme des individus dans un espace de couleur tridimensionnel, le modèle fournit un filtre qui permet d'atténuer du bruit, d'aider à la détection d'objets et de simuler des biais de perception comme l'induction chromatique. Abstract Self-categorization theory is a social psychology theory dealing with the relation between the individual and the group. It explains group behaviour through self- and others' conception as members of social categories, and through the attribution of the proto-typical categories' characteristics to the individuals. Hence, it is a theory of the individual that intends to explain collective phenomena. Situations involving a large number of non-trivially interacting individuals typically generate complex collective behaviours, which are difficult to anticipate on the basis of individual behaviour. Computer simulation of such systems is a reliable way of systematically exploring the dynamics of the collective behaviour depending on individual specifications. In this thesis, we present a formal model of a part of self-categorization theory named metacontrast principle. Given the distribution of a set of individuals on one or several comparison dimensions, the model generates categories and their associated prototypes. We show that the model behaves coherently with respect to the theory and is able to replicate experimental data concerning various group phenomena, for example polarization. Moreover, it allows to systematically describe the predictions of the theory from which it is derived, specially in unencountered situations. At the collective level, several dynamics can be observed, among which convergence towards consensus, towards frag-mentation or towards the emergence of extreme attitudes. We also study the effect of the social network on the dynamics and show that, except for the convergence speed which raises as the mean distances on the network decrease, the observed convergence types do not depend much on the chosen network. We further note that individuals located at the border of the groups (whether in the social network or spatially) have a decisive influence on the dynamics' issue. In addition, the model can be used as an automatic classification algorithm. It identifies prototypes around which groups are built. Prototypes are positioned such as to accentuate groups' typical characteristics and are not necessarily central. Finally, if we consider the set of pixels of an image as individuals in a three-dimensional color space, the model provides a filter that allows to lessen noise, to help detecting objects and to simulate perception biases such as chromatic induction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The proportion of population living in or around cites is more important than ever. Urban sprawl and car dependence have taken over the pedestrian-friendly compact city. Environmental problems like air pollution, land waste or noise, and health problems are the result of this still continuing process. The urban planners have to find solutions to these complex problems, and at the same time insure the economic performance of the city and its surroundings. At the same time, an increasing quantity of socio-economic and environmental data is acquired. In order to get a better understanding of the processes and phenomena taking place in the complex urban environment, these data should be analysed. Numerous methods for modelling and simulating such a system exist and are still under development and can be exploited by the urban geographers for improving our understanding of the urban metabolism. Modern and innovative visualisation techniques help in communicating the results of such models and simulations. This thesis covers several methods for analysis, modelling, simulation and visualisation of problems related to urban geography. The analysis of high dimensional socio-economic data using artificial neural network techniques, especially self-organising maps, is showed using two examples at different scales. The problem of spatiotemporal modelling and data representation is treated and some possible solutions are shown. The simulation of urban dynamics and more specifically the traffic due to commuting to work is illustrated using multi-agent micro-simulation techniques. A section on visualisation methods presents cartograms for transforming the geographic space into a feature space, and the distance circle map, a centre-based map representation particularly useful for urban agglomerations. Some issues on the importance of scale in urban analysis and clustering of urban phenomena are exposed. A new approach on how to define urban areas at different scales is developed, and the link with percolation theory established. Fractal statistics, especially the lacunarity measure, and scale laws are used for characterising urban clusters. In a last section, the population evolution is modelled using a model close to the well-established gravity model. The work covers quite a wide range of methods useful in urban geography. Methods should still be developed further and at the same time find their way into the daily work and decision process of urban planners. La part de personnes vivant dans une région urbaine est plus élevé que jamais et continue à croître. L'étalement urbain et la dépendance automobile ont supplanté la ville compacte adaptée aux piétons. La pollution de l'air, le gaspillage du sol, le bruit, et des problèmes de santé pour les habitants en sont la conséquence. Les urbanistes doivent trouver, ensemble avec toute la société, des solutions à ces problèmes complexes. En même temps, il faut assurer la performance économique de la ville et de sa région. Actuellement, une quantité grandissante de données socio-économiques et environnementales est récoltée. Pour mieux comprendre les processus et phénomènes du système complexe "ville", ces données doivent être traitées et analysées. Des nombreuses méthodes pour modéliser et simuler un tel système existent et sont continuellement en développement. Elles peuvent être exploitées par le géographe urbain pour améliorer sa connaissance du métabolisme urbain. Des techniques modernes et innovatrices de visualisation aident dans la communication des résultats de tels modèles et simulations. Cette thèse décrit plusieurs méthodes permettant d'analyser, de modéliser, de simuler et de visualiser des phénomènes urbains. L'analyse de données socio-économiques à très haute dimension à l'aide de réseaux de neurones artificiels, notamment des cartes auto-organisatrices, est montré à travers deux exemples aux échelles différentes. Le problème de modélisation spatio-temporelle et de représentation des données est discuté et quelques ébauches de solutions esquissées. La simulation de la dynamique urbaine, et plus spécifiquement du trafic automobile engendré par les pendulaires est illustrée à l'aide d'une simulation multi-agents. Une section sur les méthodes de visualisation montre des cartes en anamorphoses permettant de transformer l'espace géographique en espace fonctionnel. Un autre type de carte, les cartes circulaires, est présenté. Ce type de carte est particulièrement utile pour les agglomérations urbaines. Quelques questions liées à l'importance de l'échelle dans l'analyse urbaine sont également discutées. Une nouvelle approche pour définir des clusters urbains à des échelles différentes est développée, et le lien avec la théorie de la percolation est établi. Des statistiques fractales, notamment la lacunarité, sont utilisées pour caractériser ces clusters urbains. L'évolution de la population est modélisée à l'aide d'un modèle proche du modèle gravitaire bien connu. Le travail couvre une large panoplie de méthodes utiles en géographie urbaine. Toutefois, il est toujours nécessaire de développer plus loin ces méthodes et en même temps, elles doivent trouver leur chemin dans la vie quotidienne des urbanistes et planificateurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: Comparaison des performances en qualité d'image des deux types de systèmes CR. Matériels et méthodes: Les performances ont été mesurées au moyen de la fonction de transfert de modulation (FTM), du spectre de bruit, de l'efficacité quantique de détection (DQE),le seuil de détection du contraste en épaisseur d'or et la dose glandulaire moyenne. Les systèmes CR à aiguilles Agfa HM5.0 et Carestream SNP-M1 ont étécomparés aux systèmes à poudre Agfa MM3.0, Fuji ProfectCS et Carestream EHR-M3. Résultats: La FTM à 5mm-1 de Agfa HM5,0 et Carestream SNP-M1 est 0,21 et 0,27, et entre 0,14 et 0,16 pour les systèmes à poudre. Un DQE maximal de 0,51 et 0,5 a étéobtenu pour Agfa HM5,0 et Carestream SNP-M1, et 0,35, 0,50 et 0,34 pour Agfa MM3,0, Fuji Profect et Carestream EHR-M3. Des valeurs de DQE à 5mm-1 de0,18 et 0,13 ont été obtenues pour Agfa HM5,0 et Carestream SNP-M1, et entre 0,04 et 0,065 pour les systèmes à poudre. Les seuils de détection du contrastede Agfa HM5,0 et Carestream SNP-M1 étaient 1,33im et 1,29im, et 1,45im et 1,63im pour Agfa MM3,0 et Fuji Profect. Conclusion: Les systèmes à aiguilles offrent des meilleures FTM et DQE et un seuil de visibilité du contraste plus bas que les systèmes à poudre .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans certaines portions des agglomérations (poches de pauvreté de centre-ville, couronnes suburbaines dégradées, espaces périurbains sans aménité), un cumul entre des inégalités sociales (pauvreté, chômage, etc.) et environnementales (exposition au bruit, aux risques industriels, etc.) peut être observé. La persistance de ces inégalités croisées dans le temps indique une tendance de fond : la capacité d'accéder à un cadre de vie de qualité n'est pas équitablement partagée parmi les individus. Ce constat interroge : comment se créent ces inégalités ? Comment infléchir cette tendance et faire la ville plus juste ?¦Apporter des réponses à cette problématique nécessite d'identifier les facteurs de causalités qui entrent en jeu dans le système de (re)production des inégalités urbaines. Le fonctionnement des marchés foncier et immobilier, la « tyrannie des petites décisions » et les politiques publiques à incidence spatiale sont principalement impliqués. Ces dernières, agissant sur tous les éléments du système, sont placées au coeur de ce travail. On va ainsi s'intéresser précisément à la manière dont les collectivités publiques pilotent la production de la ville contemporaine, en portant l'attention sur la maîtrise publique d'ouvrage (MPO) des grands projets urbains.¦Poser la question de la justice dans la fabrique de la ville implique également de questionner les référentiels normatifs de l'action publique : à quelle conception de la justice celle-ci doit- elle obéir? Quatre perspectives (radicale, substantialiste, procédurale et intégrative) sont caractérisées, chacune se traduisant par des principes d'action différenciés. Une méthodologie hybride - empruntant à la sociologie des organisations et à l'analyse des politiques publiques - vient clore le volet théorique, proposant par un détour métaphorique d'appréhender le projet urbain comme une pièce de théâtre dont le déroulement dépend du jeu d'acteurs.¦Cette méthodologie est utilisée dans le volet empirique de la recherche, qui consiste en une analyse de la MPO d'un projet urbain en cours dans la première couronne de l'agglomération lyonnaise : le Carré de Soie. Trois grands objectifs sont poursuivis : descriptif (reconstruire le scénario), analytique (évaluer la nature de la pièce : conte de fée, tragédie ou match d'improvisation ?) et prescriptif (tirer la morale de l'histoire). La description de la MPO montre le déploiement successif de quatre stratégies de pilotage, dont les implications sur les temporalités, le contenu du projet (programmes, morphologies) et les financements publics vont être déterminantes. Sur la base de l'analyse, plusieurs recommandations peuvent être formulées - importance de l'anticipation et de l'articulation entre planification et stratégie foncière notamment - pour permettre à la sphère publique de dominer le jeu et d'assurer la production de justice par le projet urbain (réalisation puis entretien des équipements et espaces publics, financement de logements de qualité à destination d'un large éventail de populations, etc.). Plus généralement, un décalage problématique peut être souligné entre les territoires stratégiques pour le développement de l'agglomération et les capacités de portage limitées des communes concernées. Ce déficit plaide pour le renforcement des capacités d'investissement de la structure intercommunale.¦La seule logique du marché (foncier, immobilier) mène à la polarisation sociale et à la production d'inégalités urbaines. Faire la ville juste nécessite une forte volonté des collectivités publiques, laquelle doit se traduire aussi bien dans l'ambition affichée - une juste hiérarchisation des priorités dans le développement urbain - que dans son opérationnalisation - une juste maîtrise publique d'ouvrage des projets urbains.¦Inner-city neighborhoods, poor outskirts, and peri-urban spaces with no amenities usually suffer from social and environmental inequalities, such as poverty, unemployment, and exposure to noise and industrial hazards. The observed persistence of these inequalities over time points to an underlying trend - namely, that access to proper living conditions is fundamentally unequal, thus eliciting the question of how such inequalities are effected and how this trend can be reversed so as to build a more equitable city.¦Providing answers to such questions requires that the causal factors at play within the system of (re)production of urban inequalities be identified. Real estate markets, "micromotives and macrobehavior", and public policies that bear on space are mostly involved. The latter are central in that they act on all the elements of the system. This thesis therefore focuses on the way public authorities shape the production of contemporary cities, by studying the public project ownership of major urban projects.¦The study of justice within the urban fabric also implies that the normative frames of reference of public action be questioned: what conception of justice should public action refer to? This thesis examines four perspectives (radical, substantialist, procedural, and integrative) each of which results in different principles of action. This theoretical part is concluded by a hybrid methodology that draws from sociology of organizations and public policy analysis and that suggests that the urban project may be understood as a play, whose outcome hinges on the actors' acting.¦This methodology is applied to the empirical analysis of the public project ownership of an ongoing urban project in the Lyon first-ring suburbs: the Carré de Soie. Three main objectives are pursued: descriptive (reconstructing the scenario), analytical (assessing the nature of the play - fairy tale, tragedy or improvisation match), and prescriptive (drawing the moral of the story). The description of the public project ownership shows the successive deployment of four control strategies, whose implications on deadlines, project content (programs, morphologies), and public funding are significant. Building on the analysis, several recommendations can be made to allow the public sphere to control the process and ensure the urban project produces equity (most notably, anticipation and articulation of planning and real- estate strategy, as well as provision and maintenance of equipment and public spaces, funding of quality housing for a wide range of populations, etc.). More generally, a gap can be highlighted between those territories that are strategic to the development of the agglomeration and the limited resources of the municipalities involved. This deficit calls for strengthening the investment abilities of the intermunicipal structure.¦By itself, the real-estate market logic brings about social polarization and urban inequalities. Building an equitable city requires a strong will on the part of public authorities, a will that must be reflected both in the stated ambition - setting priorities of urban development equitably - and in its implementation managing urban public projects fairly.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: Evaluer la technique de reconstruction itérative VEO en tomodensitométrie (TDM) du thorax chez l'enfant. Matériels et méthodes: Etude prospective, basée sur 20 patients (7-18 ans), suivis pour mucoviscidose et adressés pour TDM de suivi. Dix patients (groupe A) ont eu une acquisition basse-dose habituelle (BD). Dix patients (groupe B) ont eu une acquisition très-basse-dose (TBD) et ultra-basse-dose (UBD). Les acquisitions BD étaient reconstruites par rétroprojection filtrée (RPF), les acquisitions TBD et UBD étaient reconstruites par RPF et VEO. L'évaluation de VEO était basée sur la réduction de dose et la qualité des images (mesures de bruit et scores de visualisation des structures pulmonaires). Résultats: Une réduction de dose d'environ 50% était obtenue dans le groupe B. La réduction du bruit en VEO par rapport aux RPF était de 55% en TBD et de 75% en UBD. En VEO, une amélioration des scores de visualisation des structures pulmonaires était obtenue en TBD et UBD. Cependant, en VEO-UBD, la visualisation des structures distales demeuraient parfois insuffisante et celle des structures proximales était altérée par une modification de texture de l'image. Conclusion: Malgré une altération possible de la texture de l'image en UBD, la technique de reconstruction VEO est performante en réduction de dose et amélioration des images.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACT (English)An accurate processing of the order between sensory events at the millisecond time scale is crucial for both sensori-motor and cognitive functions. Temporal order judgment (TOJ) tasks, is the ability of discriminating the order of presentation of several stimuli presented in a rapid succession. The aim of the present thesis is to further investigate the spatio-temporal brain mechanisms supporting TOJ. In three studies we focus on the dependency of TOJ accuracy on the brain states preceding the presentation of TOJ stimuli, the neural correlates of accurate vs. inaccurate TOJ and whether and how TOJ performance can be improved with training.In "Pre-stimulus beta oscillations within left posterior sylvian regions impact auditory temporal order judgment accuracy" (Bernasconi et al., 2011), we investigated if the brain activity immediately preceding the presentation of the stimuli modulates TOJ performance. By contrasting the electrophysiological activity before the stimulus presentation as a function of TOJ accuracy we observed a stronger pre-stimulus beta (20Hz) oscillatory activity within the left posterior sylvian region (PSR) before accurate than inaccurate TOJ trials.In "Interhemispheric coupling between the posterior sylvian regions impacts successful auditory temporal order judgment" (Bernasconi et al., 2010a), and "Plastic brain mechanisms for attaining auditory temporal order judgment proficiency" (Bernasconi et al., 2010b), we investigated the spatio-temporal brain dynamics underlying auditory TOJ. In both studies we observed a topographic modulation as a function of TOJ performance at ~40ms after the onset of the first sound, indicating the engagement of distinct configurations of intracranial generators. Source estimations in the first study revealed a bilateral PSR activity for both accurate and inaccurate TOJ trials. Moreover, activity within left, but not right, PSR correlated with TOJ performance. Source estimations in the second study revealed a training-induced left lateralization of the initial bilateral (i.e. PSR) brain response. Moreover, the activity within the left PSR region correlated with TOJ performance.Based on these results, we suggest that a "temporal stamp" is established within left PSR on the first sound within the pair at early stages (i.e. ~40ms) of cortical processes, but is critically modulated by inputs from right PSR (Bernasconi et al., 2010a; b). The "temporal stamp" on the first sound may be established via a sensory gating or prior entry mechanism.Behavioral and brain responses to identical stimuli can vary due to attention modulation, vary with experimental and task parameters or "internal noise". In a fourth experiment (Bernasconi et al., 2011b) we investigated where and when "neural noise" manifest during the stimulus processing. Contrasting the AEPs of identical sound perceived as High vs. Low pitch, a topographic modulation occurred at ca. 100ms after the onset of the sound. Source estimation revealed activity within regions compatible with pitch discrimination. Thus, we provided neurophysiological evidence for the variation in perception induced by "neural noise".ABSTRACT (French)Un traitement précis de l'ordre des événements sensoriels sur une échelle de temps de milliseconde est crucial pour les fonctions sensori-motrices et cognitives. Les tâches de jugement d'ordre temporel (JOT), consistant à présenter plusieurs stimuli en succession rapide, sont traditionnellement employées pour étudier les mécanismes neuronaux soutenant le traitement d'informations sensorielles qui varient rapidement. Le but de cette thèse est d'étudier le mécanisme cérébral soutenant JOT. Dans les trois études présentées nous nous sommes concentrés sur les états du cerveau précédant la présentation des stimuli de JOT, les bases neurales pour un JOT correct vs. incorrect et sur la possibilité et les moyens d'améliorer l'exécution du JOT grâce à un entraînement.Dans "Pre-stimulus beta oscillations within left posterior sylvian regions impact auditory temporal order judgment accuracy" (Bernasconi et al., 2011),, nous nous sommes intéressé à savoir si l'activité oscillatoire du cerveau au pré-stimulus modulait la performance du JOT. Nous avons contrasté l'activité électrophysiologique en fonction de la performance TOJ, mesurant une activité oscillatoire beta au pré-stimulus plus fort dans la région sylvian postérieure gauche (PSR) liée à un JOT correct.Dans "Interhemispheric coupling between the posterior sylvian regions impacts successful auditory temporal order judgment" (Bernasconi et al., 2010a), et "Plastic brain mechanisms for attaining auditory temporal order judgment proficiency" (Bernasconi et al., 2010b), nous avons étudié la dynamique spatio-temporelle dans le cerveau impliqué dans le traitement du JOT auditif. Dans ses deux études, nous avons observé une modulation topographique à ~40ms après le début du premier son, en fonction de la performance JOT, indiquant l'engagement des configurations de générateurs intra- crâniens distincts. La localisation de source dans la première étude indique une activité bilatérale de PSR pour des JOT corrects vs. incorrects. Par ailleurs, l'activité dans PSR gauche, mais pas dans le droit, est corrélée avec la performance du JOT. La localisation de source dans la deuxième étude indiquait une latéralisation gauche induite par l'entraînement d'une réponse initialement bilatérale du cerveau. D'ailleurs, l'activité dans la région PSR gauche corrèlait avec la performance de TOJ.Basé sur ces résultats, nous proposons qu'un « timbre-temporel » soit établi très tôt (c.-à-d. à ~40ms) sur le premier son par le PSR gauche, mais module par l'activité du PSR droite (Bernasconi et al., 2010a ; b). « Le timbre- temporel » sur le premier son peut être établi par le mécanisme neuronal de type « sensory gating » ou « prior entry ».Les réponses comportementales et du cerveau aux stimuli identiques peut varier du à des modulations d'attention ou à des variations dans les paramètres des tâches ou au bruit interne du cerveau. Dans une quatrième expérience (Bernasconi et al. 2011B), nous avons étudié où et quand le »bruit neuronal« se manifeste pendant le traitement des stimuli. En contrastant les AEPs de sons identiques perçus comme aigus vs. grave, nous avons mesuré une modulation topographique à env. 100ms après l'apparition du son. L'estimation de source a révélé une activité dans les régions compatibles avec la discrimination de fréquences. Ainsi, nous avons fourni des preuves neurophysiologiques de la variation de la perception induite par le «bruit neuronal».

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'objectif de ce travail est le développement d'une méthode de caractérisation objective de la qualité d'image s'appliquant à des systèmes de mammographie analogique, utilisant un couple écran-film comme détecteur, et numérique, basé sur une technologie semi-conductrice, ceci en vue de la comparaison de leurs performances. La méthode développée tient compte de la gamme dynamique du détecteur, de la détectabilité de structures de haut contraste, simulant des microcalcifications, et de structures de bas contraste, simulant des opacités (nodules tumoraux). La méthode prend également en considération le processus de visualisation de l'image, ainsi que la réponse de l'observateur. Pour réaliser ceci, un objet-test ayant des propriétés proches de celles d'un sein comprimé, composé de différents matériaux équivalents aux tissus, allant du glandulaire à l'adipeux, et comprenant des zones permettant la simulation de structures de haut et bas contraste, ainsi que la mesure de la résolution et celle du bruit, a été développé et testé. L'intégration du processus de visualisation a été réalisée en utilisant une caméra CCD mesurant directement les paramètres de qualité d'image, à partir de l'image de l'objet-test, dans une grandeur physique commune au système numérique et analogique, à savoir la luminance arrivant sur l'oeil de l'observateur. L'utilisation d'une grandeur synthétique intégrant dans un même temps, le contraste, le bruit et la résolution rend possible une comparaison objective entre les deux systèmes de mammographie. Un modèle mathématique, simulant la réponse d'un observateur et intégrant les paramètres de base de qualité d'image, a été utilisé pour calculer la détectabilité de structures de haut et bas contraste en fonction du type de tissu sur lequel celles-ci se trouvent. Les résultats obtenus montrent qu'à dose égale la détectabilité des structures est significativement plus élevée avec le système de mammographie numérique qu'avec le système analogique. Ceci est principalement lié au fait que le bruit du système numérique est plus faible que celui du système analogique. Les résultats montrent également que la méthodologie, visant à comparer des systèmes d'imagerie numérique et analogique en utilisant un objet-test à large gamme dynamique ainsi qu'une caméra, peut être appliquée à d'autres modalités radiologiques, ainsi qu'à une démarche d'optimisation des conditions de lecture des images.<br/><br/>The goal of this work was to develop a method to objectively compare the performance of a digital and a screen-film mammography system in terms of image quality and patient dose. We propose a method that takes into account the dynamic range of the image detector and the detection of high contrast (for microcalcifications) and low contrast (for masses or tumoral nodules) structures. The method also addresses the problems of image visualization and the observer response. A test object, designed to represent a compressed breast, was constructed from various tissue equivalent materials ranging from purely adipose to purely glandular composition. Different areas within the test object permitted the evaluation of low and high contrast detection, spatial resolution, and image noise. All the images (digital and conventional) were captured using a CCD camera to include the visualization process in the image quality assessment. In this way the luminance reaching the viewer?s eyes can be controlled for both kinds of images. A global quantity describing image contrast, spatial resolution and noise, and expressed in terms of luminance at the camera, can then be used to compare the two technologies objectively. The quantity used was a mathematical model observer that calculates the detectability of high and low contrast structures as a function of the background tissue. Our results show that for a given patient dose, the detection of high and low contrast structures is significantly better for the digital system than for the conventional screen-film system studied. This is mainly because the image noise is lower for the digital system than for the screen-film detector. The method of using a test object with a large dynamic range combined with a camera to compare conventional and digital imaging modalities can be applied to other radiological imaging techniques. In particular it could be used to optimize the process of radiographic film reading.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les échantillons biologiques ne s?arrangent pas toujours en objets ordonnés (cristaux 2D ou hélices) nécessaires pour la microscopie électronique ni en cristaux 3D parfaitement ordonnés pour la cristallographie rayons X alors que de nombreux spécimens sont tout simplement trop << gros D pour la spectroscopie NMR. C?est pour ces raisons que l?analyse de particules isolées par la cryo-microscopie électronique est devenue une technique de plus en plus importante pour déterminer la structure de macromolécules. Néanmoins, le faible rapport signal-sur-bruit ainsi que la forte sensibilité des échantillons biologiques natifs face au faisceau électronique restent deux parmi les facteurs limitant la résolution. La cryo-coloration négative est une technique récemment développée permettant l?observation des échantillons biologiques avec le microscope électronique. Ils sont observés à l?état vitrifié et à basse température, en présence d?un colorant (molybdate d?ammonium). Les avantages de la cryo-coloration négative sont étudiés dans ce travail. Les résultats obtenus révèlent que les problèmes majeurs peuvent êtres évités par l?utilisation de cette nouvelle technique. Les échantillons sont représentés fidèlement avec un SNR 10 fois plus important que dans le cas des échantillons dans l?eau. De plus, la comparaison de données obtenues après de multiples expositions montre que les dégâts liés au faisceau électronique sont réduits considérablement. D?autre part, les résultats exposés mettent en évidence que la technique est idéale pour l?analyse à haute résolution de macromolécules biologiques. La solution vitrifiée de molybdate d?ammonium entourant l?échantillon n?empêche pas l?accès à la structure interne de la protéine. Finalement, plusieurs exemples d?application démontrent les avantages de cette technique nouvellement développée.<br/><br/>Many biological specimens do not arrange themselves in ordered assemblies (tubular or flat 2D crystals) suitable for electron crystallography, nor in perfectly ordered 3D crystals for X-ray diffraction; many other are simply too large to be approached by NMR spectroscopy. Therefore, single-particles analysis has become a progressively more important technique for structural determination of large isolated macromolecules by cryo-electron microscopy. Nevertheless, the low signal-to-noise ratio and the high electron-beam sensitivity of biological samples remain two main resolution-limiting factors, when the specimens are observed in their native state. Cryo-negative staining is a recently developed technique that allows the study of biological samples with the electron microscope. The samples are observed at low temperature, in the vitrified state, but in presence of a stain (ammonium molybdate). In the present work, the advantages of this novel technique are investigated: it is shown that cryo-negative staining can generally overcome most of the problems encountered with cryo-electron microscopy of vitrified native suspension of biological particles. The specimens are faithfully represented with a 10-times higher SNR than in the case of unstained samples. Beam-damage is found to be considerably reduced by comparison of multiple-exposure series of both stained and unstained samples. The present report also demonstrates that cryo-negative staining is capable of high- resolution analysis of biological macromolecules. The vitrified stain solution surrounding the sample does not forbid the access to the interna1 features (ie. the secondary structure) of a protein. This finding is of direct interest for the structural biologist trying to combine electron microscopy and X-ray data. developed electron microscopy technique. Finally, several application examples demonstrate the advantages of this newly

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'expérience LHCb sera installée sur le futur accélérateur LHC du CERN. LHCb est un spectromètre à un bras consacré aux mesures de précision de la violation CP et à l'étude des désintégrations rares des particules qui contiennent un quark b. Actuellement LHCb se trouve dans la phase finale de recherche et développement et de conception. La construction a déjà commencé pour l'aimant et les calorimètres. Dans le Modèle Standard, la violation CP est causée par une phase complexe dans la matrice 3x3 CKM (Cabibbo-Kobayashi-Maskawa) de mélange des quarks. L'expérience LHCb compte utiliser les mesons B pour tester l'unitarité de cette matrice, en mesurant de diverses manières indépendantes tous les angles et côtés du "triangle d'unitarité". Cela permettra de surdéterminer le modèle et, peut-être, de mettre en évidence des incohérences qui seraient le signal de l'existence d'une physique au-delà du Modèle Standard. La reconstruction du vertex de désintégration des particules est une condition fondamentale pour l'expérience LHCb. La présence d'un vertex secondaire déplacé est une signature de la désintégration de particules avec un quark b. Cette signature est utilisée dans le trigger topologique du LHCb. Le Vertex Locator (VeLo) doit fournir des mesures précises de coordonnées de passage des traces près de la région d'interaction. Ces points sont ensuite utilisés pour reconstruire les trajectoires des particules et l'identification des vertices secondaires et la mesure des temps de vie des hadrons avec quark b. L'électronique du VeLo est une partie essentielle du système d'acquisition de données et doit se conformer aux spécifications de l'électronique de LHCb. La conception des circuits doit maximiser le rapport signal/bruit pour obtenir la meilleure performance de reconstruction des traces dans le détecteur. L'électronique, conçue en parallèle avec le développement du détecteur de silicium, a parcouru plusieurs phases de "prototyping" décrites dans cette thèse.<br/><br/>The LHCb experiment is being built at the future LHC accelerator at CERN. It is a forward single-arm spectrometer dedicated to precision measurements of CP violation and rare decays in the b quark sector. Presently it is finishing its R&D and final design stage. The construction already started for the magnet and calorimeters. In the Standard Model, CP violation arises via the complex phase of the 3 x 3 CKM (Cabibbo-Kobayashi-Maskawa) quark mixing matrix. The LHCb experiment will test the unitarity of this matrix by measuring in several theoretically unrelated ways all angles and sides of the so-called "unitary triangle". This will allow to over-constrain the model and - hopefully - to exhibit inconsistencies which will be a signal of physics beyond the Standard Model. The Vertex reconstruction is a fundamental requirement for the LHCb experiment. Displaced secondary vertices are a distinctive feature of b-hadron decays. This signature is used in the LHCb topology trigger. The Vertex Locator (VeLo) has to provide precise measurements of track coordinates close to the interaction region. These are used to reconstruct production and decay vertices of beauty-hadrons and to provide accurate measurements of their decay lifetimes. The Vertex Locator electronics is an essential part of the data acquisition system and must conform to the overall LHCb electronics specification. The design of the electronics must maximise the signal to noise ratio in order to achieve the best tracking reconstruction performance in the detector. The electronics is being designed in parallel with the silicon detector development and went trough several prototyping phases, which are described in this thesis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACT: Massive synaptic pruning following over-growth is a general feature of mammalian brain maturation. Pruning starts near time of birth and is completed by time of sexual maturation. Trigger signals able to induce synaptic pruning could be related to dynamic functions that depend on the timing of action potentials. Spike-timing-dependent synaptic plasticity (STDP) is a change in the synaptic strength based on the ordering of pre- and postsynaptic spikes. The relation between synaptic efficacy and synaptic pruning suggests that the weak synapses may be modified and removed through competitive "learning" rules. This plasticity rule might produce the strengthening of the connections among neurons that belong to cell assemblies characterized by recurrent patterns of firing. Conversely, the connections that are not recurrently activated might decrease in efficiency and eventually be eliminated. The main goal of our study is to determine whether or not, and under which conditions, such cell assemblies may emerge out of a locally connected random network of integrate-and-fire units distributed on a 2D lattice receiving background noise and content-related input organized in both temporal and spatial dimensions. The originality of our study stands on the relatively large size of the network, 10,000 units, the duration of the experiment, 10E6 time units (one time unit corresponding to the duration of a spike), and the application of an original bio-inspired STDP modification rule compatible with hardware implementation. A first batch of experiments was performed to test that the randomly generated connectivity and the STDP-driven pruning did not show any spurious bias in absence of stimulation. Among other things, a scale factor was approximated to compensate for the network size on the ac¬tivity. Networks were then stimulated with the spatiotemporal patterns. The analysis of the connections remaining at the end of the simulations, as well as the analysis of the time series resulting from the interconnected units activity, suggest that feed-forward circuits emerge from the initially randomly connected networks by pruning. RESUME: L'élagage massif des synapses après une croissance excessive est une phase normale de la ma¬turation du cerveau des mammifères. L'élagage commence peu avant la naissance et est complété avant l'âge de la maturité sexuelle. Les facteurs déclenchants capables d'induire l'élagage des synapses pourraient être liés à des processus dynamiques qui dépendent de la temporalité rela¬tive des potentiels d'actions. La plasticité synaptique à modulation temporelle relative (STDP) correspond à un changement de la force synaptique basé sur l'ordre des décharges pré- et post- synaptiques. La relation entre l'efficacité synaptique et l'élagage des synapses suggère que les synapses les plus faibles pourraient être modifiées et retirées au moyen d'une règle "d'appren¬tissage" faisant intervenir une compétition. Cette règle de plasticité pourrait produire le ren¬forcement des connexions parmi les neurones qui appartiennent à une assemblée de cellules caractérisée par des motifs de décharge récurrents. A l'inverse, les connexions qui ne sont pas activées de façon récurrente pourraient voir leur efficacité diminuée et être finalement éliminées. Le but principal de notre travail est de déterminer s'il serait possible, et dans quelles conditions, que de telles assemblées de cellules émergent d'un réseau d'unités integrate-and¬-fire connectées aléatoirement et distribuées à la surface d'une grille bidimensionnelle recevant à la fois du bruit et des entrées organisées dans les dimensions temporelle et spatiale. L'originalité de notre étude tient dans la taille relativement grande du réseau, 10'000 unités, dans la durée des simulations, 1 million d'unités de temps (une unité de temps correspondant à une milliseconde), et dans l'utilisation d'une règle STDP originale compatible avec une implémentation matérielle. Une première série d'expériences a été effectuée pour tester que la connectivité produite aléatoirement et que l'élagage dirigé par STDP ne produisaient pas de biais en absence de stimu¬lation extérieure. Entre autres choses, un facteur d'échelle a pu être approximé pour compenser l'effet de la variation de la taille du réseau sur son activité. Les réseaux ont ensuite été stimulés avec des motifs spatiotemporels. L'analyse des connexions se maintenant à la fin des simulations, ainsi que l'analyse des séries temporelles résultantes de l'activité des neurones, suggèrent que des circuits feed-forward émergent par l'élagage des réseaux initialement connectés au hasard.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La théorie de l'autocatégorisation est une théorie de psychologie sociale qui porte sur la relation entre l'individu et le groupe. Elle explique le comportement de groupe par la conception de soi et des autres en tant que membres de catégories sociales, et par l'attribution aux individus des caractéristiques prototypiques de ces catégories. Il s'agit donc d'une théorie de l'individu qui est censée expliquer des phénomènes collectifs. Les situations dans lesquelles un grand nombre d'individus interagissent de manière non triviale génèrent typiquement des comportements collectifs complexes qui sont difficiles à prévoir sur la base des comportements individuels. La simulation informatique de tels systèmes est un moyen fiable d'explorer de manière systématique la dynamique du comportement collectif en fonction des spécifications individuelles. Dans cette thèse, nous présentons un modèle formel d'une partie de la théorie de l'autocatégorisation appelée principe du métacontraste. À partir de la distribution d'un ensemble d'individus sur une ou plusieurs dimensions comparatives, le modèle génère les catégories et les prototypes associés. Nous montrons que le modèle se comporte de manière cohérente par rapport à la théorie et est capable de répliquer des données expérimentales concernant divers phénomènes de groupe, dont par exemple la polarisation. De plus, il permet de décrire systématiquement les prédictions de la théorie dont il dérive, notamment dans des situations nouvelles. Au niveau collectif, plusieurs dynamiques peuvent être observées, dont la convergence vers le consensus, vers une fragmentation ou vers l'émergence d'attitudes extrêmes. Nous étudions également l'effet du réseau social sur la dynamique et montrons qu'à l'exception de la vitesse de convergence, qui augmente lorsque les distances moyennes du réseau diminuent, les types de convergences dépendent peu du réseau choisi. Nous constatons d'autre part que les individus qui se situent à la frontière des groupes (dans le réseau social ou spatialement) ont une influence déterminante sur l'issue de la dynamique. Le modèle peut par ailleurs être utilisé comme un algorithme de classification automatique. Il identifie des prototypes autour desquels sont construits des groupes. Les prototypes sont positionnés de sorte à accentuer les caractéristiques typiques des groupes, et ne sont pas forcément centraux. Enfin, si l'on considère l'ensemble des pixels d'une image comme des individus dans un espace de couleur tridimensionnel, le modèle fournit un filtre qui permet d'atténuer du bruit, d'aider à la détection d'objets et de simuler des biais de perception comme l'induction chromatique. Abstract Self-categorization theory is a social psychology theory dealing with the relation between the individual and the group. It explains group behaviour through self- and others' conception as members of social categories, and through the attribution of the proto-typical categories' characteristics to the individuals. Hence, it is a theory of the individual that intends to explain collective phenomena. Situations involving a large number of non-trivially interacting individuals typically generate complex collective behaviours, which are difficult to anticipate on the basis of individual behaviour. Computer simulation of such systems is a reliable way of systematically exploring the dynamics of the collective behaviour depending on individual specifications. In this thesis, we present a formal model of a part of self-categorization theory named metacontrast principle. Given the distribution of a set of individuals on one or several comparison dimensions, the model generates categories and their associated prototypes. We show that the model behaves coherently with respect to the theory and is able to replicate experimental data concerning various group phenomena, for example polarization. Moreover, it allows to systematically describe the predictions of the theory from which it is derived, specially in unencountered situations. At the collective level, several dynamics can be observed, among which convergence towards consensus, towards frag-mentation or towards the emergence of extreme attitudes. We also study the effect of the social network on the dynamics and show that, except for the convergence speed which raises as the mean distances on the network decrease, the observed convergence types do not depend much on the chosen network. We further note that individuals located at the border of the groups (whether in the social network or spatially) have a decisive influence on the dynamics' issue. In addition, the model can be used as an automatic classification algorithm. It identifies prototypes around which groups are built. Prototypes are positioned such as to accentuate groups' typical characteristics and are not necessarily central. Finally, if we consider the set of pixels of an image as individuals in a three-dimensional color space, the model provides a filter that allows to lessen noise, to help detecting objects and to simulate perception biases such as chromatic induction.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au printemps 2012, des employés administratifs, ayant récemment emménagé dans un nouveau bâtiment à hautes performances énergétiques, se plaignent de problèmes de santé et de gênes compatibles avec un syndrome du bâtiment malsain. L'employeur a entendu les plaintes des collaborateurs, et choisit une intervention unique, consistant à poser des ouvrants afin de fournir une ventilation naturelle. Parallèlement, il commande à des spécialistes MSST une étude sur l'impact de la mesure sur les plaintes exprimées par les employés. La littérature recommande quant à elle de prendre en charge ce type de problématique de façon itérative, et en abordant de multiples aspects (qualité de l'air, psycho-sociaux, organisationnels). Au vu des nombreuses plaintes de la population, et de la disponibilité de ces données, une analyse détaillée, de cohorte, est proposée dans ce travail de master, dont les objectifs seront de caractériser les plaintes des collaborateurs travaillant dans le bâtiment administratif, de diagnostiquer le type de problématique présent, de déterminer si l'on observe une atténuation des symptômes dans ce bâtiment suite à l'intervention unique de pose des ouvrants, et d'isoler si possible d'autres déterminants d'une évolution favorable ou défavorable de la symptomatologie en présence d'une intervention unique. Une étude de cohorte est menée sur les données récoltées par un questionnaire, basé sur le questionnaire MM40, en mars 2012 (T0) et mars 2013 (T1). La population est décrite, puis des analyses descriptives et par régression logistique sont réalisées. La participation a été importante. Entre T0 et T1, après la pose des ouvrants, le nombre de plaintes et symptômes a diminué, mais la prévalence des plaintes reste importante (odeurs, ventilation, bruit, etc.). Les plaintes et les symptômes mis en évidence sont retrouvés dans la littérature, et sont peu spécifiques à la problématique de ce bâtiment, situé en Suisse. De nouvelles pistes d'intervention sont proposées au vu des résultats trouvés.