374 resultados para modèles EGDS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans cette thèse, nous étudions les évolutions des systèmes d'information. Nous nous intéressons plus particulièrement à l'étude des facteurs déclencheurs d'évolution, ce qu'ils représentent et comment ils permettent d'en apprendre d'avantage sur le cycle de vie des systèmes d'information. Pour ce faire, nous avons développé un cadre conceptuel pour l'étude des évolutions qui tient compte non seulement des facteurs déclencheurs d'évolution, mais également de la nature des activités entreprises pour évoluer. Nous avons suivi une approche Design Science pour la conception de ce cadre conceptuel. Selon cette approche, nous avons développé itérativement le cadre conceptuel en l'instanciant puis en l'évaluant afin de raffiner sa conception. Ceci nous a permis de faire plusieurs contributions tant pratiques que théoriques. La première contribution théorique de cette recherche est l'identification de 4 facteurs principaux déclenchant les évolutions. Ces facteurs sont des éléments issus de domaines généralement étudiés séparément. Le cadre conceptuel les rassemble dans un même outil pour l'étude des évolutions. Une autre contribution théorique est l'étude du cycle de vie des systèmes selon ces facteurs. En effet, l'utilisation répétée du cadre conceptuel pour la qualification des évolutions met en lumière les principales motivations des évolutions lors de chaque étape du cycle de vie. En comparant les évolutions de plusieurs systèmes, il devient possible de mettre en évidence des modèles spécifiques d'évolution des systèmes. Concernant les contributions pratiques, la principale concerne le pilotage de l'évolution. Pour un gestionnaire de système d'information, l'application du cadre conceptuel permet de connaître précisément l'allocation réelle des ressources pour une évolution ainsi que la localisation du système dans son cycle de vie. Le cadre conceptuel peut donc aider les gestionnaires dans la planification et la stratégie d'évolution du système. Les modèles d'évolution, identifiés suite à l'application du cadre conceptuel, sont également une aide précieuse pour définir la stratégie de pilotage et les activités à entreprendre lors de la planification des évolutions. Finalement, le cadre conceptuel a fourni les bases nécessaires à l'élaboration d'un tableau de bord pour le suivi du cycle de vie et le pilotage de l'évolution des systèmes d'information.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

S'inscrivant dans le sous-domaine interdisciplinaire de l'Urban Political Ecology (UPE), cette thèse dresse une géo-histoire foucauldienne de l'eau urbaine, particulièrement l'eau en réseau, en Suisse entre 1850 et nos jours. Plus précisément, il s'agit d'une étude des modes d'exercice du pouvoir (les formes de gouvernementalité) et de leurs outils (les technologies de pouvoir), focalisée sur l'eau en réseau et menée à l'aide d'une méthode archéogénéalogique. Cette recherche apporte des contributions théoriques et empiriques à l'UPE. Du côté théorique, elle propose l'adoption d'une approche foucauldienne dans le domaine de l'UPE, elle définit le potentiel et les implications de son éthique de la recherche et elle décrit certains parmi les principaux concepts, théories et méthodes foucauldiens mobilisables au sein de l'UPE de l'eau. Du côté empirique, elle applique l'approche proposée à une série d'études de cas, permettant de dresser la géo-histoire mentionnée plus haut mais aussi de nuancer le cadre théorique et méthodologique, de l'enrichir et d'en pointer les limites. A travers l'étude d'archives de la presse locale, les trois premières études de cas montrent que deux formes de gouvernementalité ont coexisté en Suisse pendant la période étudiée, à savoir le biopouvoir et la gouvernementalité néolibérale. Cependant, ces deux formes de gouvernementalité dévient considérablement des modèles proposés par Michel Foucault. Par exemple, des technologies de pouvoir permettant le gouvernement à distance relatives à la santé de la population ont fait leur apparition dès la deuxième moitié du dix-neuvième siècle, ce qui interroge la définition du biopouvoir telle qu'elle avait initialement été proposée par Michel Foucault. La dernière étude de cas est centrée sur l'époque contemporaine. Elle indique qu'à l'heure actuelle une production centralisée d'argumentaires destinés aux citoyens-consommateurs a lieu dans des espaces non-statutaires d'inspiration néolibérale (les soft spaces). Cette production discursive centralisée se révèle efficace et contribue, paradoxalement, au maintien d'un modèle helvétique décentralisé et démocratique en matière d'eau du robinet. Des recherches ultérieures pourraient permettre de tester la pertinence de l'approche foucauldienne adoptée ici dans d'autres cas d'étude, de nuancer et enrichir ultérieurement le cadre théorique et d'améliorer la méthode utilisée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

[Table des matières] 1. Introduction (Problématique, Aperçu global) - 2. Méthode (Revue systématique de la littérature, Analyse du cadre réglementaire, Consultation des experts, Analyse des perceptions et attentes de la population générale, des patients et des professionnels de santé en matière d'utilisation du matériel biologique, Définition de l'outil pour la recherche quantitative en population générale) - 3. Revue de littérature (Tendance générale, Questions controversées, Perception de la population générale et des patients, Synthèse) - 4. Cadre légal et réglementaire relatif à la recherche sur l'être humain (Le cadre international, Le cadre fédéral, Le cadre du canton de Vaud, Synthèse) - 5. Consultation des experts (Etat des lieux de la pratique, Perception de la situation par les experts) - 6. Perceptions et attentes de la population générale, des patients et des professionnels de santé en matière d'utilisation de matériel biologique - 7. Définition de l'outil pour la recherche quantitative en population générale - 8. Poster : Conférence suisse de santé publique - 9. Bibliographie - 10. Annexes (Evolution de la recherche systématique de la littérature, Vignettes présentées aux participants des focus group, Synthèse des focus group, Recommandations de G. Helgesson pour l'utilisation des échantillons, Etudes populationnelles à l'étranger, Modèles de l'ASSM, Informations et consentements à la biobanque de Lausanne, Questionnaire)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les syndromes de déficiences cérébrales en créatine (CCDS) sont dus à des mutations dans les gènes GATM et G AMT (codant pour les enzymes AGAT et G AMT de la voie de synthèse de créatine) ainsi que SLC6A8 (transporteur de créatine), et génèrent une absence ou une très forte baisse de créatine (Cr) dans le cerveau, mesurée par spectroscopic de résonance magnétique. Les patients CCDS développent des handicaps neurologiques sévères. Les patients AGAT et GAMT peuvent être traités avec des doses importantes de Cr, mais gardent dans la plupart des cas des séquelles neurologiques irréversibles. Aucun traitement efficace n'existe à ce jour pour la déficience en SLC6A8. Bien que de nombreux modèles aient été développés pour comprendre la Cr cérébrale en conditions physiologiques, les pathomécanismes des CCDS ne sont pas encore compris. Des souris transgéniques pour les gènes Gatm, Gamt et Slc6a8 ont été générées, mais elles ne miment que partiellement la pathologie humaine. Parmi les CCDS, la déficience en GAMT est la plus sévère, en raison de l'accumulation cérébrale de l'intermédiaire guanidinoacétate (GAA). Alors que la toxicité cérébrale du GAA a été étudiée par exposition directe au GAA d'animaux adultes sains, les mécanismes de la toxicité du GAA en condition de déficience en GAMT dans le cerveau en développement sont encore inconnus. Le but de ce projet était donc de développer un modèle de déficience en GAMT dans des cultures 3D primaires de cellules nerveuses de rat en agrégats par knock-down du gène GAMT, en utilisant un virus adéno-associé (AAV) induisant le mécanisme d'interférence à l'ARN (RNAi). Le virus scAAV2, à la multiplicité d'infection de 1000, s'est révélé le plus efficace pour transduire tous les types de cellules nerveuses des cultures (neurones, astrocytes, oligodendrocytes), et générer un knock-down maximal de la protéine GAMT de 85% (jour in vitro 18). Cette déficience partielle en GAMT s'est révélée insuffisante pour générer une déficience en Cr, mais a causé l'accumulation attendue de GAA, à des doses comparables aux niveaux observés dans le LCR des patients GAMT. Le GAA a induit une croissance axonale anarchique accompagnée d'une baisse de l'apoptose naturelle, suivis par une induction tardive de mort cellulaire non-apoptotique. Le co-traitement par la Cr a prévenu tous les effets toxiques du GAA. Ce travail montre que l'accumulation de GAA en absence de déficience en Cr est suffisante pour affecter le développement du tissu nerveux, et suggère que des formes de déficiences en GAMT supplémentaires, ne présentant pas de déficiences en Cr, pourraient être découvertes par mesure du GAA, en particulier à travers les programmes récemment proposés de dépistage néonatal de la déficience en GAMT. -- Cerebral creatine deficiency syndromes (CCDS) are caused by mutations in the genes GATM and GAMT (respectively coding for the two enzymes of the creatine synthetic pathway, AGAT and GAMT) as well as SLC6A8 (creatine transporter), and lead to the absence or very strong decrease of creatine (Cr) in the brain when measured by magnetic resonance spectroscopy. Affected patients show severe neurological impairments. While AGAT and GAMT deficient patients can be treated with high dosages of Cr, most remain with irreversible brain sequelae. No treatment has been successful so far for SLC6A8 deficiency. While many models have helped understanding the cerebral Cr pathways in physiological conditions, the pathomechanisms underlying CCDS are yet to be elucidated. Transgenic mice carrying mutations in the Gatm, Gamt and Slc6a8 genes have been developed, but only partially mimic the human pathology. Among CCDS, GAMT deficiency is the most severe, due to the CNS accumulation of the guanidinoacetate (GAA) intermediate. While brain toxicity of GAA has been explored through direct GAA exposure of adult healthy animals, the mechanisms underlying GAA toxicity in GAMT deficiency conditions on the developing CNS are yet unknown. The aim of this project was thus to develop and characterize a GAMT deficiency model in developing brain cells by gene knockdown, by adeno-associated virus (AAV)-driven RNA interference (RNAi) in rat 3D organotypic primary brain cell cultures in aggregates. scAAV2 with a multiplicity of infection of 1000 was shown as the most efficient serotype, was able to transduce all brain cell types (neurons, astrocytes, oligodendrocytes) and to induce a maximal GAMT protein knockdown of 85% (day in vitro 18). Metabolite analysis showed that partial GAMT knockdown was insufficient to induce Cr deficiency but generated the awaited GAA accumulation at concentrations comparable to the levels observed in cerebrospinal fluid of GAMT-deficient patients. Accumulated GAA induced axonal hypersprouting paralleled with inhibition of natural apoptosis, followed by a later induction in non-apoptotic cell death. Cr supplementation led to the prevention of all GAA-induced toxic effects. This work shows that GAA accumulation without Cr deficiency is sufficient to affect CNS development, and suggests that additional partial GAMT deficiencies, which may not show the classical brain Cr deficiency, may be discovered through GAA measurement including by recently proposed neonatal screening programs for GAMT deficiency.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse vise une meilleure compréhension des enjeux et rapports de force liés au plurilinguisme dans une institution publique. Son terrain d'investigation est constitué par l'Administration fédérale suisse, propice pour étudier les questions ayant trait à la représentativité linguistique, l'idéologie langagière, la politique linguistique et les pratiques linguistiques sur le lieu de travail. La théorie de la bureaucratie représentative constitue le point de départ de mon cadre théorique. Selon celle-ci, les administrations publiques devraient représenter tous les groupes sociaux de leur pays. Leur personnel devrait « refléter » la diversité de cette population pour des raisons d'égalité, de légitimité et de stabilité politique. Cependant, le critère linguistique est rarement étudié dans ce cadre. Afin de combler ce manque de théorie, je me suis tournée vers la théorie politique, la sociologie des organisations et la sociolinguistique critique. Mes données sont constituées de 49 entretiens semi-directifs menés dans deux offices fédéraux, ainsi que des textes officiels réglementant le plurilinguisme et la représentativité linguistique à l'Administration fédérale. J'ai ainsi confronté les conceptions des collaborateurs sur le plurilinguisme - exprimées dans les entretiens - avec celles de l'institution, reflétées dans sa politique linguistique. Mon analyse a démontré que, selon les acteurs ou le contexte, les enjeux liés au plurilinguisme se situent à des niveaux distincts : lorsque l'institution s'efforce de créer un lieu de travail affichant l'égalité des langues officielles, les collaborateurs perçoivent le plurilinguisme comme un élément parmi d'autres qui influence l'efficacité de leur travail. L'intérêt de cette recherche se situe tout aussi bien au niveau pratique que théorique: d'une part, mes observations définissent certaines «barrières» empêchant les pratiques linguistiques plurilingues et une représentativité linguistique proportionnelle à celle du pays. Elles contribuent ainsi à une réflexion concrète sur la manière de les surmonter. D'autre part, l'application au plurilinguisme, dans une institution publique, de concepts et modèles théoriques issus de disciplines variées permet d'ouvrir un regard neuf sur ceux-ci.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une première étude menée par les auteures de cet article dans le cadre de l'Unité de médecine des violences du Centre hospitalier universitaire vaudois et de l'Institut universitaire romand de santé au travail avait montré que les conséquences à long terme d'une agression physique au travail pouvaient être sérieuses et le soutien de l'employeur était primordial pour surmonter les conséquences d'un tel événement. Une étude complémentaire, dont les résultats sont présentés ici, avait pour but de formuler des propositions concrètes de mesures de prévention de la violence physique au travail dans le contexte suisse. Les résultats sont présentés dans un «fil rouge» qui se présente sous forme de check-lists de recommandations concrètes. Ce travail s'appuie sur l'analyse et la synthèse d'une abondante documentation, ainsi que sur des entretiens auprès de personnes-ressource et des témoignages de victimes d'agressions physiques au travail. En conclusion, il apparaît que les mesures existantes en Suisse sont encore trop souvent partielles et fragmentées, et se limitent souvent à des offres de formation ou d'information ponctuelles. Alors même que les organisations sont de plus en plus confrontées aux agressions envers le personnel, il y a lieu de les sensibiliser à la nécessité d'instaurer de véritables dispositifs de prévention inscrits dans la durée et s'appuyant sur des modèles éprouvés, opérant aux trois niveaux de prévention primaire, secondaire et tertiaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La psychiatrie (la clinique psychopathologique en général) connaît en ce début de XXIe siècle une situation complexe. Coincée entre naturalisation de l'esprit et constructionnisme social, la possibilité de contribuer à la constitution d'une science autonome qui traite de la souffrance psychique est aujourd'hui problématique. Les nombreux réductionnismes à l'oeuvre, de type nosographique, diagnostique, psychopharmacologique, les concurrences épistémologiques et les dogmatismes des modèles psychothérapeutiques, dessinent un paysage où s'engager à poursuivre la voie d'une psychiatrie spécifiquement humaine et articulée aux sciences naturelles relève de la gageure. C'est le défi de l'anthropologie clinique. Deux articles lui sont consacrés. Dans ce premier article, après avoir fait le constat de certaines impasses qui menacent la psychiatrie contemporaine et rappelé les origines du projet de l'anthropologique clinique, les auteurs présentent les deux démarches qui la fondent, chacune opérant dans un esprit d'interdisciplinarité : l'anthropopsychiatrie de Jacques Schotte et l'anthropologie sémiotique formulée par Jean Lassègue, Victor Rosenthal et Yves-Marie Visetti. Un deuxième article déploiera le potentiel intégratif d'un tel paradigme, constitué sur la base de ces deux démarches conjointes. Psychiatry (psychopathology clinics in general) is in a complex situation at the beginning of 21st century. Wedged between mind naturalization and social constructionism, the possibility of contributing to the establishment of an autonomous science that deals with mental suffering is problematic today. The many nosographic, diagnostic, psychopharmacological reductionisms at work as well as the competing epistemologies and the dogmatisms of psychotherapeutic models draw a challenging landscape for those following the path of a specifically human psychiatry articulated to natural sciences. This is the challenge of clinical anthropology which is presented in two parts. In the first part, after examining several dead ends which threaten contemporary psychiatry and pointing out the origins of the clinical anthropology project, the authors present its two foundational approaches. Each approach driven by a spirit of interdisciplinarity : Jacques Schotte's anthropopsychiatry and the semiotic anthropology as formulated by Jean Lassègue, Victor Rosenthal and Yves-Marie Visetti. A second part will describe the integrative potential of such a paradigm, based on these two joint approaches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le néphron distal sensible à l'aldostérone, le récepteur aux minéralocorticoïdes (RM) et le récepteur aux glucocorticoids (RG) sont exprimés et peuvent être liés et activés par l'aldostérone et le Cortisol, respectivement. La réabsorption rénale de sodium est principalement contrôlée par le RM. Cependant, des modèles expérimentaux in vitro et in vivo suggèrent que le RG pourrait également jouer un rôle dans le transport rénal du sodium. Afin d'étudier l'implication du RG et/ou du RM exprimés dans les cellules épithéliales adultes dans le transport rénal du sodium, nous avons généré deux modèles de souris, dans lesquelles l'expression du RG (Nr3c1Pax8/LC1) ou du RM (Nr3c2Pax8/LC1) peut être abolie de manière inductible et cela spécifiquement dans les tubules rénaux. Les souris déficientes pour le gène du RM survivent mais développent un phénotype sévère de PHA-1, caractérisé par un retard de croissance, une augmentation des niveaux urinaires de Na+, une diminution de la concentration du Na+ dans le plasma, une hyperkaliémie et une augmentation des niveaux d'aldostérone plasmatique. Ce phénotype empire et devient létal lorsque les souris sont nourries avec une diète déficiente en sodium. Les niveaux d'expression en protéine de NCC, de la forme phosphorylée de NCC et de aENaC sont diminués, alors que l'expression en ARN messager et en protéine du RG est augmentée. Une diète riche en Na+ et pauvre en K+ ne corrige pas la concentration élevée d'aldostérone dans le plasma pour la ramener à des niveaux conformes, mais est suffisante pour corriger la perte de poids et les niveaux anormaux des électrolytes dans le plasma et l'urine. -- In the aldosterone-sensitive distal nephron, both the mineralocorticoid (MR) and the glucocorticoid (GR) receptor are expressed. They can be bound and activated by aldosterone and Cortisol, respectively. Renal Na+ reabsorption is mainly controlled by MR. However, in vitro and in vivo experimental models suggest that GR may play a role in renal Na+ transport. Therefore, to investigate the implication of MR and/or GR in adult epithelial cells in renal sodium transport, we generated inducible renal tubule- specific MR (Nr3c2Pax8/LC1) and GR (Nr3c1Pax8/LC1) knockout mice. MR-deficient mice survived but developed a severe PHA-1 phenotype with failure to thrive, higher urinary Na+, decreased plasma Na+ levels, hyperkalemia and higher levels of plasma aldosterone. This phenotype further worsened and became lethal under a sodium-deficient diet. NCC protein expression and its phosphorylated form, as well as aENaC protein level were downregulated, whereas the mRNA and protein expression of GR was increased. A diet rich in Na+and low in K+ did not normalize plasma aldosterone to control levels, but was sufficient to restore body weight, plasma and urinary electrolytes. Upon switch to a Na+-deficient diet, GR-mutant mice exhibited transient increased urinary Na+ and decreased K+ levels, with transitory higher plasma K+ concentration preceded by a significant increase in plasma aldosterone levels within the 12 hours following diet switch. We found no difference in urinary aldosterone levels, plasma Na+ concentration and plasma corticosterone levels. Moreover, NHE3, NKCC2, NCC

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Understanding and quantifying seismic energy dissipation, which manifests itself in terms of velocity dispersion and attenuation, in fluid-saturated porous rocks is of considerable interest, since it offers the perspective of extracting information with regard to the elastic and hydraulic rock properties. There is increasing evidence to suggest that wave-induced fluid flow, or simply WIFF, is the dominant underlying physical mechanism governing these phenomena throughout the seismic, sonic, and ultrasonic frequency ranges. This mechanism, which can prevail at the microscopic, mesoscopic, and macroscopic scale ranges, operates through viscous energy dissipation in response to fluid pressure gradients and inertial effects induced by the passing wavefield. In the first part of this thesis, we present an analysis of broad-band multi-frequency sonic log data from a borehole penetrating water-saturated unconsolidated glacio-fluvial sediments. An inherent complication arising in the interpretation of the observed P-wave attenuation and velocity dispersion is, however, that the relative importance of WIFF at the various scales is unknown and difficult to unravel. An important generic result of our work is that the levels of attenuation and velocity dispersion due to the presence of mesoscopic heterogeneities in water-saturated unconsolidated clastic sediments are expected to be largely negligible. Conversely, WIFF at the macroscopic scale allows for explaining most of the considered data while refinements provided by including WIFF at the microscopic scale in the analysis are locally meaningful. Using a Monte-Carlo-type inversion approach, we compare the capability of the different models describing WIFF at the macroscopic and microscopic scales with regard to their ability to constrain the dry frame elastic moduli and the permeability as well as their local probability distribution. In the second part of this thesis, we explore the issue of determining the size of a representative elementary volume (REV) arising in the numerical upscaling procedures of effective seismic velocity dispersion and attenuation of heterogeneous media. To this end, we focus on a set of idealized synthetic rock samples characterized by the presence of layers, fractures or patchy saturation in the mesocopic scale range. These scenarios are highly pertinent because they tend to be associated with very high levels of velocity dispersion and attenuation caused by WIFF in the mesoscopic scale range. The problem of determining the REV size for generic heterogeneous rocks is extremely complex and entirely unexplored in the given context. In this pilot study, we have therefore focused on periodic media, which assures the inherent self- similarity of the considered samples regardless of their size and thus simplifies the problem to a systematic analysis of the dependence of the REV size on the applied boundary conditions in the numerical simulations. Our results demonstrate that boundary condition effects are absent for layered media and negligible in the presence of patchy saturation, thus resulting in minimum REV sizes. Conversely, strong boundary condition effects arise in the presence of a periodic distribution of finite-length fractures, thus leading to large REV sizes. In the third part of the thesis, we propose a novel effective poroelastic model for periodic media characterized by mesoscopic layering, which accounts for WIFF at both the macroscopic and mesoscopic scales as well as for the anisotropy associated with the layering. Correspondingly, this model correctly predicts the existence of the fast and slow P-waves as well as quasi and pure S-waves for any direction of wave propagation as long as the corresponding wavelengths are much larger than the layer thicknesses. The primary motivation for this work is that, for formations of intermediate to high permeability, such as, for example, unconsolidated sediments, clean sandstones, or fractured rocks, these two WIFF mechanisms may prevail at similar frequencies. This scenario, which can be expected rather common, cannot be accounted for by existing models for layered porous media. Comparisons of analytical solutions of the P- and S-wave phase velocities and inverse quality factors for wave propagation perpendicular to the layering with those obtained from numerical simulations based on a ID finite-element solution of the poroelastic equations of motion show very good agreement as long as the assumption of long wavelengths remains valid. A limitation of the proposed model is its inability to account for inertial effects in mesoscopic WIFF when both WIFF mechanisms prevail at similar frequencies. Our results do, however, also indicate that the associated error is likely to be relatively small, as, even at frequencies at which both inertial and scattering effects are expected to be at play, the proposed model provides a solution that is remarkably close to its numerical benchmark. -- Comprendre et pouvoir quantifier la dissipation d'énergie sismique qui se traduit par la dispersion et l'atténuation des vitesses dans les roches poreuses et saturées en fluide est un intérêt primordial pour obtenir des informations à propos des propriétés élastique et hydraulique des roches en question. De plus en plus d'études montrent que le déplacement relatif du fluide par rapport au solide induit par le passage de l'onde (wave induced fluid flow en anglais, dont on gardera ici l'abréviation largement utilisée, WIFF), représente le principal mécanisme physique qui régit ces phénomènes, pour la gamme des fréquences sismiques, sonique et jusqu'à l'ultrasonique. Ce mécanisme, qui prédomine aux échelles microscopique, mésoscopique et macroscopique, est lié à la dissipation d'énergie visqueuse résultant des gradients de pression de fluide et des effets inertiels induits par le passage du champ d'onde. Dans la première partie de cette thèse, nous présentons une analyse de données de diagraphie acoustique à large bande et multifréquences, issues d'un forage réalisé dans des sédiments glaciaux-fluviaux, non-consolidés et saturés en eau. La difficulté inhérente à l'interprétation de l'atténuation et de la dispersion des vitesses des ondes P observées, est que l'importance des WIFF aux différentes échelles est inconnue et difficile à quantifier. Notre étude montre que l'on peut négliger le taux d'atténuation et de dispersion des vitesses dû à la présence d'hétérogénéités à l'échelle mésoscopique dans des sédiments clastiques, non- consolidés et saturés en eau. A l'inverse, les WIFF à l'échelle macroscopique expliquent la plupart des données, tandis que les précisions apportées par les WIFF à l'échelle microscopique sont localement significatives. En utilisant une méthode d'inversion du type Monte-Carlo, nous avons comparé, pour les deux modèles WIFF aux échelles macroscopique et microscopique, leur capacité à contraindre les modules élastiques de la matrice sèche et la perméabilité ainsi que leur distribution de probabilité locale. Dans une seconde partie de cette thèse, nous cherchons une solution pour déterminer la dimension d'un volume élémentaire représentatif (noté VER). Cette problématique se pose dans les procédures numériques de changement d'échelle pour déterminer l'atténuation effective et la dispersion effective de la vitesse sismique dans un milieu hétérogène. Pour ce faire, nous nous concentrons sur un ensemble d'échantillons de roches synthétiques idéalisés incluant des strates, des fissures, ou une saturation partielle à l'échelle mésoscopique. Ces scénarios sont hautement pertinents, car ils sont associés à un taux très élevé d'atténuation et de dispersion des vitesses causé par les WIFF à l'échelle mésoscopique. L'enjeu de déterminer la dimension d'un VER pour une roche hétérogène est très complexe et encore inexploré dans le contexte actuel. Dans cette étude-pilote, nous nous focalisons sur des milieux périodiques, qui assurent l'autosimilarité des échantillons considérés indépendamment de leur taille. Ainsi, nous simplifions le problème à une analyse systématique de la dépendance de la dimension des VER aux conditions aux limites appliquées. Nos résultats indiquent que les effets des conditions aux limites sont absents pour un milieu stratifié, et négligeables pour un milieu à saturation partielle : cela résultant à des dimensions petites des VER. Au contraire, de forts effets des conditions aux limites apparaissent dans les milieux présentant une distribution périodique de fissures de taille finie : cela conduisant à de grandes dimensions des VER. Dans la troisième partie de cette thèse, nous proposons un nouveau modèle poro- élastique effectif, pour les milieux périodiques caractérisés par une stratification mésoscopique, qui prendra en compte les WIFF à la fois aux échelles mésoscopique et macroscopique, ainsi que l'anisotropie associée à ces strates. Ce modèle prédit alors avec exactitude l'existence des ondes P rapides et lentes ainsi que les quasis et pures ondes S, pour toutes les directions de propagation de l'onde, tant que la longueur d'onde correspondante est bien plus grande que l'épaisseur de la strate. L'intérêt principal de ce travail est que, pour les formations à perméabilité moyenne à élevée, comme, par exemple, les sédiments non- consolidés, les grès ou encore les roches fissurées, ces deux mécanismes d'WIFF peuvent avoir lieu à des fréquences similaires. Or, ce scénario, qui est assez commun, n'est pas décrit par les modèles existants pour les milieux poreux stratifiés. Les comparaisons des solutions analytiques des vitesses des ondes P et S et de l'atténuation de la propagation des ondes perpendiculaires à la stratification, avec les solutions obtenues à partir de simulations numériques en éléments finis, fondées sur une solution obtenue en 1D des équations poro- élastiques, montrent un très bon accord, tant que l'hypothèse des grandes longueurs d'onde reste valable. Il y a cependant une limitation de ce modèle qui est liée à son incapacité à prendre en compte les effets inertiels dans les WIFF mésoscopiques quand les deux mécanismes d'WIFF prédominent à des fréquences similaires. Néanmoins, nos résultats montrent aussi que l'erreur associée est relativement faible, même à des fréquences à laquelle sont attendus les deux effets d'inertie et de diffusion, indiquant que le modèle proposé fournit une solution qui est remarquablement proche de sa référence numérique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La tomodensitométrie (TDM) est une technique d'imagerie pour laquelle l'intérêt n'a cessé de croitre depuis son apparition au début des années 70. De nos jours, l'utilisation de cette technique est devenue incontournable, grâce entre autres à sa capacité à produire des images diagnostiques de haute qualité. Toutefois, et en dépit d'un bénéfice indiscutable sur la prise en charge des patients, l'augmentation importante du nombre d'examens TDM pratiqués soulève des questions sur l'effet potentiellement dangereux des rayonnements ionisants sur la population. Parmi ces effets néfastes, l'induction de cancers liés à l'exposition aux rayonnements ionisants reste l'un des risques majeurs. Afin que le rapport bénéfice-risques reste favorable au patient il est donc nécessaire de s'assurer que la dose délivrée permette de formuler le bon diagnostic tout en évitant d'avoir recours à des images dont la qualité est inutilement élevée. Ce processus d'optimisation, qui est une préoccupation importante pour les patients adultes, doit même devenir une priorité lorsque l'on examine des enfants ou des adolescents, en particulier lors d'études de suivi requérant plusieurs examens tout au long de leur vie. Enfants et jeunes adultes sont en effet beaucoup plus sensibles aux radiations du fait de leur métabolisme plus rapide que celui des adultes. De plus, les probabilités des évènements auxquels ils s'exposent sont également plus grandes du fait de leur plus longue espérance de vie. L'introduction des algorithmes de reconstruction itératifs, conçus pour réduire l'exposition des patients, est certainement l'une des plus grandes avancées en TDM, mais elle s'accompagne de certaines difficultés en ce qui concerne l'évaluation de la qualité des images produites. Le but de ce travail est de mettre en place une stratégie pour investiguer le potentiel des algorithmes itératifs vis-à-vis de la réduction de dose sans pour autant compromettre la qualité du diagnostic. La difficulté de cette tâche réside principalement dans le fait de disposer d'une méthode visant à évaluer la qualité d'image de façon pertinente d'un point de vue clinique. La première étape a consisté à caractériser la qualité d'image lors d'examen musculo-squelettique. Ce travail a été réalisé en étroite collaboration avec des radiologues pour s'assurer un choix pertinent de critères de qualité d'image. Une attention particulière a été portée au bruit et à la résolution des images reconstruites à l'aide d'algorithmes itératifs. L'analyse de ces paramètres a permis aux radiologues d'adapter leurs protocoles grâce à une possible estimation de la perte de qualité d'image liée à la réduction de dose. Notre travail nous a également permis d'investiguer la diminution de la détectabilité à bas contraste associée à une diminution de la dose ; difficulté majeure lorsque l'on pratique un examen dans la région abdominale. Sachant que des alternatives à la façon standard de caractériser la qualité d'image (métriques de l'espace Fourier) devaient être utilisées, nous nous sommes appuyés sur l'utilisation de modèles d'observateurs mathématiques. Nos paramètres expérimentaux ont ensuite permis de déterminer le type de modèle à utiliser. Les modèles idéaux ont été utilisés pour caractériser la qualité d'image lorsque des paramètres purement physiques concernant la détectabilité du signal devaient être estimés alors que les modèles anthropomorphes ont été utilisés dans des contextes cliniques où les résultats devaient être comparés à ceux d'observateurs humain, tirant profit des propriétés de ce type de modèles. Cette étude a confirmé que l'utilisation de modèles d'observateurs permettait d'évaluer la qualité d'image en utilisant une approche basée sur la tâche à effectuer, permettant ainsi d'établir un lien entre les physiciens médicaux et les radiologues. Nous avons également montré que les reconstructions itératives ont le potentiel de réduire la dose sans altérer la qualité du diagnostic. Parmi les différentes reconstructions itératives, celles de type « model-based » sont celles qui offrent le plus grand potentiel d'optimisation, puisque les images produites grâce à cette modalité conduisent à un diagnostic exact même lors d'acquisitions à très basse dose. Ce travail a également permis de clarifier le rôle du physicien médical en TDM: Les métriques standards restent utiles pour évaluer la conformité d'un appareil aux requis légaux, mais l'utilisation de modèles d'observateurs est inévitable pour optimiser les protocoles d'imagerie. -- Computed tomography (CT) is an imaging technique in which interest has been quickly growing since it began to be used in the 1970s. Today, it has become an extensively used modality because of its ability to produce accurate diagnostic images. However, even if a direct benefit to patient healthcare is attributed to CT, the dramatic increase in the number of CT examinations performed has raised concerns about the potential negative effects of ionising radiation on the population. Among those negative effects, one of the major risks remaining is the development of cancers associated with exposure to diagnostic X-ray procedures. In order to ensure that the benefits-risk ratio still remains in favour of the patient, it is necessary to make sure that the delivered dose leads to the proper diagnosis without producing unnecessarily high-quality images. This optimisation scheme is already an important concern for adult patients, but it must become an even greater priority when examinations are performed on children or young adults, in particular with follow-up studies which require several CT procedures over the patient's life. Indeed, children and young adults are more sensitive to radiation due to their faster metabolism. In addition, harmful consequences have a higher probability to occur because of a younger patient's longer life expectancy. The recent introduction of iterative reconstruction algorithms, which were designed to substantially reduce dose, is certainly a major achievement in CT evolution, but it has also created difficulties in the quality assessment of the images produced using those algorithms. The goal of the present work was to propose a strategy to investigate the potential of iterative reconstructions to reduce dose without compromising the ability to answer the diagnostic questions. The major difficulty entails disposing a clinically relevant way to estimate image quality. To ensure the choice of pertinent image quality criteria this work was continuously performed in close collaboration with radiologists. The work began by tackling the way to characterise image quality when dealing with musculo-skeletal examinations. We focused, in particular, on image noise and spatial resolution behaviours when iterative image reconstruction was used. The analyses of the physical parameters allowed radiologists to adapt their image acquisition and reconstruction protocols while knowing what loss of image quality to expect. This work also dealt with the loss of low-contrast detectability associated with dose reduction, something which is a major concern when dealing with patient dose reduction in abdominal investigations. Knowing that alternative ways had to be used to assess image quality rather than classical Fourier-space metrics, we focused on the use of mathematical model observers. Our experimental parameters determined the type of model to use. Ideal model observers were applied to characterise image quality when purely objective results about the signal detectability were researched, whereas anthropomorphic model observers were used in a more clinical context, when the results had to be compared with the eye of a radiologist thus taking advantage of their incorporation of human visual system elements. This work confirmed that the use of model observers makes it possible to assess image quality using a task-based approach, which, in turn, establishes a bridge between medical physicists and radiologists. It also demonstrated that statistical iterative reconstructions have the potential to reduce the delivered dose without impairing the quality of the diagnosis. Among the different types of iterative reconstructions, model-based ones offer the greatest potential, since images produced using this modality can still lead to an accurate diagnosis even when acquired at very low dose. This work has clarified the role of medical physicists when dealing with CT imaging. The use of the standard metrics used in the field of CT imaging remains quite important when dealing with the assessment of unit compliance to legal requirements, but the use of a model observer is the way to go when dealing with the optimisation of the imaging protocols.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte : Après les maladies cardiovasculaires, le cancer est la deuxième cause de mortalité en Suisse. Les cancers de la prostate, du sein, du côlon-rectum, du col utérin et le mélanome cutané représentent, en termes d'incidence et de mortalité, la moitié du fardeau du cancer en Suisse. Des moyens de prévention primaire et/ou secondaire contribuent à réduire la fréquence et la mortalité due à ces cinq cancers. Cependant, l'attitude face à la prévention diffère selon les individus et dépend de multiples facteurs socio-économiques, environnementaux, culturels et comportementaux. Objectif : Évaluer la fréquence et identifier les déterminants des pratiques de dépistage des cancers de la prostate, du sein, du côlon-rectum, du col utérin et du mélanome cutané en Suisse. Matériel et méthode : Les données utilisées sont issues de l'Enquête suisse sur la santé 2007. Une pondération statistique permet d'extrapoler les résultats à la population générale. Des modèles de régression logistique multivariée ont été construits afin de décrire l'association entre pratique du dépistage et facteurs sociodémographiques, style de vie, état de santé, recours aux prestations de santé et soutien social. Résultats : En 2007, selon les méthodes et fréquences recommandées en Suisse et dans les tranches d'âge concernées, 49% des hommes ont effectué un dépistage du cancer prostatique, 13% du cancer colorectal et 33,7% du mélanome cutané. Chez les femmes, 17,9% ont réalisé un dépistage du cancer du sein, 8,7% du cancer colorectal, 36,8% du mélanome cutané et 50,2% du cancer du col utérin. Globalement et pour les deux sexes, l'âge, le lieu de résidence, le niveau de formation, la classe socioprofessionnelle, le revenu d'équivalence du ménage, la pratique d'autres dépistages des cancers, le nombre de visites médicales et de jours d'hospitalisation au cours des 12 mois précédents déterminent le recours au dépistage des cancers d'intérêt. Chez les hommes, la présence d'un médecin de famille et, chez les femmes, la franchise annuelle, influencent aussi la pratique du dépistage. Conclusion : Les prévalences du dépistage varient notablement selon le type de cancer. Le recours aux dépistages des cancers dépend de facteurs sociodémographiques, de l'utilisation des services de santé et de la pratique d'autres dépistages, mais peu, voire pas, du style de vie, de l'état de santé et de la sécurité et du soutien sociaux. Les facteurs identifiés sont souvent communs aux différents types de cancer et rendent possible l'établissement d'un profil général d'utilisateurs du dépistage des cancers. Les stratégies visant à améliorer la compliance aux examens de dépistage devraient considérer les facteurs qui en déterminent le recours et mieux cibler les segments de la population qui les sous-utilisent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le tabagisme est associé à un risque augmenté de développer un diabète de type 2. Arrêter de fumer devrait donc diminuer le risqué de diabète. Seulement, les études concernant le risque métabolique à l'arrêt du tabac sont discordantes. Par ailleurs, les effets métaboliques du tabac et de l'arrêt du tabac diffèrent probablement selon le sexe, avec notamment un effet différent du tabac sur la santé des femmes, et une prise pondérale plus importante à l'arrêt que chez les hommes. Notre étude vise à évaluer le risque métabolique à l'arrêt du tabac, chez les femmes et les homes séparément. Nous avons utilisé les données de l'étude de cohorte prospective CoLaus, qui évalue différents facteurs de risque cardiovasculaire chez des sujets choisis de manière aléatoire, dans la population Lausannoise entre 35 et 75 ans, suivis sur 5.5 ans en moyenne. Parmi ceux avec une glycémie à jeun normale au départ, nous avons divisé les participants en quatre groupes selon leur statut tabagique : non fumeurs, personnes ayant arrêté de fumer depuis plus de 5 ans, celles ayant arrêté depuis moins de 5 ans, et fumeurs actifs. Nous avons mesuré les incidences de glycémie à jeun altérée (5.6-6.99 mmol/l) et de diabète (glycémie à jeun ≥ 7 mmol/l et/ou traitement pour le diabète) durant le période de suivi, stratifiées par sexe. Puis le risque d'incidence de glycémie altérée et de diabète a été calculé avec trois niveaux d'ajustement pour les facteurs confondants pour un risque métabolique. Nous avons inclus 3166 participants, dont 63% de femmes. Au total, 26.3% étaient fumeurs, 6.5% ex-fumeurs depuis moins de 5 ans et 23.5% ex-fumeurs depuis plus de 5 ans. Durant le suivi, 1311 (41.4%) personnes ont développé une glycémie à jeun altérée (33.6% des femmes, 54.7% des homes), et 47 (1.5%) ont développé un diabète (1.1% des femmes, 2.1% des hommes). Les personnes ayant arrêté de fumer n'avait pas de risque significativement plus élevé de développer une glycémie à jeun altérée ou un diabète que les fumeurs, après ajustement pour l'âge, l'éducation, l'hypercholestérolémie, la prise d'alcool, l'activité physique, la prise de poids, le BMI initial et le BMI d'arrivée dans les différents modèles d'ajustement. L'analyse de l'interaction du sexe avec ces résultats est également négative. Les analyses de sensibilité ont montré que l'exclusion des personnes ayant changé de statut tabagique durant le suivi ne changeait pas ces résultats. Nous avons refait les analyses en incluant les participants ayant une glycémie altérée au début du suivi, mais le risque d'incidence de diabète n'est pas plus élevé chez les ex-fumeurs que chez les fumeurs non plus dans cette population. Sur demande d'un reviewer, nous avons également refait les analyses avec la glycémie en continue (valeurs de base et valeurs à 5.5 ans), et la glycémie moyenne n'était pas différente par groupe de tabagisme. En conclusion, dans cette population européenne d'âge moyen, avec une prévalence basse d'obésité et une prise de poids modérée durant le suivi, nous n'avons pas trouvé de risque significativement plus élevé de développer un diabète en arrêtant de fumer, et ce pour les deux sexes. L'arrêt du tabac doit donc être encouragé chez toutes les fumeuses et tous les fumeurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

While collective identity markers are constantly evolving in today's city, the hyper-consumption society has allowed retail, even though greatly transformed, to remain a community hub for socialization. Society's commodification takes shape precisely within the public realm and the urban scene: sprawling analogous drivable retail-only suburbs and turning city centers into bland, soulless and undefined places displaying homogeneous frontages characterized by the same retail storefronts worldwide. More than ever, urban policies on retail oriented servicescapes seem crucial to urban and regional planning from a sustainable perspective. Thorough the study case of Lausanne, our research focuses on how the urban planning model and its policies could set into place spatial strategies to enhance urban quality and to reorganize retail centralities without succumbing to the prevailing commodification of the public realm. -- Les indicateurs d'identité collective se reformulent dans la ville actuelle, mais la société de l'hyperconsommation a permis au commerce, aussi transformé soit-il, de rester un lieu d'échange et de brassage social. La marchandisation de la société prend des formes précises dans l'espace et a un impact certain sur le paysage urbain : multipliant les espaces marchands périphériques monofonctionnels ou encore transformant nos centres-villes en paysages anodins, présentant des vitrines semblables quel que soit le pays où elles se situent. Plus que jamais, une régulation des espaces de consommation semble incontournable pour l'aménagement du territoire et l'urbanisme dans une perspective de durabilité. À travers le cas lausannois, cette thèse s'interroge sur la façon dont les modèles urbanistiques de régulation des jeux d'acteurs privés peuvent participer à la mise en place de stratégies de qualification urbaine et d'organisation des centralités commerciales sans céder à la tentation de la marchandisation des espaces publics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Glioblastoma multiforme (GBM) is the most frequent and lethal primary brain tumor in adults. Accumulating evidence suggests that tumors comprise a hierarchical organization that is, at least partially, not genetically driven. Cells that reside at the apex of this hierarchy are commonly referred to as cancer stem cells (CSCs) and are believed to largely contribute to recurrence and therapeutic failure. Although the complexity of epigenetic regulation of the genome precludes prediction as to which epigenetic changes dominate CSC specification in different cancer types, the ability of microRNAs (miRNAs) to fine-tune expression of entire gene networks places them among prime candidates for establishing CSC properties. In this study we characterized the miRNA expression profile of primary GBM grown either under conditions that enrich for GSCs or their differentiated non-tumorigenic progeny (DGCs). Although, we identified a subset of miRNAs that was strongly differentially expressed between GSCs and DGCs, we observed that in GSCs both let-7 and, paradoxically, their target genes are highly expressed, suggesting protection against let-7 action. Using PAR-CLIP we show that insulin-like growth factor-2 mRNA-binding protein 2 (IMP2) provides a mechanism for let-7 target gene protection that represents an alternative to LIN28A/B, which abrogates let-7 biogenesis in normal embryonic and certain malignant stem cells. By direct binding to miRNA recognition elements, IMP2 protects its targets from let-7 mediated decay. Importantly, depletion of IMP2 in GSCs strongly impairs their self- renewal properties and tumorigenicity in vivo, a phenotype that can be rescued by expression of LIN28B, suggesting that IMP2 mainly contributes to GSC maintenance by protecting let-7 target genes from silencing. Using mouse models, we show that depletion of IMP2 in neural stem cells (NSCs) induces let-7 target gene down-regulation, impairs their clonogenic capacity, and affects differentiation. Taken together, our observations describe a novel regulatory function of IMP2 in the let-7 axis whereby it supports GSC and NSC specification. Résumé (Français) Le glioblastome (GBM) est la tumeur primaire maligne du cerveau la plus fréquente. De nombreuses études ont démontré l'existence d'une organisation hiérarchique des cellules cancéreuses liée à des mécanismes épigénétiques. Les cellules qui se trouvent au sommet de cette hiérarchie sont appelées cellules souches cancéreuses (CSC), et contribuent à l'échec thérapeutique. Bien que la complexité des régulateurs épigénétiques permette difficilement de prédire quel mécanisme contribue le plus aux propriétés des CSC, la capacité des microRNAs (miRNAs) de réguler des réseaux entiers de gènes, les placent comme des candidats de premiers choix. Ici, nous avons caractérisé le profil d'expression des miRNAs dans des tumeurs primaires de GBM cultivées dans des conditions qui enrichissent soit pour les CSC, soit pour leur contrepartie de cellules cancéreuses différences (CCD). De manière surprenante et paradoxale la famille de miRNA let-7 et leurs gènes cibles étaient hautement exprimés dans les CSC, suggérant un mécanisme de protection contre l'action des let-7. Avec l'aide de la technologie PAR-CLIP, nous démontrons que la protéine IMP2, protège les mRNAs de l'action des let-7 et représente une alternative à Lin28A/B, qui d'ordinaire réprime fortement la maturation des let-7 dans les cellules souches embryonnaires et divers cancers. En se liant à la région ciblée par les let-7, IMP2 protège ses transcrits de l'action de cette classe de microRNA qui est tumoro-supressive. La déplétion d'IMP2 dans des CSC de GBM réduit fortement leur clonogénicité in vitro et leur tumorigénicité in vivo. Ceci peut être reversé en introduisant Lin28B dans des CSC de GBM, suggérant qu'IMP2 exerce ses fonctions pro-tumorigéniques en modulant l'axe let-7. Avec l'aide de modèles murins, nous observons que la déplétion de IMP2 dans les cellules souches neurales (CSN) induit une baisse de leur clonogénicité et des cibles des miRNAs let-7, suggérant une conservation de ce mécanisme entre les CSC de GBM et les CSN. En résumé, nos observations définissent une nouvelle fonction de IMP2 dans l'axe let-7 par lequel il contribue au maintien des propriétés des CSC et des CSN.