206 resultados para Volatilité réalisée à Noyaux


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse de doctorat porte sur la pensée de Valentin Volochinov (1895-1936) et le contexte intellectuel russe du début du XXe siècle dans lequel elle a été élaborée. Le cadre spatial de l'étude est la Russie. Le cadre temporel correspond aux années 1890-1920. Fait dans le cadre des « études bakhtiniennes », ce travail propose une démarche inverse de celle utilisée jusqu'à présent dans ce domaine. Son objectif est d'explorer les conséquences pratiques de trois hypothèses : 1) Valentin Volochinov (et non pas Mikhaïl Bakhtine) est l'auteur des textes parus sous son nom dans les années 1920 ; 2) Valentin Volochinov est un chercheur indépendant de Mikhaïl Bakhtine et de Pavel Medvedev (et non pas seulement un des membres du « Cercle de Bakhtine » ou du « groupe B.M.V. » dont le projet scientifique serait incompréhensible sans le recours aux textes bakhtiniens et/ou de Medvedev) ; 3) la connaissance du contexte intellectuel général dans lequel a travaillé Valentin Volochinov (c'est-à-dire l'ensemble des textes et des discussions scientifiques qui se sont déroulées dans les revues et les institutions scientifiques autour des thèmes abordés dans les textes signés dans les années 1920 par Volochinov) joue un rôle de premier plan dans l'interprétation de sa conception. L'analyse de la terminologie utilisée dans les travaux de Volochinov (en particulier de la notion d'« idéologie » et de méthode « marxiste »), ainsi que l'examen des idées ayant trait à la philosophie du langage (la réception des idées de Saussure, la polémique avec Rozalija Chor sur des principes de la science du langage « marxiste », la critique de la conception du «mot» de Gustav Chpet), psychologiques (la critique de la théorie psychanalytique de Sigmund Freud, l'élaboration de la notion de conscience, la recherche des bases de la psychologie « marxiste ») et sociologiques (l'analyse de l'interaction socio-verbale et l'élaboration de la théorie de l'énoncé) amènent à la conclusion que les hypothèses avancées sont justes et le mode de lecture adopté dans le travail est rentable : il suscite des interprétations différentes de celles proposées jusqu'à présent. Il permet, par exemple, de mettre en évidence les particularités du marxisme russe des années 1920 considéré par les intellectuels de l'époque, d'une part, comme une méthode des recherches dont les principes fondamentaux sont le matérialisme, le monisme, le déterminisme (y compris social), la dialectique et, d'autre part, comme une doctrine sociologique. Compris en ce sens, le marxisme fait partie de l'histoire de la sociologie russe qui comprend également des conceptions dites « bourgeoises » ou « positivistes » comme, par exemple, celle d'Eugène de Roberty, qui insiste dans ses travaux sur le primat du social sur l'individuel, autrement dit qui met en avant le principe du déterminisme social souvent associé uniquement au «sociologisme marxisant». L'oeuvre de Volochinov ne contient pas, par conséquent, d'éléments de «sociologisme vulgaire», elle s'inscrit dans l'histoire des idées sociologiques russes où il n'y a pas de rupture nette entre les conceptions dites «bourgeoises» et marxistes. Le marxisme de Volochinov n'est pas révolutionnaire. Il ne peut pas non plus être associé aux idées psychanalytiques. La preuve est le refus radical de l'existence de l'inconscient (ou plutôt d'une force inconsciente) qui déterminerait le comportement des individus sans qu'ils s'en rendent compte. Le projet scientifique de Volochinov consiste à analyser la conscience (les faits psychiques), ainsi que le langage, l'énoncé et les structures syntaxiques dans lesquelles l'énoncé se réalise en tant qu'éléments constitutifs de l'échange social et/ou verbal, qui se trouve au centre de vives discussions menées à la charnière des XIXe-XXe siècles par les chercheurs russes d'orientation marxiste et non marxiste. Pour comprendre ce projet il n'est pas nécessaire de faire appel aux idées de Bakhtine et de Medvedev : la lecture en contexte des textes signés dans les années 1920 par Volochinov met ainsi en doute l'idée qui domine actuellement dans le monde francophone que Bakhtine serait leur véritable auteur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction et but de l'étude. - Le Nutrition Day 2010 réalisédans le service de dialyse aiguë de notre CHU a montré un taux dedénutrition de 64 % chez le patient dialysé hospitalisé avec un déficitnutritionnel moyen le jour de dialyse de 1 000 kcal et 45 g deprotéines. Les horaires de repas dans l'unité d'hospitalisation et dedialyse au centre de dialyse se chevauchent. Le but de cette étude estd'évaluer l'impact de l'organisation institutionnelle sur l'apportprotéino-énergétique du patient hémodialysé hospitalisé.Matériel et Méthodes. - Étude exploratoire et transversale. Laconsommation alimentaire et les obstacles potentiels à l'alimentationd'origine logistique ont été relevés durant deux jours consécutifs,un jour de dialyse (JD) et un jour sans dialyse (JSD). Les motifsde non consommation ou de consommation partielle des repas etcollations ont été relevés auprès des patients immédiatement aprèsles repas principaux, au moyen d'entretiens semi-dirigés. Lesingesta ont été comparés aux besoins protéino-énergétiques pour lespatients hémodialysés (ESPEN, 2006). Une évaluation nutritionnellea été réalisée chez tous les patients.Résultats. - Vingt-six patients (85 % d'hommes) ont été inclus,âgés de 65,7 ± 10,6 ans (moy ± ET). Le BMI moyen est de 24,9± 5,9 kg/m2, le score de Charlson de 7,2 ± 2,7 et 54 % ont un NRS-2002 ≥ 3. Plus de deux tiers des patients (68 %) ont perdu du poidset 64 % sont dénutris. Au total, 147 repas et 56 collations ont été étudiés,dont 74 repas et 32 collations pour le JD. Le JD, 56 % des collationsne sont pas consommées contre 21 % le JSD. La couverturemoyenne des besoins énergétiques et protéiques le JD est respectivementde 48 % et 57 %, sans différence avec le JSD. Les motifs denon consommation les plus fréquemment cités sont, par ordredécroissant : satiété précoce, inappétence, dégoût des mets proposés,peurs et représentations alimentaires et mises à jeun pour procéduresmédicales. Ils sont identiques les JD et les JSD. Lesobstacles à l'alimentation inhérents au patient sont 2,6 fois plus fréquentsque ceux liés à l'organisation hospitalière. Une douleur(légère à modérée), une dyspnée et une xérostomie affectent respectivement100 %, 54 % et 48 % des patients, qui ne considèrent pasces symptômes comme une cause de non consommation alimentaire.Conclusion. - Les apports protéino-énergétiques sont insuffisantset près de deux tiers des sujets sont dénutris. L'organisationhospitalière n'est pas identifiée par les patients comme un obstacleexpliquant le déficit énergétique et protéique quotidien. Les obstaclesà l'alimentation orale sont principalement inhérents à l'état desanté des patients. L'instauration d'une alimentation spécifique auxpatients dialysés hospitalisés (« humide », fractionnée, enrichie enprotéines et en énergie) de même que la prescription plus systématiqued'un support nutritionnel devraient contribuer à la couverturede leurs besoins nutritionnels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé L'étude de l'adaptation d'une entreprise aux mutations socio-économiques affectant son environnement sociétal donc de sa régulation, requiert de prime abord de comprendre et de caractériser ces mutations. I1 importe ensuite de déterminer les actions et stratégies déployées par cette entreprise en réponse aux pressions environnementales, ainsi que leurs éventuelles retombées sur les caractéristiques de l'environnement qui ont suscité ces réponses. Pour prendre part à cette réflexion, nous nous concentrons sur les conditions d'adaptation de la société d'État Togolaise :Togo Télécom, et nous tentons de confronter la réalité de cette évolution aux différents modèles de l'adaptation élaborés par la théorie des organisations. Une analyse concrète des enjeux soulevés par l'environnement de Togo Télécom et de leurs implications pour la société et pour la Nation a été réalisée au sein de l'organisation. Elle a pris appui sur les documents écrits pertinents à la recherche et sur le recueil des avis et perceptions des acteurs politiques, économiques, syndicaux et institutionnels concernés par l'avenir de l'entreprise. Les résultats indiquent que la société a su globalement entreprendre une réforme interne bénéfique qui lui a permis de faire face aux nouvelles réalités de son environnement malgré le boulet de la dette, tout en s'assurant l'attachement et le support de ses parties prenantes. Cette réforme a pu être mise en place notamment grâce à la remarquable capacité d'adaptation de ces parties prenantes et elle a également été à l'origine de la création d'un "réseau "redéfinissant l'organisation du travail sur le marché ainsi que les rôles, les problèmes et les caractéristiques de l'environnement sociétal. Afin de replacer cette relation particulière dans la théorie des organisations, la présente recherche s'applique à montrer comment le modèle de l'entreprise dominée par son environnement permet d'enrichir notre compréhension des solutions déployées par l'entreprise pour s'adapter; il est ici question d'analyser les comportements et réponses de la société à la lumière des principaux modèles théoriques, afin d'une part de déterminer comment chacun se prête à l'analyse d'un cas pratique et d'autre part de faire ressortir les forces et faiblesses de chaque modèle afin de tendre vers un modèle plus intégratif des réalités de notre cas. Dans cet ordre d'idée, notre recherche à l'instar de Morin (i98z) et de Giddens (1987), nous indique entre autres qu'il est primordial de ne pas isoler la théorie des organisations, dans des visions trop unilatérales, avec des points de vue partiels, mais d'adhérer à la réalité linéaire de la récursivité de l'adaptation des sociétés d'État industrielles et commerciales Africaines car ces organisations possèdent des propriétés spécifiques qui dépassent l'univers des ressources, des compétences ou des jeux d'acteurs qui les composent (Morin (198?)).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary Cell therapy has emerged as a strategy for the treatment of various human diseases. Cells can be transplanted considering their morphological and functional properties to restore a tissue damage, as represented by blood transfusion, bone marrow or pancreatic islet cells transplantation. With the advent of the gene therapy, cells also were used as biological supports for the production of therapeutic molecules that can act either locally or at distance. This strategy represents the basis of ex vivo gene therapy characterized by the removal of cells from an organism, their genetic modification and their implantation into the same or another individual in a physiologically suitable location. The tissue or biological function damage dictates the type of cells chosen for implantation and the required function of the implanted cells. The general aim of this work was to develop an ex vivo gene therapy approach for the secretion of erythropoietin (Epo) in patients suffering from Epo-responsive anemia, thus extending to humans, studies previously performed with mouse cells transplanted in mice and rats. Considering the potential clinical application, allogeneic primary human cells were chosen for practical and safety reasons. In contrast to autologous cells, the use of allogeneic cells allows to characterize a cell lineage that can be further transplanted in many individuals. Furthermore allogeneic cells avoid the potential risk of zoonosis encountered with xenogeneic cells. Accordingly, the immune reaction against this allogeneic source was prevented by cell macro- encapsulation that prevents cell-to-cell contact with the host immune system and allows to easy retrieve the implanted device. The first step consisted in testing the survival of various human primary cells that were encapsulated and implanted for one month in the subcutaneous tissue of immunocompetent and naturally or therapeutically immunodepressed mice, assuming that xenogeneic applications constitute a stringent and representative screening before human transplantation. A fibroblast lineage from the foreskin of a young donor, DARC 3.1 cells, showed the highest mean survival score. We have then performed studies to optimize the manufacturing procedures of the encapsulation device for successful engraftment. The development of calcifications on the polyvinyl alcohol (PVA) matrix serving as a scaffold for enclosed cells into the hollow fiber devices was reported after one month in vivo. Various parameters, including matrix rinsing solutions, batches of PVA and cell lineages were assessed for their respective role in the development of the phenomenon. We observed that the calcifications could be totally prevented by using ultra-pure sterile water instead of phosphate buffer saline solution in the rinsing procedure of the PVA matrix. Moreover, a higher lactate dehydrogenase activity of the cells was found to decrease calcium depositions due to more acidic microenvironment, inhibiting the calcium precipitation. After the selection of the appropriate cell lineage and the optimization of encapsulation conditions, a retroviral-based approach was applied to DARC 3.1 fibroblasts for the transduction of the human Epo cDNA. Various modifications of the retroviral vector and the infection conditions were performed to obtain clinically relevant levels of human Epo. The insertion of a post-transcriptional regulatory element from the woodchuck hepatitis virus as well as of a Kozak consensus sequence led to a 7.5-fold increase in transgene expression. Human Epo production was further optimized by increasing the multiplicity of infection and by selecting high producer cells allowing to reach 200 IU hEpo/10E6 cells /day. These modified cells were encapsulated and implanted in vivo in the same conditions as previously described. All the mouse strains showed a sustained increase in their hematocrit and a high proportion of viable cells were observed after retrieval of the capsules. Finally, in the perspective of human application, a syngeneic model using encapsulated murine myoblasts transplanted in mice was realized to investigate the roles of both the host immune response and the cells metabolic requirements. Various loading densities and anti-inflammatory as well as immunosuppressive drugs were studied. The results showed that an immune process is responsible of cell death in capsules loaded at high cell density. A supporting matrix of PVA was shown to limit the cell density and to avoid early metabolic cell death, preventing therefore the immune reaction. This study has led to the development of encapsulated cells of human origin producing clinically relevant amounts of human EPO. This work resulted also to the optimization of cell encapsulation technical parameters allowing to begin a clinical application in end-stage renal failure patients. Résumé La thérapie cellulaire s'est imposée comme une stratégie de traitement potentiel pour diverses maladies. Si l'on considère leur morphologie et leur fonction, les cellules peuvent être transplantées dans le but de remplacer une perte tissulaire comme c'est le cas pour les transfusions sanguines ou les greffes de moelle osseuse ou de cellules pancréatiques. Avec le développement de la thérapie génique, les cellules sont également devenues des supports biologiques pour la production de molécules thérapeutiques. Cette stratégie représente le fondement de la thérapie génique ex vivo, caractérisée par le prélèvement de cellules d'un organisme, leur modification génétique et leur implantation dans le même individu ou dans un autre organisme. Le choix du type de cellule et la fonction qu'elle doit remplir pour un traitement spécifique dépend du tissu ou de la fonction biologique atteintes. Le but général de ce travail est de développer .une approche par thérapie génique ex vivo de sécrétion d'érythropoïétine (Epo) chez des patients souffrant d'anémie, prolongeant ainsi des travaux réalisés avec des cellules murines implantées chez des souris et des rats. Dans cette perpective, notre choix s'est porté sur des cellules humaines primaires allogéniques. En effet, contrairement aux cellules autologues, une caractérisation unique de cellules allogéniques peut déboucher sur de nombreuses applications. Par ailleurs, l'emploi de cellules allogéniques permet d'éviter les riques de zoonose que l'on peut rencontrer avec des cellules xénogéniques. Afin de protéger les cellules allogéniques soumises à une réaction immunitaire, leur confinement dans des macro-capsules cylindriques avant leur implantation permet d'éviter leur contact avec les cellules immunitaires de l'hôte, et de les retrouver sans difficulté en cas d'intolérance ou d'effet secondaire. Dans un premier temps, nous avons évalué la survie de différentes lignées cellulaires humaines primaires, une fois encapsulées et implantées dans le tissu sous-cutané de souris, soit immunocompétentes, soit immunodéprimées naturellement ou par l'intermédiaire d'un immunosuppresseur. Ce modèle in vivo correspond à des conditions xénogéniques et représente par conséquent un environnement de loin plus hostile pour les cellules qu'une transplantation allogénique. Une lignée fibroblastique issue du prépuce d'un jeune enfant, nommée DARC 3 .1, a montré une remarquable résistance avec un score de survie moyen le plus élevé parmi les lignées testées. Par la suite, nous nous sommes intéressés aux paramètres intervenant dans la réalisation du système d'implantation afin d'optimaliser les conditions pour une meilleure adaptation des cellules à ce nouvel environnement. En effet, en raison de l'apparition, après un mois in vivo, de calcifications au niveau de la matrice de polyvinyl alcohol (PVA) servant de support aux cellules encapsulées, différents paramètres ont été étudiés, tels que les procédures de fabrication, les lots de PVA ou encore les lignées cellulaires encapsulées, afin de mettre en évidence leur rôle respectif dans la survenue de ce processus. Nous avons montré que l'apparition des calcifications peut être totalement prévenue par l'utilisation d'eau pure au lieu de tampon phosphaté lors du rinçage des matrices de PVA. De plus, nous avons observe qu'un taux de lactate déshydrogénase cellulaire élevé était corrélé avec une diminution des dépôts de calcium au sein de la matrice en raison d'un micro-environnement plus acide inhibant la précipitation du calcium. Après sélection de la lignée cellulaire appropriée et de l'optimisation des conditions d'encapsulation, une modification génétique des fibroblastes DARC 3.1 a été réalisée par une approche rétrovirale, permettant l'insertion de l'ADN du gène de l'Epo dans le génome cellulaire. Diverses modifications, tant au niveau génétique qu'au niveau des conditions d'infection, ont été entreprises afin d'obtenir des taux de sécrétion d'Epo cliniquement appropriés. L'insertion dans la séquence d'ADN d'un élément de régulation post¬transcriptionnelle dérivé du virus de l'hépatite du rongeur (« woodchuck ») ainsi que d'une séquence consensus appelée « Kozak » ont abouti à une augmentation de sécrétion d'Epo 7.5 fois plus importante. De même, l'optimisation de la multiplicité d'infection et la sélection plus drastique des cellules hautement productrices ont permis finalement d'obtenir une sécrétion correspondant à 200 IU d'Epo/10E6 cells/jour. Ces cellules génétiquement modifiées ont été encapsulées et implantées in vivo dans les mêmes conditions que celles décrites plus haut. Toutes les souris transplantées ont montré une augmentation significative de leur hématocrite et une proportion importante de cellules présentait une survie conservée au moment de l'explantation des capsules. Finalement, dans la perspective d'une application humaine, un modèle syngénique a été proposé, basé sur l'implantation de myoblastes murins encapsulés dans des souris, afin d'investiguer les rôles respectifs de la réponse immunitaire du receveur et des besoins métaboliques cellulaires sur leur survie à long terme. Les cellules ont été encapsulées à différentes densités et les animaux transplantés se sont vus administrer des injections de molécules anti-inflammatoires ou immunosuppressives. Les résultats ont démontré qu'une réaction immunologique péri-capsulaire était à la base du rejet cellulaire dans le cas de capsules à haute densité cellulaire. Une matrice de PVA peut limiter cette densité et éviter une mort cellulaire précoce due à une insuffisance métabolique et par conséquent prévenir la réaction immunitaire. Ce travail a permis le développement de cellules encapsulées d'origine humaine sécrétant des taux d'Epo humaine adaptés à des traitements cliniques. De pair avec l'optimalisation des paramètres d'encapsulation, ces résultats ont abouti à l'initiation d'une application clinique destinée à des patients en insuffisance rénale terminale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse « Faible prévalence de la fibrillation auriculaire chez des adultes asymptomatiques à Genève, Suisse » But : l'augmentation de la prévalence de la fibrillation auriculaire (FA) est dans les pays développés un problème de santé publique. L'ampleur de cette augmentation demeure cependant peu claire. L'objectif de ce travail est de déterminer la prévalence de la FA au sein d'un échantillon représentatif d'adultes asymptomatiques de plus de 50 ans. Méthode : entre janvier 2005 et décembre 2007, des individus résidants du canton de Genève et ayant déjà participé précédemment à une étude randomisée ont été invités pour un examen de contrôle. Le diagnostic de FA a été posé à l'aide d'un tracé électrocardiographique 6 pistes. Tous les tracés ont étés revus par un cardiologue. Les prévalences de FA ont ensuite été standardisées pour la distribution d'âge dans la population genevoise. Une prise de sang veineuse a été réalisée chez tous les participants après 8 heures de jeûne et la glycémie, la triglyceridémie, le cholestérol sérique total ainsi que le cholestérol HDL sérique ont été déterminés. Résultats : la participation a été de 72.8%. 29 cas de FA (22 hommes) ont été diagnostiqués parmi 3285 sujets (1696 hommes). La prévalence de la FA (95% Cl) était de 0.88% (0.86, 0.90). La prévalence standardisée pour l'âge était légèrement plus élevée [0.94% (0.91, 0.97), hommes: 1.23% (1.19, 1.27), femmes; 0.54% (0.47, 0.61)]. Les sujets avec une FA étaient plus âgés (72.1 vs. 63.1 ans, ρ < 0.0001), plus souvent de sexe masculin (75.9% vs. 50.4%, ρ = 0.0087), avaient un indice de masse corporelle plus élevé (27.9 vs. 25,9 kg/m2, ρ = 0.011), un périmètre abdominal plus important (98.8 vs. 90.2 cm, ρ = 0.0034), une tension artérielle diastolique plus élevée (80.9 vs. 75.7mmhg, ρ = 0.0093), un cholestérol sérique total plus bas (5.16 vs. 5.75mmol/L, ρ = 0.0019) et un HDL cholestérol sérique plus bas (1.31 vs. 1.48 mmol/L, ρ = 0.02). A l'anamnèse un antécédent « d'embolie artérielle » (cérébrale ou membres inférieurs) était significativement plus fréquent chez les sujets avec une FA (10.3 vs. 3.3%, ρ = 0.03). Conclusion : cette étude basée sur une population suisse asymptomatique montre une prévalence de la FA inférieure à 1%. Ces résultats sont moins alarmants que ceux obtenus lors de précédentes études.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La venue d'un premier enfant implique d'importants remaniements. Le couple conjugal est mis à rude épreuve et la littérature anglo-saxonne fait état d'une baisse de la satisfaction conjugale durant la période de transition à la parentalité. De plus, au couple conjugal s'ajoutent le couple co-parental (relations entre les parents à propos de leur enfant) et les dyades parentales (parent/enfant). L'articulation entre les sous-systèmes conjugal, co-parental et parental va varier d'une famille à l'autre : prépondérance du parental ou du conjugal, présence d'un co-parentage soutenant ou non, etc. La baisse de la satisfaction conjugale lors de la transition à la parentalité est confirmée dans une étude réalisée en Suisse et présentée dans cet article. Des vignettes cliniques de jeux familiaux illustrent ensuite les différentes articulations possibles du conjugal, du co-parental et du familial. The birth of a first child implies important reorganizations. The marital relationship is under stress and Anglo-Saxon literature shows that there is a decrease of the marital satisfaction during the transition to parenthood. Moreover, when partners become parents, coparenting (relationship between the parents regarding their child) and parental dyads (parent-infant) are added to the marital relationship. The articulation between the conjugal, coparental and parental sub-systems varies from one family to the other : preponderance of the parental or the conjugal subsystem, presence of a supportive co-parenting or not, etc. The decrease of the marital satisfaction during the transition to parenthood is confirmed in a Swiss study and described in this article. Descriptions of family games illustrate then the different possible articulations of the conjugal, coparental and parental subsystems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'Office fédéral de la santé publique (OFSP) a donné pour mandat à l'IUMSP d'évaluer la campagne " Mission : Possible " de l'Aide suisse contre le sida (ASS), réalisée en 2008. Il s'agit d' une campagne de prévention du VIH/sida s'adressant exclusivement aux hommes qui ont des relations sexuelles avec des hommes (HSH). Elle a été mise en oeuvre par l'Aide suisse contre le sida, sur mandat de l'Office fédéral de la santé publique. L'objectif stratégique de " Mission: Possible " consiste à freiner la propagation du VIH parmi les HSH. Actuellement, une partie importante des infections à VIH sont le fait de rapports sexuels non protégés avec des partenaires sexuels en phase de primo-infection, c'est-à-dire la phase suivant directement le contage et durant laquelle la quantité de virus dans le sang est particulièrement élevée. L'ambition de la campagne Mission Possible était de briser les chaînes d'infection ainsi créées en incitant tous les HSH à observer strictement les règles du safer sex, trois mois durant, soit le temps nécessaire pour que les personnes récemment infectées sortent de la phase de primo-infection. Ainsi, le risque de nouvelles transmissions diminuerait de façon globale et l'épidémie serait ralentie. Au terme des trois mois, les HSH étaient incités à faire un test VIH gratuit (sur présentation d'un bon à présenter dans les centres de dépistage et conseils anonymes : policliniques universitaires et certaines antennes de l'ASS). La campagne reposait sur une importante mobilisation communautaire, c'est-à-dire l'implication de tous les acteurs de la scène gaie en Suisse (journaux et sites internet, associations et établissements gais). [Introd. du résumé p. 9] Site internet de la campagne "Mission : possible": http://www.missionp.ch/fr/home/

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente thèse se propose d'étudier les fortifications connues dans le territoire d'Erétrie (île d'Eubée, Grèce), essentiellement aux époques classique et hellénistique (Ve-IIe siècles av. J.-C.). La plupart de ces constructions (forteresses de grand appareil, habitats fortifiés, enceintes de pierres sèches et tours) sont connues depuis le 19e siècle, mais ce travail constitue la première étude archéologique et historique d'ensemble qui leur est consacrée exclusivement. Bien que décrites depuis longtemps, les fortifications des campagnes grecques ont surtout été étudiées d'un point de vue architectural et historique. Cette approche a privilégié une interprétation militaire et stratégique, reliant les fortifications au sein de réseaux défensifs conçus à grande échelle et destinés à bloquer les accès et les frontières du territoire. Notre perspective est différente, puisqu'elle s'efforce de replacer chaque fortification dans la géographie antique en étudiant son interaction avec les plaines et les reliefs, les frontières, l'habitat, les voies de communication, les terres cultivables et la répartition de la population. Pour ce faire, nous avons établi une carte archéologique de l'Erétriade, conduit des prospections extensives autour des fortifications, ainsi que dans de nombreuses régions du territoire. Cette méthode permet d'aborder l'étude des fortifications rurales en adoptant des angles d'analyse différents : le premier, macro-géographique, met ainsi en valeur des caractéristiques générales, telles que la relation entre les fortifications et la capitale d'une part, les fortifications et les terres cultivables de l'autre ; au plan régional, ou micro-géographique, elle analyse la répartition des fortifications au sein de chaque district de l'Erétriade, voire des vallées ou des cantons, mettant en évidence le rôle local des ouvrages fortifiés. Au terme de cette recherche, il est apparu qu'une approche purement stratégique ou militaire ne permettait pas d'expliquer la répartition géographique des fortifications, puisque ces dernières se trouvent pour la plupart à l'intérieur du territoire et non à ses frontières. Elles ne sont pas non plus disposées de manière à pouvoir exercer une surveillance étroite sur les routes pénétrant dans la chôra ; aussi leur fonctionnement au sein d'un «réseau défensif frontalier ne peut pas être démontré. Dans l'Erétriade, la colonne vertébrale de la sécurité publique est formée par les habitats fortifiés, dèmes et kômai, complétée par l'existence de deux forteresses militaires ayant accueilli des garnisons. Placés toujours à bonne distance de la ville, puis à intervalles plus ou moins réguliers au sein du territoire, les habitats fortifiés jouent sur le plan régional le rôle de la ville : en cas d'invasion ou de danger, la population du dème ou des dèmes environnants pouvait y trouver refuge, mettant ainsi à l'abri récoltes, biens et animaux. L'apparition des fortifications territoriales correspond à l'extension maximale de l'occupation humaine, agricole et économique du territoire. Les communautés rurales qui en avaient la possibilité se dotèrent alors de fortifications, souvent sommaires, pour faire face à des menaces variées, mais surtout pour assurer leur propre sécurité et protéger un équilibre autarcique fragile. Il ne faut donc pas nécessairement attribuer la construction de fortifications à un événement historique précis, interprétation abusive courante dans l'étude des fortifications, en Grèce comme ailleurs. La fortification des habitats ruraux s'est réalisée de manière progressive, en réponse aux sentiments d'insécurité d'une population rurale toujours plus nombreuse. Faute de références littéraires et d'inscriptions, en particulier de décrets honorifiques, les forteresses et les habitats fortifiés de l'Erétriade constituent les derniers témoins de l'insécurité publique et des violences auxquelles fut confronté le territoire d'Erétrie aux époques classique et hellénistique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The integration of specific institutions for teacher education into the higher education system represents a milestone in the Swiss educational policy and has broad implications. This thesis explores organizational and institutional change resulting from this policy reform, and attempts to assess structural change in terms of differentiation and convergence within the system of higher education. Key issues that are dealt with are, on the one hand, the adoption of a research function by the newly conceptualized institutions of teacher education, and on the other, the positioning of the new institutions within the higher education system. Drawing on actor-centred approaches to differentiation, this dissertation discusses system-level specificities of tertiarized teacher education and asks how this affects institutional configurations and actor constellations. On the basis of qualitative and quantitative empirical data, a comparative analysis has been carried out including case studies of four universities of teacher education as well as multivariate regression analysis of micro-level data on students' educational choices. The study finds that the process of system integration and adaption to the research function by the various institutions have unfolded differently depending on the institutional setting and the specific actor constellations. The new institutions have clearly made a strong push to position themselves as a new institutional type and to find their identity beyond the traditional binary divide which assigns the universities of teacher education to the college sector. Potential conflicts have been identified in divergent cognitive normative orientations and perceptions of researchers, teacher educators, policy-makers, teachers, and students as to the mission and role of the new type of higher education institution. - L'intégration dans le système d'enseignement supérieur d'institutions qui ont pour tâche spécifique de former des enseignants peut être considérée comme un événement majeur dans la politique éducative suisse, qui se trouve avoir des conséquences importantes à plusieurs niveaux. Cette thèse explore les changements organisationnels et institutionnels résultant de cette réforme politique, et elle se propose d'évaluer en termes de différentiation et de convergence les changements structurels intervenus dans le système d'éducation tertiaire. Les principaux aspects traités sont d'une part la nouvelle mission de recherche attribuée à ces institutions de formation pédagogique, et de l'autre la place par rapport aux autres institutions du système d'éducation tertiaire. Recourant à une approche centrée sur les acteurs pour étudier les processus de différen-tiation, la thèse met en lumière et en discussion les spécificités inhérentes au système tertiaire au sein duquel se joue la formation des enseignants nouvellement conçue et soulève la question des effets de cette nouvelle façon de former les enseignants sur les configurations institutionnelles et les constellations d'acteurs. Une analyse comparative a été réalisée sur la base de données qualitatives et quantitatives issues de quatre études de cas de hautes écoles pédagogiques et d'analyses de régression multiple de données de niveau micro concernant les choix de carrière des étudiants. Les résultats montrent à quel point le processus d'intégration dans le système et la nouvelle mission de recherche peuvent apparaître de manière différente selon le cadre institutionnel d'une école et la constellation spécifique des acteurs influents. A pu clairement être observée une forte aspiration des hautes écoles pédagogiques à se créer une identité au-delà de la structure binaire du système qui assigne la formation des enseignants au secteur des hautes écoles spéciali-sées. Des divergences apparaissent dans les conceptions et perceptions cognitives et normatives des cher-cheurs, formateurs, politiciens, enseignants et étudiants quant à la mission et au rôle de ce nouveau type de haute école. - Die Integration spezieller Institutionen für die Lehrerbildung ins Hochschulsystem stellt einen bedeutsamen Schritt mit weitreichenden Folgen in der Entwicklung des schweizerischen Bildungswesens dar. Diese Dissertation untersucht die mit der Neuerung verbundenen Veränderungen auf organisatorischer und institutioneller Ebene und versucht, die strukturelle Entwicklung unter den Gesichtspunkten von Differenzierung und Konvergenz innerhalb des tertiären Bildungssystems einzuordnen. Zentrale Themen sind dabei zum einen die Einführung von Forschung und Entwicklung als zusätzlichem Leistungsauftrag in der Lehrerbildung und zum andern die Positionierung der pädagogischen Hochschulen innerhalb des Hochschulsystems. Anhand akteurzentrierter Ansätze zur Differenzierung werden die Besonderheiten einer tertiarisierten Lehrerbildung hinsichtlich der Systemebenen diskutiert und Antworten auf die Frage gesucht, wie die Reform die institutionellen Konfigurationen und die Akteurkonstellationen beeinflusst. Auf der Grundlage qualitativer und quantitativer Daten wurde eine vergleichende Analyse durchgeführt, welche Fallstudien zu vier pädagogischen Hochschulen umfasst sowie Regressionsanalysen von Mikrodaten zur Studienwahl von Maturanden. Die Ergebnisse machen deutlich, dass sich der Prozess der Systemintegration und die Einführung von Forschung in die Lehrerbildung in Abhängigkeit von institutionellen Ordnungen und der jeweiligen Akteurkonstellation unterschiedlich gestalten. Es lässt sich bei den neu gegründeten pädagogischen Hochschulen ein starkes Bestreben feststellen, sich als neuen Hochschultypus zu positionieren und sich eine Identität zu schaffen jenseits der herkömmlichen binären Struktur, welche die pädagogischen Hochschulen dem Fachhochschul-Sektor zuordnet. Potentielle Konflikte zeichnen sich ab in den divergierenden kognitiven und normativen Orientierungen und Wahrnehmungen von Forschern, Ausbildern, Bildungspolitikern, Lehrern und Studierenden hinsichtlich des Auftrags und der Rolle dieses neuen Typs Hochschule.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le Programme de dépistage du cancer du sein BEJUNE a démarré en mai 2005 dans le canton du Jura, s'est étendu au canton de Neuchâtel en mai 2007 et englobe le Jura bernois depuis janvier 2009. Ses buts sont de promouvoir, organiser, gérer et mener à bien une action de dépistage auprès de la population féminine dans la tranche d'âge de 50 à 69 ans révolus (environ 42'000 femmes). [...] Ce rapport constitue, après 5 ans et demi d'activité, la première évaluation épidémiologique du Programme de dépistage du cancer du sein BEJUNE. Cette évaluation a été réalisée par l'Unité d'épidémiologie du cancer (UEC) de l'Institut universitaire de médecine sociale et préventive de Lausanne (IUMSP) qui jouit d'une longue expérience dans le domaine. Dans ce rapport, on analyse le fonctionnement, la participation, la qualité et l'efficacité précoce du programme. Les indicateurs de performance retenus suivent les recommandations européennes et les directives émises par la Fédération suisse des programmes de dépistage du cancer du sein. Entre mai 2005 et novembre 2010, plus de 37'000 mammographies ont été réalisées dans 11 Centres/Instituts de radiologie. Les 6750 examens effectués annuellement correspondent à un volume de 420 mammographies par radiologue: 380 pour les 1e lecteurs et 1300 pour les 2e lecteurs (auxquels s'ajoutent les lectures réalisées dans le cadre d'un autre programme cantonal). [...] [Auteurs, p. 5]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recent findings suggest an association between exposure to cleaning products and respiratory dysfunctions including asthma. However, little information is available about quantitative airborne exposures of professional cleaners to volatile organic compounds deriving from cleaning products. During the first phases of the study, a systematic review of cleaning products was performed. Safety data sheets were reviewed to assess the most frequently added volatile organic compounds. It was found that professional cleaning products are complex mixtures of different components (compounds in cleaning products: 3.5 ± 2.8), and more than 130 chemical substances listed in the safety data sheets were identified in 105 products. The main groups of chemicals were fragrances, glycol ethers, surfactants, solvents; and to a lesser extent phosphates, salts, detergents, pH-stabilizers, acids, and bases. Up to 75% of products contained irritant (Xi), 64% harmful (Xn) and 28% corrosive (C) labeled substances. Hazards for eyes (59%), skin (50%) and by ingestion (60%) were the most reported. Monoethanolamine, a strong irritant and known to be involved in sensitizing mechanisms as well as allergic reactions, is frequently added to cleaning products. Monoethanolamine determination in air has traditionally been difficult and air sampling and analysis methods available were little adapted for personal occupational air concentration assessments. A convenient method was developed with air sampling on impregnated glass fiber filters followed by one step desorption, gas chromatography and nitrogen phosphorous selective detection. An exposure assessment was conducted in the cleaning sector, to determine airborne concentrations of monoethanolamine, glycol ethers, and benzyl alcohol during different cleaning tasks performed by professional cleaning workers in different companies, and to determine background air concentrations of formaldehyde, a known indoor air contaminant. The occupational exposure study was carried out in 12 cleaning companies, and personal air samples were collected for monoethanolamine (n=68), glycol ethers (n=79), benzyl alcohol (n=15) and formaldehyde (n=45). All but ethylene glycol mono-n-butyl ether air concentrations measured were far below (<1/10) of the Swiss eight hours occupational exposure limits, except for butoxypropanol and benzyl alcohol, where no occupational exposure limits were available. Although only detected once, ethylene glycol mono-n-butyl ether air concentrations (n=4) were high (49.5 mg/m3 to 58.7 mg/m3), hovering at the Swiss occupational exposure limit (49 mg/m3). Background air concentrations showed no presence of monoethanolamine, while the glycol ethers were often present, and formaldehyde was universally detected. Exposures were influenced by the amount of monoethanolamine in the cleaning product, cross ventilation and spraying. The collected data was used to test an already existing exposure modeling tool during the last phases of the study. The exposure estimation of the so called Bayesian tool converged with the measured range of exposure the more air concentrations of measured exposure were added. This was best described by an inverse 2nd order equation. The results suggest that the Bayesian tool is not adapted to predict low exposures. The Bayesian tool should be tested also with other datasets describing higher exposures. Low exposures to different chemical sensitizers and irritants should be further investigated to better understand the development of respiratory disorders in cleaning workers. Prevention measures should especially focus on incorrect use of cleaning products, to avoid high air concentrations at the exposure limits. - De récentes études montrent l'existence d'un lien entre l'exposition aux produits de nettoyages et les maladies respiratoires telles que l'asthme. En revanche, encore peu d'informations sont disponibles concernant la quantité d'exposition des professionnels du secteur du nettoyage aux composants organiques volatiles provenant des produits qu'ils utilisent. Pendant la première phase de cette étude, un recueil systématique des produits professionnels utilisés dans le secteur du nettoyage a été effectué. Les fiches de données de sécurité de ces produits ont ensuite été analysées, afin de répertorier les composés organiques volatiles les plus souvent utilisés. Il a été mis en évidence que les produits de nettoyage professionnels sont des mélanges complexes de composants chimiques (composants chimiques dans les produits de nettoyage : 3.5 ± 2.8). Ainsi, plus de 130 substances listées dans les fiches de données de sécurité ont été retrouvées dans les 105 produits répertoriés. Les principales classes de substances chimiques identifiées étaient les parfums, les éthers de glycol, les agents de surface et les solvants; dans une moindre mesure, les phosphates, les sels, les détergents, les régulateurs de pH, les acides et les bases ont été identifiés. Plus de 75% des produits répertoriés contenaient des substances décrites comme irritantes (Xi), 64% nuisibles (Xn) et 28% corrosives (C). Les risques pour les yeux (59%), la peau (50%) et par ingestion (60%) était les plus mentionnés. La monoéthanolamine, un fort irritant connu pour être impliqué dans les mécanismes de sensibilisation tels que les réactions allergiques, est fréquemment ajouté aux produits de nettoyage. L'analyse de la monoéthanolamine dans l'air a été habituellement difficile et les échantillons d'air ainsi que les méthodes d'analyse déjà disponibles étaient peu adaptées à l'évaluation de la concentration individuelle d'air aux postes de travail. Une nouvelle méthode plus efficace a donc été développée en captant les échantillons d'air sur des filtres de fibre de verre imprégnés, suivi par une étape de désorption, puis une Chromatographie des gaz et enfin une détection sélective des composants d'azote. Une évaluation de l'exposition des professionnels a été réalisée dans le secteur du nettoyage afin de déterminer la concentration atmosphérique en monoéthanolamine, en éthers de glycol et en alcool benzylique au cours des différentes tâches de nettoyage effectuées par les professionnels du nettoyage dans différentes entreprises, ainsi que pour déterminer les concentrations atmosphériques de fond en formaldéhyde, un polluant de l'air intérieur bien connu. L'étude de l'exposition professionnelle a été effectuée dans 12 compagnies de nettoyage et les échantillons d'air individuels ont été collectés pour l'éthanolamine (n=68), les éthers de glycol (n=79), l'alcool benzylique (n=15) et le formaldéhyde (n=45). Toutes les substances mesurées dans l'air, excepté le 2-butoxyéthanol, étaient en-dessous (<1/10) de la valeur moyenne d'exposition aux postes de travail en Suisse (8 heures), excepté pour le butoxypropanol et l'alcool benzylique, pour lesquels aucune valeur limite d'exposition n'était disponible. Bien que détecté qu'une seule fois, les concentrations d'air de 2-butoxyéthanol (n=4) étaient élevées (49,5 mg/m3 à 58,7 mg/m3), se situant au-dessus de la frontière des valeurs limites d'exposition aux postes de travail en Suisse (49 mg/m3). Les concentrations d'air de fond n'ont montré aucune présence de monoéthanolamine, alors que les éthers de glycol étaient souvent présents et les formaldéhydes quasiment toujours détectés. L'exposition des professionnels a été influencée par la quantité de monoéthanolamine présente dans les produits de nettoyage utilisés, par la ventilation extérieure et par l'emploie de sprays. Durant la dernière phase de l'étude, les informations collectées ont été utilisées pour tester un outil de modélisation de l'exposition déjà existant, l'outil de Bayesian. L'estimation de l'exposition de cet outil convergeait avec l'exposition mesurée. Cela a été le mieux décrit par une équation du second degré inversée. Les résultats suggèrent que l'outil de Bayesian n'est pas adapté pour mettre en évidence les taux d'expositions faibles. Cet outil devrait également être testé avec d'autres ensembles de données décrivant des taux d'expositions plus élevés. L'exposition répétée à des substances chimiques ayant des propriétés irritatives et sensibilisantes devrait être investiguée d'avantage, afin de mieux comprendre l'apparition de maladies respiratoires chez les professionnels du nettoyage. Des mesures de prévention devraient tout particulièrement être orientées sur l'utilisation correcte des produits de nettoyage, afin d'éviter les concentrations d'air élevées se situant à la valeur limite d'exposition acceptée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objectifs: Etudier et décrire étape par étape les aspects techniques de la thérapie par cryoablation percutanée ciblée (CPC). Matériels et méthodes: CPC est réalisée par un : adiologue interventionnel sous guidage échographique et/ou tomodensitométrique. Résultats: CPC est un traitement peu invasif qui utilise un froid extrême pour geler et détruire des tumeurs localisées dans le foie, les reins, la prostate, les poumons, les os, les seins et la peau. L'imagerie est utilisée pour guider le placement d'un ou plusieurs applicateurs à travers la peau jusqu'au site cible et surveiller le processus de congélation. De l'azote liquide ou du gaz d'argon circule au sein d'une aiguille-applicateur (CryoPhobe) créant froid intense au contact de la cible. Une sonde indépendante surveille la température du tissu environnant. Le froid est maintenu pendant au moins 20 minutes suivi d'un dégel actif de la "boule de glace". La procédure est ensuite répétée pour maximiser la destruction tumorale. La procédure dure environ 1 heure et se fait de manière ambulatoire. Conclusion: CPC est un traitement alternatif efficace du cancer chez des patients sélectionnés. Les propriétés destructrices des tissus tumoraux sont bien établies pour le cancer du rein, cependant des investigations supplémentaires sont nécessaires pour déterminer l'efficacité de CPC à long terme dans d'autres indications.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente étude est à la fois une évaluation du processus de la mise en oeuvre et des impacts de la police de proximité dans les cinq plus grandes zones urbaines de Suisse - Bâle, Berne, Genève, Lausanne et Zurich. La police de proximité (community policing) est à la fois une philosophie et une stratégie organisationnelle qui favorise un partenariat renouvelé entre la police et les communautés locales dans le but de résoudre les problèmes relatifs à la sécurité et à l'ordre public. L'évaluation de processus a analysé des données relatives aux réformes internes de la police qui ont été obtenues par l'intermédiaire d'entretiens semi-structurés avec des administrateurs clés des cinq départements de police, ainsi que dans des documents écrits de la police et d'autres sources publiques. L'évaluation des impacts, quant à elle, s'est basée sur des variables contextuelles telles que des statistiques policières et des données de recensement, ainsi que sur des indicateurs d'impacts construit à partir des données du Swiss Crime Survey (SCS) relatives au sentiment d'insécurité, à la perception du désordre public et à la satisfaction de la population à l'égard de la police. Le SCS est un sondage régulier qui a permis d'interroger des habitants des cinq grandes zones urbaines à plusieurs reprises depuis le milieu des années 1980. L'évaluation de processus a abouti à un « Calendrier des activités » visant à créer des données de panel permettant de mesurer les progrès réalisés dans la mise en oeuvre de la police de proximité à l'aide d'une grille d'évaluation à six dimensions à des intervalles de cinq ans entre 1990 et 2010. L'évaluation des impacts, effectuée ex post facto, a utilisé un concept de recherche non-expérimental (observational design) dans le but d'analyser les impacts de différents modèles de police de proximité dans des zones comparables à travers les cinq villes étudiées. Les quartiers urbains, délimités par zone de code postal, ont ainsi été regroupés par l'intermédiaire d'une typologie réalisée à l'aide d'algorithmes d'apprentissage automatique (machine learning). Des algorithmes supervisés et non supervisés ont été utilisés sur les données à haute dimensionnalité relatives à la criminalité, à la structure socio-économique et démographique et au cadre bâti dans le but de regrouper les quartiers urbains les plus similaires dans des clusters. D'abord, les cartes auto-organisatrices (self-organizing maps) ont été utilisées dans le but de réduire la variance intra-cluster des variables contextuelles et de maximiser simultanément la variance inter-cluster des réponses au sondage. Ensuite, l'algorithme des forêts d'arbres décisionnels (random forests) a permis à la fois d'évaluer la pertinence de la typologie de quartier élaborée et de sélectionner les variables contextuelles clés afin de construire un modèle parcimonieux faisant un minimum d'erreurs de classification. Enfin, pour l'analyse des impacts, la méthode des appariements des coefficients de propension (propensity score matching) a été utilisée pour équilibrer les échantillons prétest-posttest en termes d'âge, de sexe et de niveau d'éducation des répondants au sein de chaque type de quartier ainsi identifié dans chacune des villes, avant d'effectuer un test statistique de la différence observée dans les indicateurs d'impacts. De plus, tous les résultats statistiquement significatifs ont été soumis à une analyse de sensibilité (sensitivity analysis) afin d'évaluer leur robustesse face à un biais potentiel dû à des covariables non observées. L'étude relève qu'au cours des quinze dernières années, les cinq services de police ont entamé des réformes majeures de leur organisation ainsi que de leurs stratégies opérationnelles et qu'ils ont noué des partenariats stratégiques afin de mettre en oeuvre la police de proximité. La typologie de quartier développée a abouti à une réduction de la variance intra-cluster des variables contextuelles et permet d'expliquer une partie significative de la variance inter-cluster des indicateurs d'impacts avant la mise en oeuvre du traitement. Ceci semble suggérer que les méthodes de géocomputation aident à équilibrer les covariables observées et donc à réduire les menaces relatives à la validité interne d'un concept de recherche non-expérimental. Enfin, l'analyse des impacts a révélé que le sentiment d'insécurité a diminué de manière significative pendant la période 2000-2005 dans les quartiers se trouvant à l'intérieur et autour des centres-villes de Berne et de Zurich. Ces améliorations sont assez robustes face à des biais dus à des covariables inobservées et covarient dans le temps et l'espace avec la mise en oeuvre de la police de proximité. L'hypothèse alternative envisageant que les diminutions observées dans le sentiment d'insécurité soient, partiellement, un résultat des interventions policières de proximité semble donc être aussi plausible que l'hypothèse nulle considérant l'absence absolue d'effet. Ceci, même si le concept de recherche non-expérimental mis en oeuvre ne peut pas complètement exclure la sélection et la régression à la moyenne comme explications alternatives. The current research project is both a process and impact evaluation of community policing in Switzerland's five major urban areas - Basel, Bern, Geneva, Lausanne, and Zurich. Community policing is both a philosophy and an organizational strategy that promotes a renewed partnership between the police and the community to solve problems of crime and disorder. The process evaluation data on police internal reforms were obtained through semi-structured interviews with key administrators from the five police departments as well as from police internal documents and additional public sources. The impact evaluation uses official crime records and census statistics as contextual variables as well as Swiss Crime Survey (SCS) data on fear of crime, perceptions of disorder, and public attitudes towards the police as outcome measures. The SCS is a standing survey instrument that has polled residents of the five urban areas repeatedly since the mid-1980s. The process evaluation produced a "Calendar of Action" to create panel data to measure community policing implementation progress over six evaluative dimensions in intervals of five years between 1990 and 2010. The impact evaluation, carried out ex post facto, uses an observational design that analyzes the impact of the different community policing models between matched comparison areas across the five cities. Using ZIP code districts as proxies for urban neighborhoods, geospatial data mining algorithms serve to develop a neighborhood typology in order to match the comparison areas. To this end, both unsupervised and supervised algorithms are used to analyze high-dimensional data on crime, the socio-economic and demographic structure, and the built environment in order to classify urban neighborhoods into clusters of similar type. In a first step, self-organizing maps serve as tools to develop a clustering algorithm that reduces the within-cluster variance in the contextual variables and simultaneously maximizes the between-cluster variance in survey responses. The random forests algorithm then serves to assess the appropriateness of the resulting neighborhood typology and to select the key contextual variables in order to build a parsimonious model that makes a minimum of classification errors. Finally, for the impact analysis, propensity score matching methods are used to match the survey respondents of the pretest and posttest samples on age, gender, and their level of education for each neighborhood type identified within each city, before conducting a statistical test of the observed difference in the outcome measures. Moreover, all significant results were subjected to a sensitivity analysis to assess the robustness of these findings in the face of potential bias due to some unobserved covariates. The study finds that over the last fifteen years, all five police departments have undertaken major reforms of their internal organization and operating strategies and forged strategic partnerships in order to implement community policing. The resulting neighborhood typology reduced the within-cluster variance of the contextual variables and accounted for a significant share of the between-cluster variance in the outcome measures prior to treatment, suggesting that geocomputational methods help to balance the observed covariates and hence to reduce threats to the internal validity of an observational design. Finally, the impact analysis revealed that fear of crime dropped significantly over the 2000-2005 period in the neighborhoods in and around the urban centers of Bern and Zurich. These improvements are fairly robust in the face of bias due to some unobserved covariate and covary temporally and spatially with the implementation of community policing. The alternative hypothesis that the observed reductions in fear of crime were at least in part a result of community policing interventions thus appears at least as plausible as the null hypothesis of absolutely no effect, even if the observational design cannot completely rule out selection and regression to the mean as alternative explanations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"L'emploi et les conditions de travail ont une grande incidence sur l'équité en santé", note l'Organisation mondiale de la santé (OMS) dans un rapport publié en 2008: ils font partie des principaux déterminants sociaux "à l'origine d'une grande part des inégalités en santé observées entre pays et dans les pays". Ce constat se fonde sur un vaste corpus d'enquêtes et de recherches menées à l'échelle internationale, dont le renouveau ces trois dernières décennies a été stimulé par l'explosion du chômage et de la précarisation de l'emploi, ainsi que par l'intensification du travail. Pour la première fois, une vue chiffrée d'ensemble de cette problématique est également disponible pour la Suisse, basée sur les données de la dernière enquête suisse sur la santé, réalisée en 2007 par l'Office fédéral de la statistique (OFS). L'étude dont nous présentons ici les résultats cherche à répondre à trois questions?: 1) Quelles sont les conditions de travail à risque (physique ou psycho-social) les plus fréquentes? Qui y est le plus exposé, en fonction notamment du sexe, de la position sociale ou de la branche d'activité? 2) Quelles associations peut-on mettre en évidence entre ces conditions de travail et l'état de santé? 3) Quels sont les liens entre le fait d'être au chômage ou de craindre pour son emploi et l'état de santé? Les données analysées révèlent un lien significatif entre les conditions de travail à risques, plus fréquentes que souvent admis, et une santé dégradée chez les personnes concernées. L'association est encore plus forte avec le fait d'être au chômage. Ces réalités sont souvent passées sous silence, en Suisse encore plus qu'ailleurs. Cette étude contribue à les rendre visibles et à instruire ainsi le débat nécessaire sur les conditions économiques et sociales de leur changement. Débat dont l'actualité est redoublée par les conséquences dramatiques sur l'emploi et sur les conditions de travail de l'actuelle crise économique internationale. [Ed.]