712 resultados para Betas réalisé
Resumo:
Wound healing is a complex process involving several cell types (keratinocytes, fibroblasts, endothelial cells, etc.) as well as many growth factors (PDGF, TGF-betas, FGFs, VEGF, etc.). It can be challenging when wounds are deep or very large (third degree burn, ulceration after cutaneous tumor resection) or in presence of peripheral vascular disease, metabolic disturbances or peripheral neuropathy (chronic vascular or diabetic wounds). In order to promote skin regeneration, numerous bioactive dressings combining cells, matrices and growth factors are available on the market. This article provides a general overview of the various product categories and presents their main indications. The principal axes of the biomedical research in this area are also discussed.
Resumo:
L'utilisation efficace des systèmes géothermaux, la séquestration du CO2 pour limiter le changement climatique et la prévention de l'intrusion d'eau salée dans les aquifères costaux ne sont que quelques exemples qui démontrent notre besoin en technologies nouvelles pour suivre l'évolution des processus souterrains à partir de la surface. Un défi majeur est d'assurer la caractérisation et l'optimisation des performances de ces technologies à différentes échelles spatiales et temporelles. Les méthodes électromagnétiques (EM) d'ondes planes sont sensibles à la conductivité électrique du sous-sol et, par conséquent, à la conductivité électrique des fluides saturant la roche, à la présence de fractures connectées, à la température et aux matériaux géologiques. Ces méthodes sont régies par des équations valides sur de larges gammes de fréquences, permettant détudier de manières analogues des processus allant de quelques mètres sous la surface jusqu'à plusieurs kilomètres de profondeur. Néanmoins, ces méthodes sont soumises à une perte de résolution avec la profondeur à cause des propriétés diffusives du champ électromagnétique. Pour cette raison, l'estimation des modèles du sous-sol par ces méthodes doit prendre en compte des informations a priori afin de contraindre les modèles autant que possible et de permettre la quantification des incertitudes de ces modèles de façon appropriée. Dans la présente thèse, je développe des approches permettant la caractérisation statique et dynamique du sous-sol à l'aide d'ondes EM planes. Dans une première partie, je présente une approche déterministe permettant de réaliser des inversions répétées dans le temps (time-lapse) de données d'ondes EM planes en deux dimensions. Cette stratégie est basée sur l'incorporation dans l'algorithme d'informations a priori en fonction des changements du modèle de conductivité électrique attendus. Ceci est réalisé en intégrant une régularisation stochastique et des contraintes flexibles par rapport à la gamme des changements attendus en utilisant les multiplicateurs de Lagrange. J'utilise des normes différentes de la norme l2 pour contraindre la structure du modèle et obtenir des transitions abruptes entre les régions du model qui subissent des changements dans le temps et celles qui n'en subissent pas. Aussi, j'incorpore une stratégie afin d'éliminer les erreurs systématiques de données time-lapse. Ce travail a mis en évidence l'amélioration de la caractérisation des changements temporels par rapport aux approches classiques qui réalisent des inversions indépendantes à chaque pas de temps et comparent les modèles. Dans la seconde partie de cette thèse, j'adopte un formalisme bayésien et je teste la possibilité de quantifier les incertitudes sur les paramètres du modèle dans l'inversion d'ondes EM planes. Pour ce faire, je présente une stratégie d'inversion probabiliste basée sur des pixels à deux dimensions pour des inversions de données d'ondes EM planes et de tomographies de résistivité électrique (ERT) séparées et jointes. Je compare les incertitudes des paramètres du modèle en considérant différents types d'information a priori sur la structure du modèle et différentes fonctions de vraisemblance pour décrire les erreurs sur les données. Les résultats indiquent que la régularisation du modèle est nécessaire lorsqu'on a à faire à un large nombre de paramètres car cela permet d'accélérer la convergence des chaînes et d'obtenir des modèles plus réalistes. Cependent, ces contraintes mènent à des incertitudes d'estimations plus faibles, ce qui implique des distributions a posteriori qui ne contiennent pas le vrai modèledans les régions ou` la méthode présente une sensibilité limitée. Cette situation peut être améliorée en combinant des méthodes d'ondes EM planes avec d'autres méthodes complémentaires telles que l'ERT. De plus, je montre que le poids de régularisation des paramètres et l'écart-type des erreurs sur les données peuvent être retrouvés par une inversion probabiliste. Finalement, j'évalue la possibilité de caractériser une distribution tridimensionnelle d'un panache de traceur salin injecté dans le sous-sol en réalisant une inversion probabiliste time-lapse tridimensionnelle d'ondes EM planes. Etant donné que les inversions probabilistes sont très coûteuses en temps de calcul lorsque l'espace des paramètres présente une grande dimension, je propose une stratégie de réduction du modèle ou` les coefficients de décomposition des moments de Legendre du panache de traceur injecté ainsi que sa position sont estimés. Pour ce faire, un modèle de résistivité de base est nécessaire. Il peut être obtenu avant l'expérience time-lapse. Un test synthétique montre que la méthodologie marche bien quand le modèle de résistivité de base est caractérisé correctement. Cette méthodologie est aussi appliquée à un test de trac¸age par injection d'une solution saline et d'acides réalisé dans un système géothermal en Australie, puis comparée à une inversion time-lapse tridimensionnelle réalisée selon une approche déterministe. L'inversion probabiliste permet de mieux contraindre le panache du traceur salin gr^ace à la grande quantité d'informations a priori incluse dans l'algorithme. Néanmoins, les changements de conductivités nécessaires pour expliquer les changements observés dans les données sont plus grands que ce qu'expliquent notre connaissance actuelle des phénomenès physiques. Ce problème peut être lié à la qualité limitée du modèle de résistivité de base utilisé, indiquant ainsi que des efforts plus grands devront être fournis dans le futur pour obtenir des modèles de base de bonne qualité avant de réaliser des expériences dynamiques. Les études décrites dans cette thèse montrent que les méthodes d'ondes EM planes sont très utiles pour caractériser et suivre les variations temporelles du sous-sol sur de larges échelles. Les présentes approches améliorent l'évaluation des modèles obtenus, autant en termes d'incorporation d'informations a priori, qu'en termes de quantification d'incertitudes a posteriori. De plus, les stratégies développées peuvent être appliquées à d'autres méthodes géophysiques, et offrent une grande flexibilité pour l'incorporation d'informations additionnelles lorsqu'elles sont disponibles. -- The efficient use of geothermal systems, the sequestration of CO2 to mitigate climate change, and the prevention of seawater intrusion in coastal aquifers are only some examples that demonstrate the need for novel technologies to monitor subsurface processes from the surface. A main challenge is to assure optimal performance of such technologies at different temporal and spatial scales. Plane-wave electromagnetic (EM) methods are sensitive to subsurface electrical conductivity and consequently to fluid conductivity, fracture connectivity, temperature, and rock mineralogy. These methods have governing equations that are the same over a large range of frequencies, thus allowing to study in an analogous manner processes on scales ranging from few meters close to the surface down to several hundreds of kilometers depth. Unfortunately, they suffer from a significant resolution loss with depth due to the diffusive nature of the electromagnetic fields. Therefore, estimations of subsurface models that use these methods should incorporate a priori information to better constrain the models, and provide appropriate measures of model uncertainty. During my thesis, I have developed approaches to improve the static and dynamic characterization of the subsurface with plane-wave EM methods. In the first part of this thesis, I present a two-dimensional deterministic approach to perform time-lapse inversion of plane-wave EM data. The strategy is based on the incorporation of prior information into the inversion algorithm regarding the expected temporal changes in electrical conductivity. This is done by incorporating a flexible stochastic regularization and constraints regarding the expected ranges of the changes by using Lagrange multipliers. I use non-l2 norms to penalize the model update in order to obtain sharp transitions between regions that experience temporal changes and regions that do not. I also incorporate a time-lapse differencing strategy to remove systematic errors in the time-lapse inversion. This work presents improvements in the characterization of temporal changes with respect to the classical approach of performing separate inversions and computing differences between the models. In the second part of this thesis, I adopt a Bayesian framework and use Markov chain Monte Carlo (MCMC) simulations to quantify model parameter uncertainty in plane-wave EM inversion. For this purpose, I present a two-dimensional pixel-based probabilistic inversion strategy for separate and joint inversions of plane-wave EM and electrical resistivity tomography (ERT) data. I compare the uncertainties of the model parameters when considering different types of prior information on the model structure and different likelihood functions to describe the data errors. The results indicate that model regularization is necessary when dealing with a large number of model parameters because it helps to accelerate the convergence of the chains and leads to more realistic models. These constraints also lead to smaller uncertainty estimates, which imply posterior distributions that do not include the true underlying model in regions where the method has limited sensitivity. This situation can be improved by combining planewave EM methods with complimentary geophysical methods such as ERT. In addition, I show that an appropriate regularization weight and the standard deviation of the data errors can be retrieved by the MCMC inversion. Finally, I evaluate the possibility of characterizing the three-dimensional distribution of an injected water plume by performing three-dimensional time-lapse MCMC inversion of planewave EM data. Since MCMC inversion involves a significant computational burden in high parameter dimensions, I propose a model reduction strategy where the coefficients of a Legendre moment decomposition of the injected water plume and its location are estimated. For this purpose, a base resistivity model is needed which is obtained prior to the time-lapse experiment. A synthetic test shows that the methodology works well when the base resistivity model is correctly characterized. The methodology is also applied to an injection experiment performed in a geothermal system in Australia, and compared to a three-dimensional time-lapse inversion performed within a deterministic framework. The MCMC inversion better constrains the water plumes due to the larger amount of prior information that is included in the algorithm. The conductivity changes needed to explain the time-lapse data are much larger than what is physically possible based on present day understandings. This issue may be related to the base resistivity model used, therefore indicating that more efforts should be given to obtain high-quality base models prior to dynamic experiments. The studies described herein give clear evidence that plane-wave EM methods are useful to characterize and monitor the subsurface at a wide range of scales. The presented approaches contribute to an improved appraisal of the obtained models, both in terms of the incorporation of prior information in the algorithms and the posterior uncertainty quantification. In addition, the developed strategies can be applied to other geophysical methods, and offer great flexibility to incorporate additional information when available.
Resumo:
Summary Aims.-To explore whether fatigue-induced changes in spring-mass behavior during a 5000m self-paced run varied according to the runner's training status. Methods and results.-Six highly- and six well-trained triathletes completed a 5000m time trial. Running velocity and vertical stiffness decreased significantly (P < 0.05) with fatigue, whereas leg stiffness remained constant. None of these parameters displayed a significant interaction between fatigue and training status, despite vertical stiffness being higher (P < 0.05) in highly-trained triathletes. Conclusions.-During a 5000m self-paced run, impairments in leg-spring behavior that occur with fatigue are not affected by athletes' training status. © 2009 Elsevier Masson SAS. All rights reserved. Objectifs.-Étudier, chez des athlètes de niveaux différents, les modifications de raideur mécanique liées à l'apparition de la fatigue lors d'une course de 5000 m. Synthèse des faits.-Six triathlètes très entraînés et six autres bien entraînés ont réalisé une course de 5000 m. La vitesse de course et la raideur verticale diminuaient significativement (p < 0,05) avec la fatigue, alors que la raideur de la jambe demeurait inchangée. Aucune interaction entre la fatigue et le niveau d'entraînement n'a été détectée, malgré des niveaux de raideur verticale plus élevés (p < 0,05) chez les sujets les mieux entraînés.
Resumo:
Sur mandat du Conseil d'Etat valaisan, l'Institut universitaire de médecine sociale et préventive a réalisé une étude sur les patients hospitalisés dans les établissements de soins valaisans en automne 1985. L'objectif de cette étude, organisée sous forme d'un recensement, était principalement d'étudier l'adéquation du lieu d'hospitalisation par rapport à l'état du patient; cette question a été directement posée au médecin traitant. Plusieurs autres renseignements démographiques et médicaux ont été relevés lors de cette enquête. Celle-ci a porté sur 26 établissements fournissant des prestations de soins aigus, chroniques et d'hébergement (lits d'infirmerie des homes); il s'agissait des soins somatiques aussi bien que psychiatriques. Cela représente un total de 2771 lits... [Auteurs]
Resumo:
L' évaluation quantitative des dangers et des expositions aux nanomatériaux se heurte à de nombreuses incertitudes qui ne seront levées qu'à mesure de la progression des connaissances scientifiques de leurs propriétés. L' une des conséquences de ces incertitudes est que les valeurs limites d'exposition professionnelle définies actuellement pour les poussières ne sont pas nécessairement pertinentes aux nanomatériaux. En l'absence de référentiel quantitatif et, à la demande de la DGS pour éclairer les réflexions de l' AFNOR et de l'ISO sur le sujet, une démarche de gestion graduée des risques (control banding) a été élaborée au sein de l' Anses. Ce développement a été réalisé à l'aide d'un groupe d'experts rapporteurs rattaché au Comité d'experts spécialisés évaluation des risques liés aux agents physiques, aux nouvelles technologies et aux grands aménagements. La mise en oeuvre de la démarche de gestion graduée des risques proposée repose sur quatre grandes étapes: 1. Le recueil des informations. Cette étape consiste à réunir les informations disponibles sur les dangers du nanomatériau manufacturé considéré ; ainsi que sur l'exposition potentielle des personnes aux postes de travail (observation sur le terrain, mesures, etc.). 2. L'attribution d'une bande de danger. Le danger potentiel du nanomatériau manufacturé présent, qu'il soit brut où incorporé dans une matrice (liquide ou solide) est évalué dans cette étape. La bande danger attribuée tient compte de la dangerosité du produit bulk ou de sa substance analogue à l'échelle non-nanométrique, de la bio-persistance du matériau (pour les matériaux fibreux), de sa solubilité et de son éventuelle réactivité. 3. Attribution d'une bande d'exposition. La bande d'exposition du nanomatériau manufacturé considéré ou du produit en contenant est définie par le niveau de potentiel d'émission du produit. Elle tient compte de sa forme physique (solide, liquide, poudre aérosol), de sa pulvérulence et de sa volatilité. Le nombre de travailleurs, la fréquence, la durée d'exposition ainsi que la quantité mise en oeuvre ne sont pas pris en compte, contrairement à une évaluation classique des risques chimiques. 4. Obtention d'une bande de maîtrise des risques. Le croisement des bandes de dangers et d'exposition préalablement attribuées permet de défi nir le niveau de maîtrise du risque. Il fait correspondre les moyens techniques et organisationnels à mettre en oeuvre pour maintenir le risque au niveau le plus faible possible. Un plan d'action est ensuite défi ni pour garantir l'effi cacité de la prévention recommandée par le niveau de maîtrise déterminé. Il tient compte des mesures de prévention déjà existantes et les renforce si nécessaire. Si les mesures indiquées par le niveau de maîtrise de risque ne sont pas réalisables, par exemple, pour des raisons techniques ou budgétaires, une évaluation de risque approfondie devra être réalisée par un expert. La gestion graduée des risques est une méthode alternative pour réaliser une évaluation qualitative de risques et mettre en place des moyens de prévention sans recourir à une évaluation quantitative des risques. Son utilisation semble particulièrement adaptée au contexte des nanomatériaux manufacturés, pour lequel les choix de valeurs de référence (Valeurs limites d'exposition en milieu professionnel) et des techniques de mesurage appropriées souffrent d'une grande incertitude. La démarche proposée repose sur des critères simples, accessibles dans la littérature scientifi que ou via les données techniques relatives aux produits utilisés. Pour autant, sa mise en oeuvre requiert des compétences minimales dans les domaines de la prévention des risques chimiques (chimie, toxicologie, etc.), des nanosciences et des nanotechnologies.
Resumo:
Contient : 1 « Deul et ennuy... » ; 2 « Beata es, Maria... » ; 3 « Da pacem, Domine... » ; 4 « Da pacem, Domine... » ; 5 « Dulcis amica Dei... » ; 6 « Si sumpsero... » ; 7 « O quam glorifica... » ; 8 « Si dedero... » ; 9 « Mes pensées... » ; 10 « L'eure est venue... » ; 11 « Despitant fortune... » ; 12 « Allez, regretz... » ; 13 « Les grans regretz... » ; 14 « Va t'em, regret... » ; 15 « Qui belles amours a... » ; 16 « Se je vous eslongne... » ; 17 « Helas! de vous certes... » ; 18 « Si vous voulez estre... » ; 19 « N'ay ge pas droit... » ; 20 « Ha! qu'il m'ennuye... » ; 21 « Seul et eureux... » ; 22 « La saison en est... » ; 23 « Penser en vous... » ; 24 « Venez, regretz... » ; 25 « Des fais mondains... » ; 26 « De plus en plus... » ; 27 « Mon souvenir... » ; 28 « A heur le tiens... » ; 29 « Tant ay d'ennuyt... » ; 30 « Comme femme desconfortée... » ; 31 « Si congié prens... » ; 32 « Se mieulx ne vient... » ; 33 « Plus que aultre... » ; 34 « En l'ombre d'ung buyssonnet... » ; 35 « La regrettée... » ; 36 « Je sçay tout... » ; 37 « Fors seullement... » ; 38 « Il n'est vivant... » ; 39 « Vostre beaulté... » ; 40 « Helas ! pourquoy... » ; 41 « Je ne viz oncques... » ; 42 « Royne dez flours... » ; 43 « Faisons boutons... » ; 44 « Fin ch'yo vivo... » ; 45 « Yo so contento... » ; 46 « Que vous ma dame... » ; 47 « La gaye pastoure... » ; 48 « Se j'ay perdu mon amy... » ; 49 « Mon seul plaisir... » ; 50 « Ce moys de may... » ; 51 « Si fayt il vous... » ; 52 « Pastourelle... » ; 53 « Belle, se j'avoye... » ; 54 « Amoureuse m'y fault estre... » ; 55 « Tant bel m'y sont... » ; 56 « Se j'avoye de la soie... » ; 57 « Lourdault... » ; 58 « L'autre jour m'y chevauchoye... » ; 59 « La nuyt s'en va... » ; 60 « Il estoit ung bon homme... » ; 61 « Fors seulement... » ; 62 « Crux triumphans... » ; 63 « Jesus, dignum nomen... » ; 64 « My levay... » ; 65 « Mary de par sa mere... » ; 66 « La cuiller d'or... » ; 67 « Faictes, s'il vous plait... » ; 68 « Ne par Dieu... » ; 69 « Seullette suis... » ; 70 « Mon mari m'a diffamée... » ; 71 « L'amour de moy est enclose... » ; 72 « Mannette m'a mandé... » ; 73 « A l'ombre du bissonnet... » ; 74 « Triste et pensif... » ; 75 « Cum summo... »
Resumo:
Métier de service, féminin, dévalorisé, peu qualifié et mal payé, voici le registre le plus fréquent sur lequel est évoqué le travail de service en restauration. Sans aucun doute, ces éléments caractérisent en partie l'activité professionnelle des serveuses et des serveurs de restaurant, mais ils ne suffisent pas à en cerner la spécificité et ne rendent que partiellement compte des différentes facettes du métier et du travail réalisé. La présente étude s'applique à repérer les ressorts de cette « entreprise humaine organisée » (Freidson, 1986) qu'est le métier de serveur/serveuse en restauration traditionnelle, mais dont l'organisation n'apparaît pas d'emblée, tant elle est peu formelle et formalisée. À partir d'une démarche empirique, et en croisant différentes approches - sociologie du travail, sociologie des groupes professionnels, sociologie des services et études genre -, elle donne à comprendre ce qui fait le métier de serveur et de serveuse en restauration commerciale traditionnelle et la spécificité du travail effectué par ces petites mains du service. La première partie de l'analyse cerne les multiples facettes du contenu du travail des serveuses et des serveurs en restauration et la particularité des relations de service entre la clientèle et le personnel. La seconde traite plus spécifiquement des relations sociales dans l'entreprise, tant horizontales - avec les collègues -, que verticales - avec le patron. Enfin la troisième partie met en évidence les principaux mécanismes de différenciation de la main-d'oeuvre, par l'analyse de la répartition des horaires de travail et l'examen des parcours professionnels des personnes interviewées. Au final, cette thèse dresse le profil sociologique d'un métier qui a, jusqu'ici, peu retenu l'attention des chercheur?e?s. Elle cerne finement la profonde ambivalence qui caractérise le métier de serveur/serveuse, tant au plan du travail effectué, des relations de travail, du rapport au client, des parcours professionnels et du rapport subjectif que les personnes entretiennent à l'égard de leur travail. Service marchand marqué par la combinaison d'une domesticité ancillaire et d'une forme de domesticité familiale ; activité manuelle et relationnelle, individuelle et collective, physique et psychique ; combinaison de routine et d'événement ; travail dont il faut effacer le caractère laborieux ; personnalisation de relations entre anonymes, sont un aperçu des résultats qui concourent à montrer que le métier de serveur/serveuse recouvre des réalités contrastées et combine des logiques qui peuvent apparaître comme fort éloignées, voire contradictoires. En réalité, ce métier est à l'interface entre l'univers salarial, artisanal et domestique et présente simultanément des caractéristiques propres aux différentes formes de mise au travail que sont le salariat, l'artisanat et le travail domestique. En étayant ce résultat, ma recherche plaide pour la nécessité d'une approche transversale et globalisante qui ne fonctionne pas sur des catégories d'analyse figées et hermétiques, définies a priori en fonction de l'objet étudié, mais reste ouverte pour permettre de saisir la complexité et l'hybridation des logiques à l'oeuvre dans toute activité professionnelle. Ainsi, outre la contribution qu'apporte cette recherche aux connaissances existantes sur un segment professionnel peu investigué jusqu'ici, elle contribue aussi à enrichir les analyses contemporaines du travail en suscitant une réflexion de plus large portée sur les approches et les conceptualisations possibles pour appréhender les activités de service.
Resumo:
Pour faire évoluer la science forensique, il faut pouvoir analyser des notions élémentaires appartenant au quotidien et non se focaliser exclusivement sur le développement de nouvelles techniques. Encore non étudiée sous cette perspective, la pertinence fait partie de ces notions fondamentales forensiques pour lesquelles une telle analyse mérite d'être menée. En tenant compte du constat formulé par Inman et Rudin (2000), à savoir que la tâche la plus compliquée est de pouvoir reconnaître des traces matérielles pertinentes, s'interroger sur la pertinence de la trace soulève bien plus qu'une question. Cela met en évidence une multitude de paramètres intervenant dans les processus de raisonnement et de décision opérés sur les lieux d'investigations. Du reste trois facteurs susceptibles d'avoir une influence notable sur la recherche de traces apparaissent : Savoir, Formation et Expérience ou S.F.E. Ils forment, en étant regroupés, un bagage spécifique au spécialiste, composant sa connaissance dans le domaine et à même de jouer un rôle d'importance dans son travail opéré sur les lieux. Afin de déterminer l'influence de ce bagage sur le concept de pertinence, la démarche expérimentale se conduit en deux temps. Dans une première phase, l'approche se veut exploratoire au travers d'un stage réalisé dans une unité d'interventions, permettant de poser des bases statistiques et de dresser une réalité du travail sur le terrain. Puis au cours de la phase expérimentale, la conduite d'entretiens semi-directifs, couplés à un sondage, vise à déterminer quelle perception du concept de pertinence ressort parmi les volontaires interrogés. Ces derniers sont issus de groupes composés de futurs criminalistes, qui suivent une formation forensique à l'Université de Lausanne, et de praticiens expérimentés de formation police et / ou scientifique. En tentant de clarifier le concept de pertinence, l'objectif est de fournir des outils pour renforcer ou orienter la formation de spécialistes sur le terrain, en ayant permis d'amorcer une démarche de réflexion logique face aux champs d'investigations. En se voulant utile pour mieux formaliser la détection et la collecte des traces pertinentes sur les lieux, cela constitue une aide à la gestion : un atout non négligeable à l'heure où les contrôles qualité et les standards ne sont plus seulement une tendance mais une réalité qui s'impose.
Resumo:
Comprend : Tome 1. Frontispice copié d'après le frontispice réalisé par Magdeleine Horthemels de l'édition originale de 1707 :Le Diable boiteux.] El Diablo Coivelo. [Cote : microfilm R.61628] ; [Pl.] Tom.1 Pag. 25 : Dans quel endroit le Diable Boiteux transporta l'Ecolier et des premières choses qu'il lui fit voir. [Le Diable boiteux, en compagnie de l'Ecolier Zambullo, jette un sort sur la ville de Madrid et fait disparaître les toits d ; [Pl.] Tom.1 Pag. 52 : Histoire des amours du Comte de Belflor et de Léonor de Cespedes. [Cote : microfilm R.61628] ; [Pl.] Tom.1 Pag. 164 : Des Prisonniers. [Cote : microfilm R.61628] ; [Tome 1. Pl. en reg p. 244 :] Des foux enfermez. [Cote : microfilm R.61628] ; [Pl.] Tom.1 Pag. 311 : [Querelle de rue opposant des musiciens et quatre hommes armés.] [Cote : microfilm R.61628] ; [Pl.] Tom.1 Pag. 316 : De l'Incendie, et de ce que fit Asmodée en cette occasion par amitiépour Don Cléofas. [Cote : microfilm R.61628] ; [Pl.] Tom.2 Pag. 3 : Des Tombeaux, des Ombres et de la Mort. [Cote : microfilm R.61628] ; [Pl.] Tom.2 Pag. 29 : La force de l'amitié. [Cote : microfilm R.61628] ; [Pl.] Tom.2 Pag. 91 : Du Démêlé d'un Poëte Tragique avec un Auteur Comique. [Cote : microfilm R.61628] ; [Pl.] Tom.2 Pag. 181 : Des Songes. [Cote : microfilm R.61628] ; [Pl.] Tom.2 Pag. 220 : Ce que le Diable fit encore remarquer à Don Cléofas. [Cote : microfilm R.61628] ; [Pl.] Tom.2 Pag. 291 : De ce que fit Don Cléofas après que le Diable Boiteux se fut éloigné de lui; et de quelle façon l'Auteur de cet Ouvrage a jugé à propos de le finir. [Don Cléofas donne la main de sa fille Séraphine au cavalier Léandr
Resumo:
Cette étude envisage le film de Gus Van Sant à partir des théories de l'énonciation narrative, rediscutées à travers cet exemple singulier où le spectateur est convié - du moins en apparence - à adopter successivement, grâce à une « caméra subjective » dont on sonde toute l'ambiguïté, le point de vue de différents personnages. Ce contexte théorique permet de dévoiler certains mécanismes de l'organisation du film et les raisons de l'enraiement de l'identification aux figures de l'écran, fantômes qui semblent s'effacer devant une présence appuyée de la caméra rappelant qu'il s'agit avant tout d'un regard porté sur un fait divers, non d'une explication basée sur des phénomènes d'intériorisation psychologique - Elephant trouve à cet égard, comme l'auteur le montre ici, une position intermédiaire entre le film homonyme réalisé par Alan Clarke en 1989 pour la BBC et Bowling for Columbine de Michael Moore (2002). On y envisage la démarche du cinéaste de façon concrète, comme une manière d'arpenter un espace en prenant des personnages en « filature ».
Resumo:
Objectifs: Evaluer la faisabilité, les résultats préliminaires à court et long terme du vissage percutané de vissage trans -isthmique sous anesthésie locale et contrôle scannerdes lyses isthmiques de bas grades.Matériels et méthodes: Etude prospective monocentrique réalisée sur 10 patients ayant une lyse isthmique grade 1 et 2 résistant au traitement médical conventionnel. Une évaluationclinique était réalisée à un mois, 3 mois, 6 mois et un an post-opératoire par un évaluateur indépendant. L'indication est posée en concertation avec le service dechirurgie orthopédique.Résultats: Les lyses isthmiques étaient situées en L5-S1 avec 6 grades 1 et 4 grades 2. L'échelle analogique de la douleur (VAS) variait de 6 a 9 avec une moyenne de 7,8.L'indication opératoire chirurgicale était posée pour tous les patients par arthrodèse postérieure lombo -sacree. Pour chaque patient 2 vis étaient positionnées soitun total de 20 vis. Un suivi clinique était réalisé de 28 a 36 mois. L'EVA et ODI diminuaient de 7,8 +/- 1,7 à 1,9 +/- 1,2 et de 62,3 +/- 17,2 à 15,1 +/- 6,0respectivement. L'ensemble des résultats était stable dans le temps en particulier à long terme.Conclusion: La fixation précise de la lyse isthmique améliore la symptomatologie et probablement évite un glissement vertébral plus important , un suivi à plus long terme surune serie de patients plus importante devrait confirmer cette hypothèse.
Resumo:
Contexte: L'intervention "Break The Chains" 2012 de l'OFSP a l'intention des gays visait à informer sur la primo-infection et a inciter a un test de dépistage VIH. Design: L'évaluation a recouru a un design Pre-Post avec 2 dispositifs: A) enquête par questionnaire Internet avec une vague avant la campagne et une après (transversal repete); B) 1) relevé centré sur le canton de Zurich du nombre de test effectues par des gays durant le premier semestre 2012 utilisant des données récoltées par Sentinella, par les centres de test utilisant l'application BerDa et auprès des praticiens de HIV-Prakt; et 2) recueil d'information par le questionnaire internet post-intervention des intentions d'effectuer un test VIH. Résultats: 366 HSH ont répondu au questionnaire de la phase pré-, et 964 à la phase post-intervention. 69.8% ont entendu parler de la campagne. Parmi les répondants ayant identifie le message, 48.6% se sont sentis concernes. Avant la campagne, 34.2% des répondants identifiaient les 4 symptômes de la primo-infection, 46.4% se sentaient bien informes et 79.2% connaissaient le délai minimum pour qu'un test informe sur une absence d'infection; après la campagne, ces proportions étaient 39.6%, 62.0% et 85.2%. 17.1% des répondants ont déclaré avoir fait/avoir l'intention de faire, un test VIH suite à la campagne. Le nombre de tests effectues par les répondants Internet montre effectivement un pic dans le 2e trimestre 2012; les données BerDa montrent une stabilité du nombre total de tests. Les données épidémiologiques montrent une augmentation de la proportion et du nombre d'infections récentes détectées durant ce 2e trimestre, mais une diminution des infections anciennes. Conclusions: L'intervention BTC a amélioré légèrement les connaissances relatives à la phase de primo-infection du VIH et a la nécessité d'effectuer un test VIH. Elle semble avoir incite le public cible à effectuer un test VIH qui n'aurait pas été réalisé autrement et a peut-être ainsi contribuer a la détection d'infections récentes.
Resumo:
1.1 Objectifs Le syndrome de bas débit cardiaque est une appréciation clinique (Hoffman et al.) dont les signes sont peu sensibles, peu spécifiques, souvent tardifs et dont la mesure chez l'enfant est rendue impossible en clinique pour des raisons techniques et de fiabilités des systèmes de mesures. Aucun score n'est applicable à l'heure actuelle chez l'enfant. C'est pourquoi, ces 10 dernières années, de nombreuses équipes se sont penchée activement sur ce problème afin de définir des marqueurs performants prédisant la survenue du LCOS après chirurgie cardiaque chez l'enfant. Cette étude s'est attachée à réunir ses marqueurs cardiaques, de les combiner et de les inclure dans un score de bas débit cardiaque. 1.2 Méthode Enfants et nouveau-nés ayant subit une chirurgie cardiaque au CHUV, après malformation cardiaque congénitale, entre janvier 2010 et octobre 2011 (N=48). Age : 8 jours à 13 ans (médiane : 16.3 mois). Deux scores développés. Soumission à l'aveugle de la liste des patients à un comité d'expert pour identifier les patients en LCOS à 48h post-chirurgie, puis comparaison avec le résultat du score. Les paramètres du premier score (SCORE 1), sont agendées de manière ordinales, alors que dans le deuxième score (SCORE 2) elles le sont de manière dichotomiques. Valeurs cut-off supérieures et inférieures des scores choisies selon une recherche extensive dans la littérature. Les valeurs cut-off intermédiaires (SCORE 1) ont été choisies au hasard. 1.3 Résultats La régression logistique multivariée pour la prédiction d'un LCOS à 48h, démontre que seul le score d'amine durant les 24 premières heures et un prédicteur indépendant de LCOS (OR 16.6 [2.6- 105.5] p<0.0001). Ce paramètre est bien corrélé avec le résultat des experts avec un coefficient de corrélation r=0.57 (p<0.0001). Les spécificités des deux scores (AUC=0.78 (p<0.0001) respectivement AUC=0.81 (p<0.0001)) sont de 71% respectivement 93.5%, les sensibilités de 70.6% respectivement 41.2 %, VPP de 57.1% respectivement 77.8%, VPN de 81.5 % respectivement 74.4%. Les tests du khi2 valent 7.7 (p=0.006) respectivement 8.69 (p=003), rejettent l'hypothèse nulle d'indépendance entre le résultat des experts et celui prédit par le score. 1.4 Conclusions Les scores développés dans le cadre de cette étude ne montrent pas une corrélation significative avec l'apparition d'un bas débit cardiaque. Même si le choix des paramètres permettant de quantifier l'apparition d'un bas débit cardiaque à 48h fût réalisé selon une recherche extensive dans la littérature, le design rétrospectif de l'étude, n'a pas permit de vérifier efficacement la relation entre l'apparition d'un bas débit cardiaque et le score de bas débit cardiaque.
Resumo:
Sur mandat du Service de la santé publique, l'Observatoire valaisan de la santé (OVS) publie le 4e Rapport sur l'état de santé de la population valaisanne. Selon ce rapport, la population du canton bénéficie d'un très bon état de santé général. L'espérance de vie y est une des meilleures au monde. Les maladies cardiovasculaires et les cancers continuent d'être responsables de près de 2/3 des décès. Pour diminuer l'impact de ces maladies, il est nécessaire de poursuivre sur la voie d'une politique de promotion de la santé et de prévention active et ciblée. Le Conseil d'Etat a adopté un programme-cadre allant dans ce sens. Réalisé par l'OVS en collaboration avec l'Institut universitaire de médecine sociale et préventive de Lausanne (IUMSP), le rapport sur l'état de santé livre une photographie sanitaire de la population valaisanne. Il sert de document de référence au gouvernement pour définir les axes de la politique de promotion de la santé et de prévention pour les années 2011-2014.