999 resultados para Base de données de pharmacovigilance


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cet article (2006) décrit la démarche qui a fondé le développement de l'instrument d'évaluation de la peur de tomber à travers des "portraits" chez des personnes âgées vivant à domicile "chuteuses ou non chuteuses" (non publiés). Une analyse qualitative originale a été développée dans ce contexte la QUAPA (QUAlitative Pattern Analysis): une analyse des patterns permettant de décrire les différents degrés d'intensité auxquels la peur de tomber est décrites par les personnes âgées elles-mêmes. Cet instrument se base sur une validité "écologique". Il s'ancre dans le vécu des personnes âgées tel qu'il est rapporté et décrit par elles. L'évaluation de la peur de tomber réalisée à l'aide de ces portraits doit être confrontée à celle effectuée à l'aide d'autres instruments validés et largement utilisés dans le domaine de l'évaluation de la peur de tomber: FES, FES-I. Autres références publiées: Piot-Ziegler C (2002). La peur de tomber: comment l'évaluer ? Actualités Psychologiques, 12, 51-68. In C. Piot-Ziegler, (Vol. Ed.), Actualités Psychologiques: Vol. 12. Les chutes chez les personnes âgées: une approche interdisciplinaire (pp. 1-120). Piot-Ziegler C, Cuttelod T et Santiago M (2007). Définir la "peur de tomber" chez les personnes âgées à domicile. Etude qualitative. Bulletin de psychologie, 60(6), nov-déc, 515-525. Références non publiées: Piot-Ziegler C, Cuttelod T (2004). Evaluation de la peur de tomber: portraits issus du vécu des patients (questionnaire-portraits pour évaluer la peur de tomber chez des personnes âgées « chuteuses et non chuteuses ». Piot-Ziegler C, Cuttelod T (2004). Evaluation de la peur de tomber: portraits issus du vécu des patients (Guide de l'utilisateur).L'objectif de cet article (rédigé en 2006) est de dégager un modèle permettant d'évaluer l'intensité de la peur de tomber chez des personnes âgées vivant à domicile sur la base de données qualitatives récoltées dans une première étude (étude publiée: Piot-Ziegler et al. 2007).Dans cette étude qualitative, 58 entretiens semi-structurés ont été réalisés chez des personnes âgées vivant à domicile. Les thèmes abordés par les personnes âgées montrent que la peur de tomber se définit transversalement à travers les conséquences fonctionnelles, sociales et psychologiques consécutives à leur(s) chute(s).Afin d'explorer la possible existence de patterns, permettant de rendre compte de l'intensité de la peur de tomber, une méthode originale d'analyse qualitative (non informatisée) a été développée: la QUAPA (QUAlitative Patterns Analysis).Les résultats de cette analyse montrent l'existence d'une cohérence interne transversale (patterns) dans les trois dimensions définissant la peur de tomber (fonctionnelles, sociales et psychologiques) en fonction de l'intensité de la peur de tomber. Quatre patterns différents ont été mis en évidence. Ils débouchent sur une modélisation rendant compte des différents degrés d'intensité à laquelle la peur de tomber s'exprime chez les personnes âgées.Ce modèle en "patterns" permet d'évaluer la peur de tomber ressentie par une personne âgée en fonction des conséquences fonctionnelles, sociales et psychologiques à long terme consécutives à une ou plusieurs chutes. Ce modèle devra être mis à l'épreuve sur un grand échantillon de personnes âgées vivant à domicile ou dans d'autres espaces de vie (institutions), mais il constitue une alternative originale aux questionnaires utilisés actuellement qui se basent principalement sur le concept d'efficacité personnelle. Surtout il se base sur le vécu tel qu'il est rapporté par les personnes âgées elles-mêmes.Pour obtenir le questionnaire d'évaluation par "portraits" de la peur de tomber (e.mail: Chantal.Piot-Ziegler@unil.ch). Les documents suivants seront mis à disposition.Piot-Ziegler et C, Cuttelod T (2004). Evaluation de la peur de tomber: portraits issus du vécu des patients (questionnaire-portraits pour évaluer la peur de tomber chez des personnes âgées « chuteuses et non chuteuses » (Questionnaire).Piot-Ziegler et C, Cuttelod T (2004). Evaluation de la peur de tomber: portraits issus du vécu des patients (Guide de l'utilisateur).Mots-clés : chute ; peur de tomber ; personne âgée ; domicile ; recherche; approche compréhensive ; évaluation ; méthode qualitative ; pattern, QUAPA.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Highly diverse radiolarian faunas of latest Maastrichtian to early Eocene age have been recovered from the low latitude realm in order to contribute to the clarification of radiolarian taxonomy, construct a zonation based on a discrete sequence of co-existence intervals of species ranging from the late Paleocene to early Eocene and to describe a rich low latitude latest Cretaceous to late Paleocene fauna. 225 samples of late Paleocene to early Eocene age have been collected from ODP Leg 171 B-Hole 1051 A (Blake Nose), DSDP Leg 43-Site 384 (Northwest Atlantic) and DSDP Leg 10-Sites 86, 94, 95, 96. Sequences consist of mainly pelagic oozes and chalks, with some clay and ash layers. A new imaging technique is devised to perform (in particular on topotypic material) both transmitted light microscopy and SEM imaging on individual radiolarian specimens. SEM precedes transmitted light imaging. Radiolarians are adhered to a cover slip (using nail varnish) which is secured to a stub using conductive levers. Specimens are then photographed in low vacuum (40-50Pa; 0.5mbar), which enables charge neutralization by ionized molecules of the chamber atmosphere. Thus gold coating is avoided and subsequently this allows transmitted light imaging to follow. The conductive levers are unscrewed and the cover slip is simply overturned and mounted with Canada balsam. In an attempt towards a post-Haeckelian classification, the initial spicule (Entactinaria), micro- or macrosphere (Spumellaria) and initial spicule and cephalis (Nassellaria) have been studied by slicing Entactinaria and Spumellaria, and by tilting Nassellaria in the SEM chamber. A new genus of the family Coccodiscidae is erected and Spongatractus HAECKEL is re-located to the subfamily Axopruinae. The biochronology has been carried out using the Unitary Association Method (Guex 1977, 1991). A database recording the occurrences of 112 species has been used to establish a succession of 22 Unitary Associations. Each association is correlated to chronostratigraphy via calcareous microfossils that were previously studied by other authors. The 22 UAs have been united into seven Unitary Associations Zones (UAZones) (JP10- JE4). The established zones permit to distinguish supplementary subdivisions within the existing zonation. The low-latitude Paleocene radiolarian zonation established by Sanfilippo and Nigrini (1998a) is incomplete due to the lack of radiolarian-bearing early Paleocene sediments. In order to contribute to the study of sparsely known low latitude early Paleocene faunas, 80 samples were taken from the highly siliceous Guayaquil Formation (Ecuador). The sequence consists of black cherts, shales, siliceous limestones and volcanic ash layers. The carbonate content increases up section. Age control is supplied by sporadic occurrences of silicified planktonic foraminifera casts. One Cretaceous zone and seven Paleocene zones have been identified. The existing zonation for the South Pacific can be applied to the early-early late Paleocene sequence, although certain marker species have significantly shorter ranges (notably Buryella foremanae and B. granulata). Despite missing marker species in the late Paleocene, faunal distribution correlates reasonably to the Low-Latitude zonation. An assemblage highly abundant in Lithomelissa, Lophophaena and Cycladophora in the upper RP6 zone (correlated by the presence of Pterocodon poculum, Circodiscus circularis, Pterocodon? sp. aff. P. tenellus and Stylotrochus nitidus) shows a close affinity to contemporaneous faunas reported from Site 1121, Campbell Plateau. Coupled with a high diatom abundance (notably Aulacodiscus spp. and Arachnoidiscus spp.), these faunas are interpreted as reflecting a period of enhanced biosiliceous productivity during the late Paleocene. The youngest sample is void of radiolarians, diatoms and sponge spicules yet contains many pyritized infaunal benthic foraminifera which are akin to the midway-type fauna. The presence of this fauna suggests deposition in a neritic environment. This is in contrast to the inferred bathyal slope depositional environment of the older Paleocene sediments and suggests a shoaling of the depositional environment which may be related to a coeval major accretionary event. RESUME DE LA THESE Des faunes de radiolaires de basses latitudes très diversifiées d'âge Maastrichtien terminal à Eocène inférieur, ont été étudiées afin de contribuer à la clarification de leur taxonomie, de construire une biozonation basée sur une séquence discrète d'intervalles de coexistence des espèces d'age Paléocène supérieur à Eocène inférieur et de décrire une riche faune de basse latitude allant du Crétacé terminal au Paléocène supérieur. L'étude de cette faune contribue particulièrement à la connaissance des insaisissables radiolaires de basses latitudes du Paléocène inférieur. 225 échantillons d'âge Paléocène supérieur à Eocène inférieur provenant des ODP Leg 171B-Site 1051A (Blake Nose), Leg DSDP 43-Site 384 (Atlantique Nord -Ouest) et des DSDP Leg 10 -Sites 86, 94, 95, 96, ont été étudiés. Ces séquences sont constituées principalement de « ooze » et de « chalks »pélagiques ainsi que de quelques niveaux de cendres et d'argiles. Une nouvelle technique d'imagerie a été conçue afin de pouvoir prendre conjointement des images en lumière transmise et au Microscope Electronique à Balayage (MEB) de spécimens individuels. Ceci à été particulièrement appliqué à l'étude des topotypes. L'imagerie MEB précède l'imagerie en lumière transmise. Les radiolaires sont collés sur une lame pour micropaléontologie (au moyen de vernis à ongles) qui est ensuite fixée à un porte-objet à l'aide de bras métalliques conducteurs. Les spécimens sont ensuite photographiés en vide partiel (40-50Pa; 0.5mbar), ce qui permet la neutralisation des charges électrostatiques dues à la présence de molécules ionisées dans l'atmosphère de la chambre d'observation. Ainsi la métallisation de l'échantillon avec de l'or n'est plus nécessaire et ceci permet l'observation ultérieure en lumière transmise. Les bras conducteurs sont ensuite dévissés et la lame est simplement retournée et immergée dans du baume du Canada. Dans une approche de classification post Haeckelienne, le spicule initial (Entactinaires), la micro- ou macro -sphère (Spumellaires) et le spicule initial et cephalis (Nassellaires) ont été étudiés. Ceci a nécessité le sectionnement d'Entactinaires et de Spumellaires, et de pivoter les Nassellaires dans la chambre d'observation du MEB. Un nouveau genre de la Famille des Coccodiscidae a été érigé et Spongatractus HAECKEL à été réassigné à la sous-famille des Axopruninae. L'analyse biostratigraphique à été effectuée à l'aide de la méthode des Associations Unitaires {Guex 1977, 1991). Une base de données enregistrant les présences de 112 espèces à été utilisée poux établir une succession de 22 Associations Unitaires. Chaque association est corrélée à la chronostratigraphie au moyen de microfossiles calcaires précédemment étudiés par d'autres auteurs. Les 22 UAs ont été combinées en sept Zones d'Associations Unitaires (UAZones) (JP10- JE4). Ces Zones permettent d'insérer des subdivisions supplémentaires dans la zonation actuelle. La zonation de basses latitudes du Paléocène établie par Sanfilippo et Nigrini (1998a) est incomplète due au manque de sédiments du Paléocène inférieur contenant des radiolaires. Afin de contribuer à l'étude des faunes peu connues des basses latitudes du Paléocène inférieur, 80 échantillons ont été prélevés d'une section siliceuse de la Formation de Guayaquil (Equateur). La séquence est composée de cherts noirs, de shales, de calcaires siliceux et de couches de cendres volcaniques. La fraction carbonatée augmente vers le haut de la section. Des contraintes chronologiques sont fournies par la présence sporadique de moules de foraminifères planctoniques. Une zone d'intervalles du Crétacé et sept du Paléocène ont été mises en évidence. Bien que certaines espèces marqueur ont des distributions remarquablement plus courtes (notamment Buryella foremanae et B. granulata), la zonation existante pour le Pacifique Sud est applicable à la séquence d'age Paléocène inférieure à Paléocène supérieur basal étudiée. Malgré l'absence d'espèces marqueur du Paléocène supérieur, la succession faunistique se corrèle raisonnablement avec la zonation pour les basses latitudes. Un assemblage contenant d'abondants représentant du genre Lithomelissa, Lophophaena et Cycladophora dans la zone RP6 (correlée par la présence de Pterocodon poculum, Circodiscus circularis, Pterocodon? sp. aff. P. tenellus et Stylotrochus nitidus) montre une grande similitude avec certaines faunes issues des hauts latitudes et d'age semblable décrites par Hollis (2002, Site 1121, Campbell Plateau). Ceci, en plus d'une abondance importante en diatomés (notamment Aulacodiscus spp. et Arachnoidiscus spp.) nous mènent à interpréter cette faune comme témoin d'un épisode de productivité biosiliceuse accrue dans le Paléocène supérieur. L'échantillon le plus jeune, dépourvu de radiolaires, de diatomés et de spicules d'éponge contient de nombreux foraminifères benthiques infaunaux pyritisés. Les espèces identifiées sont caractéristiques d'une faune de type midway. La présence de ces foraminifères suggère un environnement de type néritique. Ceci est en contraste avec l'environnement de pente bathyale caractérisent les sédiments sous-jacent. Cette séquence de diminution de la tranche d'eau peut être associée à un événement d'accrétion majeure. RESUME DE LA THESE (POUR LE GRAND PUBLIC) Les radiolaires constituent le groupe de plancton marin le plus divers et le plus largement répandu de l'enregistrement fossile. Un taux d'évolution rapide et une variation géographique considérable des populations font des radiolaires un outil de recherche sans égal pour la biostratigraphie et la paléocéanographie. Néanmoins, avant de pouvoir les utiliser comme outils de travail, il est essentiel d'établir une solide base taxonomique. L'étude des Radiolaires peut impliquer plusieurs techniques d'extraction, d'observation et d'imagerie qui sont dépendantes du degré d'altération diagénétique des spécimens. Le squelette initial, qu'il s'agisse d'un spicule initial (Entactinaria), d'une micro- ou macro -sphère (Spumellaria) ou d'un spicule initial et d'un cephalis (Nassellaria), est l'élément le plus constant au cours de l'évolution et devrait représenter le fondement de la systématique. Des échantillons provenant de carottes de basses latitudes du Deep Sea Drilling Project et de l' Ocean Drilling ont été étudiés. De nouvelles techniques d'imagerie et de sectionnement ont été développées sur des topotypes de radiolaires préservés en opale, dans le but d'étudier les caractéristiques de leur squelette initial qui n'étaient pas visibles dans leur illustration originale. Ceci aide entre autre à comparer des spécimens recristallisés en quartz, provenant de terrains accrétés, avec les holotypes en opale de la littérature. La distribution des espèces étudiés a fourni des données biostratigraphiques qui ont été compilées à l'aide de la méthode des Associations Unitaires (Guez 1977, 1991). Il s'agit d'un modèle mathématique déterministe conçu pour exploiter la totalité de l'assemblage plutôt que de se confiner à l'utilisation de taxons marqueurs individuels. Une séquence de 22 Associations Unitaires a été établie pour la période allant du Paléocène supérieur à l'Éocène inférieur. Chaque Association Unitaire a été corrélée à l'échelle de temps absolue à l'aide de microfossiles calcaires. Les 22 UAs ont été combinées en sept Zones d'Associations Unitaires (JP10- JE4). Ces Zones permettent d'insérer des subdivisions supplémentaires dans la zonation actuelle. Les radiolaires du Paléocène inférieur à moyen des basses latitudes sont rares. Les meilleures sections connues se trouvent dans les hautes latitudes (Nouvelle Zélande). Quelques assemblages épars ont été mentionnés par le passé en Californie, en Équateur et en Russie. Une séquence siliceuse de 190 mètres dans la Formation de Guayaquil (Équateur), s'étendant du Maastrichtien supérieur au Paléocène supérieur, a fourni des faunes relativement bien préservées. L'étude de ces faunes a permis de mettre en évidence la première séquence complète de radiolaires de basses latitudes dans le Paléocène inférieure. Huit zones allant du Crétacé terminal au Paléocène supérieur ont pu être appliqués et la présence de foraminifères planctoniques a fournie plusieurs points d'attache chronologiques. Dans le Paléocène supérieur, un riche assemblage contenant d'abondants diatomés et radiolaires ayant des similitudes faunistiques marquantes avec des assemblages de hautes latitudes de Nouvelle Zélande, témoigne d'un épisode de productivité biosiliceuse accrue pendant cette période. Étant donné que la pointe du continent sud-américain et l'Antarctique étaient plus proches au cours du Paléocène, ce phénomène peut être expliqué par le transport, le long de la côte ouest de l'Amérique du Sud, d'eaux riches en nutriments en provenance de l'Océan Antarctique. Suite à cet épisode, l'enregistrement en radiolaires est interrompu. Ceci peut être associé à des événements tectoniques régionaux qui ont eu pour effet de diminuer la tranche d'eau relative, rendant l'environnement plus favorable aux foraminifères benthiques qui sont abondamment présents dans l'échantillon le plus jeune de la séquence.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les crues et les risques de débordement des barrages, notamment des digues en terre, en cas de fortes précipitations, préoccupent depuis longtemps les autorités et la population. Les études réalisées dans les dernières années ont montré que le réchauffement global du climat s'est accompagné d'une augmentation de la fréquence des fortes précipitations et des crues en Suisse et dans de nombreuses régions du globe durant le 20ème siècle. Les modèles climatiques globaux et régionaux prévoient que la fréquence des fortes précipitations devrait continuer à croître durant le 21éme siècle en Suisse et dans le monde. Cela rend les recherches actuelles sur la modélisation des pluies et des crues à une échelle fine encore plus importantes. En Suisse, pour assurer une bonne protection sur le plan humain et économique, des cartes de précipitations maximales probables (PMP) ont été réalisées. Les PMP ont été confrontées avec les précipitations extrêmes mesurées dans les différentes régions du pays. Ces PMP sont ensuite utilisées par les modèles hydrologiques pour calculer des crues maximales probables (PMF). Cette la méthode PMP-PMF nécessite toutefois un certain nombre de précautions. Si elle est appliquée d'une manière incorrecte ou sur la base de données insuffisantes, elle peut entraîner une surestimation des débits de crue, notamment pour les grands bassins et pour les régions montagneuses entraînant des surcoûts importants. Ces problèmes résultent notamment du fait que la plupart des modèles hydrologiques répartissent les précipitations extrêmes (PMP) de manière uniforme dans le temps sur l'ensemble du bassin versant. Pour remédier ce problème, cette thèse a comme objectif principal de développer un modèle hydrologique distribué appelé MPF (Modeling Precipitation Flood) capable d'estimer la PMF de manière réaliste à partir de la PMP distribuée de manière spatio-temporelle à l'aide des nuages. Le modèle développé MPF comprend trois parties importantes. Dans la première partie, les précipitations extrêmes calculées par un modèle météorologique à une méso-échelle avec une résolution horizontale de 2 km, sont réparties à une échelle locale (25 ou 50 m) de manière non-uniforme dans l'espace et dans le temps. La deuxième partie concerne la modélisation de l'écoulement de l'eau en surface et en subsurface en incluant l'infiltration et l'exfiltration. Et la troisième partie inclut la modélisation de la fonte des neiges, basée sur un calcul de transfert de chaleur. Le modèle MPF a été calibré sur des bassins versants alpins où les données de précipitations et du débit sont disponibles pour une période considérablement longue, qui inclut plusieurs épisodes de fortes pluies avec des débits élevés. À partir de ces épisodes, les paramètres d'entrée du modèle tel que la rugosité du sol et la largeur moyenne des cours d'eau dans le cas d'écoulement de surface ont pu être estimés. Suivant la même procédure, les paramètres utilisés dans la simulation des écoulements en subsurface sont également estimés indirectement, puisque des mesures directes de l'écoulement en subsurface et de l'exfiltration sont difficiles à obtenir. Le modèle de distribution spatio-temporelle de la pluie a aussi été validé en utilisant les images radar avec la structure de la pluie provoquée par un nuage supercellulaire. Les hyétogrammes obtenus sur plusieurs points du terrain sont très proches de ceux enregistrées avec les images radar. Les résultats de la validation du modèle sur les épisodes de fortes crues présentent une bonne synchronisation entre le débit simulé et le débit observé. Cette corrélation a été mesurée avec trois critères d'efficacité, qui ont tous donné des valeurs satisfaisantes. Cela montre que le modèle développé est valide et il peut être utilisé pour des épisodes extrêmes tels que la PMP. Des simulations ont été faites sur plusieurs bassins ayant comme données d'entrée la pluie de type PMP. Des conditions variées ont été utilisées, comme la situation du sol saturé, ou non-saturé, ou la présence d'une couche de neige sur le terrain au moment de la PMP, ce qui conduit à une estimation de PMF pour des scénarios catastrophiques. Enfin, les résultats obtenus montrent comment mieux estimer la valeur de la crue de sécurité des barrages, à partir d'une pluie extrême dix-millennale avec une période de retour de 10'000 ans.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Introduction Le tabac non fumé (smokeless tobacco) comprend les formes de tabac qui ne sont pas consommées par combustion. Les deux principaux types de consommation sont le snus, par application sur la muqueuse orale, et le tabac à sniffer. Le premier se consomme surtout en Suède et les pays scandinaves ; la consommation du second a récemment fait son apparition en Suisse malgré son interdiction. Méthodes Nous avons utilisé la base de données de la Cohort on substance use risk factors (C-surf), une cohorte de jeunes hommes suisses se présentant à 3 centres de recrutement de l'Armée Suisse (Lausanne, Windisch et Mels). Un total de 13 245 jeunes hommes ont été invités à participer à cette enquête sur la consommation de substances. Le taux de réponses a été de 45.2%. Nous avons inclu 5720 participants pour cette analyse et utilisé une approche statistique par régression logistique pour identifier les déterminants de consommation de tabac non fumé. Résultats L'âge moyen des participants était de 19.5 ans. 8% des participants ont déclaré consommer régulièrement du tabac à sniffer et 3% consommer du snus au moins une fois par mois. La consommation de tabac à sniffer était associée à la consommation non quotidienne de cigarettes [odds ratio (OR) 2.41, 95% confidence interval (Cl) 1.90-3.05], ainsi qu'à celle d'alcool à risque (OR 3.93, 95% Cl 1.86-8.32) etépisodique (OR 7.41, 95% Cl 4.11-13.38). Un BMI élevé, un revenu familial au-dessus de la moyenne et un faible niveau de formation étaient également associés à la consommation de tabac à sniffer, alors que la consommation occasionnelle de cannabis l'était négativement. Les facteurs associés à la consommation de snus étaient similaires à ceux du tabac à sniffer. Conclusions Un jeune homme suisse sur 12 consomme du tabac à sniffer et 3% consomment du snus. La consommation de tabac non fumé est associée à d'autres comportements à risque, en particulier la consommation d'alcool à risque. Les résultats de la régression logistique multivariée montrent une association de la consommation de tabac non fumé à la consommation d'alcool à risque. Le rôle du tabac non fumé dans l'induction de la dépendance à la nicotine et dans l'initiation à d'autres comportements à risque, ainsi que ses effets sur la santé devront être analysés sur la base d'études longitudinales.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Introduction: Le captopril, inhibiteur de l'enzyme de conversion de l'angiotensine, est largement utilisé dans le traitement de l'hypertension artérielle et de l'insuffisance cardiaque chez l'adulte et l'enfant . De par son instabilité en milieu aqueux (oxydation en captopril disulfure), il n'est actuellement commercialisé que sous forme de comprimés. La prescription fréquente de doses faibles et variables en pédiatrie justifiait le développement d'une forme orale liquide, tant sur le plan pratique et économique, que sur celui de la sécurité d'administration. Cependant toutes les formulations orales liquides publiées présentent une stabilité courte, ne dépassant guère 1 mois. Objectif: Développer une forme orale liquide de captopril d'une stabilité d'au moins 6 mois. Méthode: Sur la base des données de la littérature, élaboration de 8 formulations liquides différentes de captopril 1 mg/ml (concentration permettant le prélèvement d'un volume adéquat pour une administration en pédiatrie). Mise au point d'une « stability indicating method » par HPLC par des tests de dégradation accélérée à la chaleur (100°C), en milieu acide, basique, en présence d'un agent oxydant et de la lumière. Sélection de la formulation la plus stable durant le premier mois. Etude de stabilité sur 2 ans de 3 lots (3 échantillons/lot) dans leur conditionnement final à température ambiante (TA), au frigo et à 40° ± 2°C. Contrôle microbiologique au début et à la fin de l'étude selon la méthode de la Ph. Eur. (Ed. 3). Résultats: La formule retenue est une solution aqueuse de captopril 1 mg/ml additionnée d'EDTA 1 mg/ml comme stabilisateur et conditionnée dans des flacons VERAL en verre brun de 60 ml. Après dégradation dans les conditions définies ci-dessus, le pic du captopril est nettement séparé sur les chromatogrammes de ceux des produits de dégradation. Après 2 ans, la concentration mesurée est de 104.6% (±0.32%) au frigo, 103.6% (±0.86%) à TA et 96.5 % (±0.02%) à 40°C. Aucune croissance n'a été observée sur la durée de l'étude. Discussion et conclusion: La solution de captopril 1 mg/ml mise au point est simple à préparer. En partant du principe actif pur et en présence d'EDTA comme complexant, les traces de métaux éventuellement présents n'induisent pas l'oxydation du captopril et par conséquent le recours à d'autres stabilisateurs n'est pas nécessaire. La méthode HPLC développée est une « stability indicating method ». Les résultats de l'étude ont montré que cette solution a une durée de validité de 2 ans au frigo et à TA. Compte tenu du fait que la préparation ne contient pas d'agent antimicrobien, une conservation au frigo (2 - 8°C) est toutefois recommandée. La formule proposée présente un réel avantage en pédiatrie tant sur le plan de la sécurité d'administration que sur celui de l'économie.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Contexte: Plusieurs études randomisées ont démontré que l'hypothermie thérapeutique modérée (33 à 34°C pendant 12 à 24H) diminue la mortalité intra-hospitalière et améliore le pronostic neurologique chez les patients comateux suite à un arrêt cardio-respiratoire (ACR). Néanmoins cette technique n'est pas dénuée d'effets secondaires au premier rang desquels on trouve les perturbations infectieuses, cardiovasculaires et hydroélectriques. L'introduction d'une prophylaxie antibiotique susceptible de diminuer l'incidence des complications infectieuses chez ces patients est préconisée par certains experts. Objectif: Evaluer si une prophylaxie antibiotique d'Augmentin® pendant 5 à 7 jours peut réduire l'incidence de pneumonies acquises sous ventilateur (VAP) au sein d'une cohorte de patients comateux hospitalisés à la suite d'un arrêt cardio-respiratoire et traités par hypothermie thérapeutique. Méthodologie: Analyse d'une base de données prospective comprenant des patients admis aux SI du Centre hospitalier universitaire vaudois (CHUV) entre juin 2007 et juillet 2011 en raison d'un ACR et traités par hypothermie thérapeutique, selon notre protocole standard de prise en charge. Pour définir si une infection était présente, nous avons analysé rétrospectivement le dossier informatique de chaque patient à la recherche des données nécessaires (radiographies du thorax, microbiologie, etc.). Nous avons également calculé le score CPIS (Clinical Pulmonary Infection Score) quotidien de chaque patient lorsque cela était possible. Le score CPIS a été validé comme outil visant à faciliter le diagnostic de VAP. Il est calculé sur la base de points attribués pour différents signes et symptômes de pneumonie. Résultats: 147 patients (âge moyen 62 ans, durée moyenne de l'arrêt circulatoire 26 min) ont été étudiés. 33% ont développé une infection (dont 30,5% de VAP) parmi lesquels 32/71 (45%) des patients qui n'ont pas reçu de prophylaxie et 17/76 (22%) de ceux qui en ont reçu une (P=0.0035). Il y a avait significativement plus de patients avec un CPIS >6 dans le groupe sans prophylaxie au jour 3 (36/65 [55%] vs. 17/69 [25%], P=0.003) et au jour 5 (24/42 [57%] vs. 17/51 [33%], P=0.02) après admission. Le CPIS médian était aussi plus bas chez les patients avec prophylaxie aux 5ème et 7ème jours (6 [range 0-10] vs. 4.5 [range 0-11], P=0.03 et 7 [range 0-10] vs. 4 [range 0-19], P=0.02, respectivement). La mortalité hospitalière était comparable entre les deux groupes (36/71 [51%] vs. 35/76 [46%], P=0.58). Conclusions: Une prophylaxie antibiotique est une mesure efficace pour réduire la survenue de VAP chez les patients avec ACR et hypothermie thérapeutique. Ce résultat devrait encourager des études à plus large échelle afin de démontrer si une antiobioprophylaxie peut également diminuer la mortalité hospitalière. Le score CPIS est un outil valide et utile dans ce contexte pour faciliter le diagnostic de pneumonie liée au ventilateur.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Si dans certains domaines (ex. les services de l'emploi) la co-production est bien implantée, elle paraît plus ardue dans d'autres types de services publics, comme la police. La co-production de la sécurité est-elle faisable ? Quelles sont les volontés de part et d'autre pour développer ce partenariat ? À l'aune de la police de proximité en Suisse et sur la base de données quantitatives et qualitatives, cet article apporte des résultats innovants. If in some administrations (eg. employment services) it is clearly well established, the co-production seems to be more difficult in other services, like the police. Thus, is the co-production of security services feasible ? Are both parties (police forces and citizens) ready for such a process ? In the light of community policing in Switzerland and on the basis of quantitative and qualitative data, this article will provide innovative results and research avenues in the field.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les catastrophes sont souvent perçues comme des événements rapides et aléatoires. Si les déclencheurs peuvent être soudains, les catastrophes, elles, sont le résultat d'une accumulation des conséquences d'actions et de décisions inappropriées ainsi que du changement global. Pour modifier cette perception du risque, des outils de sensibilisation sont nécessaires. Des méthodes quantitatives ont été développées et ont permis d'identifier la distribution et les facteurs sous- jacents du risque.¦Le risque de catastrophes résulte de l'intersection entre aléas, exposition et vulnérabilité. La fréquence et l'intensité des aléas peuvent être influencées par le changement climatique ou le déclin des écosystèmes, la croissance démographique augmente l'exposition, alors que l'évolution du niveau de développement affecte la vulnérabilité. Chacune de ses composantes pouvant changer, le risque est dynamique et doit être réévalué périodiquement par les gouvernements, les assurances ou les agences de développement. Au niveau global, ces analyses sont souvent effectuées à l'aide de base de données sur les pertes enregistrées. Nos résultats montrent que celles-ci sont susceptibles d'être biaisées notamment par l'amélioration de l'accès à l'information. Elles ne sont pas exhaustives et ne donnent pas d'information sur l'exposition, l'intensité ou la vulnérabilité. Une nouvelle approche, indépendante des pertes reportées, est donc nécessaire.¦Les recherches présentées ici ont été mandatées par les Nations Unies et par des agences oeuvrant dans le développement et l'environnement (PNUD, l'UNISDR, la GTZ, le PNUE ou l'UICN). Ces organismes avaient besoin d'une évaluation quantitative sur les facteurs sous-jacents du risque, afin de sensibiliser les décideurs et pour la priorisation des projets de réduction des risques de désastres.¦La méthode est basée sur les systèmes d'information géographique, la télédétection, les bases de données et l'analyse statistique. Une importante quantité de données (1,7 Tb) et plusieurs milliers d'heures de calculs ont été nécessaires. Un modèle de risque global a été élaboré pour révéler la distribution des aléas, de l'exposition et des risques, ainsi que pour l'identification des facteurs de risque sous- jacent de plusieurs aléas (inondations, cyclones tropicaux, séismes et glissements de terrain). Deux indexes de risque multiples ont été générés pour comparer les pays. Les résultats incluent une évaluation du rôle de l'intensité de l'aléa, de l'exposition, de la pauvreté, de la gouvernance dans la configuration et les tendances du risque. Il apparaît que les facteurs de vulnérabilité changent en fonction du type d'aléa, et contrairement à l'exposition, leur poids décroît quand l'intensité augmente.¦Au niveau local, la méthode a été testée pour mettre en évidence l'influence du changement climatique et du déclin des écosystèmes sur l'aléa. Dans le nord du Pakistan, la déforestation induit une augmentation de la susceptibilité des glissements de terrain. Les recherches menées au Pérou (à base d'imagerie satellitaire et de collecte de données au sol) révèlent un retrait glaciaire rapide et donnent une évaluation du volume de glace restante ainsi que des scénarios sur l'évolution possible.¦Ces résultats ont été présentés à des publics différents, notamment en face de 160 gouvernements. Les résultats et les données générées sont accessibles en ligne (http://preview.grid.unep.ch). La méthode est flexible et facilement transposable à des échelles et problématiques différentes, offrant de bonnes perspectives pour l'adaptation à d'autres domaines de recherche.¦La caractérisation du risque au niveau global et l'identification du rôle des écosystèmes dans le risque de catastrophe est en plein développement. Ces recherches ont révélés de nombreux défis, certains ont été résolus, d'autres sont restés des limitations. Cependant, il apparaît clairement que le niveau de développement configure line grande partie des risques de catastrophes. La dynamique du risque est gouvernée principalement par le changement global.¦Disasters are often perceived as fast and random events. If the triggers may be sudden, disasters are the result of an accumulation of actions, consequences from inappropriate decisions and from global change. To modify this perception of risk, advocacy tools are needed. Quantitative methods have been developed to identify the distribution and the underlying factors of risk.¦Disaster risk is resulting from the intersection of hazards, exposure and vulnerability. The frequency and intensity of hazards can be influenced by climate change or by the decline of ecosystems. Population growth increases the exposure, while changes in the level of development affect the vulnerability. Given that each of its components may change, the risk is dynamic and should be reviewed periodically by governments, insurance companies or development agencies. At the global level, these analyses are often performed using databases on reported losses. Our results show that these are likely to be biased in particular by improvements in access to information. International losses databases are not exhaustive and do not give information on exposure, the intensity or vulnerability. A new approach, independent of reported losses, is necessary.¦The researches presented here have been mandated by the United Nations and agencies working in the development and the environment (UNDP, UNISDR, GTZ, UNEP and IUCN). These organizations needed a quantitative assessment of the underlying factors of risk, to raise awareness amongst policymakers and to prioritize disaster risk reduction projects.¦The method is based on geographic information systems, remote sensing, databases and statistical analysis. It required a large amount of data (1.7 Tb of data on both the physical environment and socio-economic parameters) and several thousand hours of processing were necessary. A comprehensive risk model was developed to reveal the distribution of hazards, exposure and risk, and to identify underlying risk factors. These were performed for several hazards (e.g. floods, tropical cyclones, earthquakes and landslides). Two different multiple risk indexes were generated to compare countries. The results include an evaluation of the role of the intensity of the hazard, exposure, poverty, governance in the pattern and trends of risk. It appears that the vulnerability factors change depending on the type of hazard, and contrary to the exposure, their weight decreases as the intensity increases.¦Locally, the method was tested to highlight the influence of climate change and the ecosystems decline on the hazard. In northern Pakistan, deforestation exacerbates the susceptibility of landslides. Researches in Peru (based on satellite imagery and ground data collection) revealed a rapid glacier retreat and give an assessment of the remaining ice volume as well as scenarios of possible evolution.¦These results were presented to different audiences, including in front of 160 governments. The results and data generated are made available online through an open source SDI (http://preview.grid.unep.ch). The method is flexible and easily transferable to different scales and issues, with good prospects for adaptation to other research areas. The risk characterization at a global level and identifying the role of ecosystems in disaster risk is booming. These researches have revealed many challenges, some were resolved, while others remained limitations. However, it is clear that the level of development, and more over, unsustainable development, configures a large part of disaster risk and that the dynamics of risk is primarily governed by global change.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Sur la base de données ethnographiques rendant compte d'échanges quotidiens entre une équipe mobile de soins palliatifs et différents services de « première ligne » d'un hôpital, cet article considère les relations d'intermédicalité entre ces cultures médicales divergentes. Dans un premier temps, les obstacles qui émergent lors de tentatives d'intégration du nouveau modèle proposé par les soins palliatifs seront discutés. En effet, celui-ci introduit une conception nouvelle de la trajectoire de la maladie incurable traduisant des valeurs fondamentales telles que prendre du temps et s'adapter aux besoins du patient tout en soulageant efficacement les symptômes liés à l'incurabilité et à la fin de vie. Les données recueillies dans cette enquête montrent que, tout en se confrontant à l'ordre hospitalier, les soins palliatifs participent dans une certaine mesure au renouvellement de pratiques institutionnelles. Dans un deuxième temps, ces confrontations et transformations seront lues à la lumière d'enjeux de pouvoir sous-jacents influençant le processus de reconnaissance des soins palliatifs dans le champ médical. En tant que nouvelle spécialité « à contre-courant », une forte adaptation est requise laissant poindre le risque d'assimilation de l'équipe mobile à l'institution hospitalière.

Relevância:

80.00% 80.00%

Publicador:

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Afin que la base de données de l'assurance invalidite (AI) soit utilisable à des fins de recherche, il serait nécessaire de restructurer le mode de récolte de données; unifier les définitions de l'impotence et de l'invalidité utilisées à l'AI avec celles de l'Organisation mondiale de la sante (OMS); employer les codes de la classification internationale des maladies (CIM); organiser le système de telle manière qu'il soit possible d'obtenir des listes d'assurés par année de naissance, par année d'entrée à l'AI, par diagnostic et par année d'âge.

Relevância:

80.00% 80.00%

Publicador:

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cet article est la seconde partie d'une série de quatre consacrée aux résultats d'une veille bibliographique sur la surveillance biologique de l'exposition aux produits chimiques en milieu de travail (SBEPC MT). Alors que la précédente partie présentait les objectifs et l'organisation de la veille, cette partie ainsi que la partie 3 vont donc présenter une vue d'ensemble de la base de données en fonction de l'indexation des articles analysés par différents mots clés.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les cellules CD8? T cytolytiques (CTL) sont les principaux effecteurs du système immunitaire adaptatif contre les infections et les tumeurs. La récente identification d?antigènes tumoraux humains reconnus par des cellules T cytolytiques est la base pour le, développement des vaccins antigène spécifiques contre le cancer. Le nombre d?antigènes tumoraux reconnus par des CTL que puisse être utilisé comme cible pour la vaccination des patients atteints du cancer est encore limité. Une nouvelle technique, simple et rapide, vient d?être proposée pour l?identification d?antigènes reconnus par des CTL. Elle se base sur l?utilisation de librairies combinatoriales de peptides arrangées en un format de "scanning" ou balayage par position (PS-SCL). La première partie de cette étude a consisté à valider cette nouvelle technique par une analyse détaillée de la reconnaissance des PS-SCL par différents clones de CTL spécifiques pour des antigènes associés à la tumeur (TAA) connus ainsi que par des clones de spécificité inconnue. Les résultats de ces analyses révèlent que pour tous les clones, la plupart des acides aminés qui composent la séquence du peptide antigénique naturel ont été identifiés par l?utilisation des PS-SCL. Les résultats obtenus ont permis d?identifier des peptides analogues ayant une antigènicité augmentée par rapport au peptide naturel, ainsi que des peptides comportant de multiples modifications de séquence, mais présentant la même réactivité que le peptide naturel. La deuxième partie de cette étude a consisté à effectuer des analyses biométriques des résultats complexes générés par la PS-SCL. Cette approche a permis l?identification des séquences correspondant aux épitopes naturels à partir de bases de données de peptides publiques. Parmi des milliers de peptides, les séquences naturelles se trouvent comprises dans les 30 séquences ayant les scores potentiels de stimulation les plus élevés pour chaque TAA étudié. Mais plus important encore, l?utilisation des PS-SCL avec un clone réactif contre des cellules tumorales mais de spécificité inconnue nous a permis d?identifier I?epitope reconnu par ce clone. Les données présentées ici encouragent l?utilisation des PS-SCL pour l?identification et l?optimisation d?épitopes pour des CTL réactifs anti-tumoraux, ainsi que pour l?étude de la reconnaissance dégénérée d?antigènes par les CTL.<br/><br/>CD8+ cytolytic T lymphocytes (CTL) are the main effector cells of the adaptive immune system against infection and tumors. The recent identification of moleculariy defined human tumor Ags recognized by autologous CTL has opened new opportunities for the development of Ag-specific cancer vaccines. Despite extensive work, however, the number of CTL-defined tumor Ags that are suitable targets for the vaccination of cancer patients is still limited, especially because of the laborious and time consuming nature of the procedures currentiy used for their identification. The use of combinatorial peptide libraries in positionai scanning format (Positional Scanning Synthetic Combinatorial Libraries, PS-SCL)' has recently been proposed as an alternative approach for the identification of these epitopes. To validate this approach, we analyzed in detail the recognition of PS-SCL by tumor-reactive CTL clones specific for multiple well-defined tumor-associated Ags (TAA) as well as by tumor-reactive CTL clones of unknown specificity. The results of these analyses revealed that for all the TAA-specific clones studied most of the amino acids composing the native antigenic peptide sequences could be identified through the use of PS-SCL. Based on the data obtained from the screening of PS-SCL, we could design peptide analogs of increased antigenicity as well as cross-reactive analog peptides containing multiple amino acid substitutions. In addition, the resuits of PS-SCL-screening combined with a recently developed biometric data analysis (PS-SCL-based biometric database analysis) allowed the identification of the native peptides in public protein databases among the 30 most active sequences, and this was the case for all the TAA studied. More importantiy, the screening of PS- SCL with a tumor-reactive CTL clone of unknown specificity resulted in the identification of the actual epitope. Overall, these data encourage the use of PS-SCL not oniy for the identification and optimization of tumor-associated CTL epitopes, but also for the analysis of degeneracy in T lymphocyte receptor (TCR) recognition of tumor Ags.<br/><br/>Les cellules T CD8? cytolytiques font partie des globules blancs du sang et sont les principales responsables de la lutte contre les infections et les tumeurs. Les immunologistes cherchent depuis des années à identifier des molécules exprimées et présentées à la surface des tumeurs qui puissent être reconnues par des cellules T CD8? cytolytiques capables ensuite de tuer ces tumeurs de façon spécifique. Ce type de molécules représente la base pour le développement de vaccins contre le cancer puisqu?elles pourraient être injectées aux patients afin d?induire une réponse anti- tumorale. A présent, il y a très peu de molécules capables de stimuler le système immunitaire contre les tumeurs qui sont connues parce que les techniques développées à ce jour pour leur identification sont complexes et longues. Une nouvelle technique vient d?être proposée pour l?identification de ce type de molécules qui se base sur l?utilisation de librairies de peptides. Ces librairies représentent toutes les combinaisons possibles des composants de base des molécules recherchées. La première partie de cette étude a consisté à valider cette nouvelle technique en utilisant des cellules T CD8? cytolytiques capables de tuer des cellules tumorales en reconnaissant une molécule connue présente à leur surface. On a démontré que l?utilisation des librairies permet d?identifier la plupart des composants de base de la molécule reconnue par les cellules T CD8? cytolytiques utilisées. La deuxième partie de cette étude a consisté à effectuer une recherche des molécules potentiellement actives dans des protéines présentes dans des bases des données en utilisant un programme informatique qui permet de classer les molécules sur la base de leur activité biologique. Parmi des milliers de molécules de la base de données, celles reconnues par nos cellules T CD8? cytolytiques ont été trouvées parmi les plus actives. Plus intéressant encore, la combinaison de ces deux techniques nous a permis d?identifier la molécule reconnue par une population de cellules T CD8? cytolytiques ayant une activité anti-tumorale, mais pour laquelle on ne connaissait pas la spécificité. Nos résultats encouragent l?utilisation des librairies pour trouver et optimiser des molécules reconnues spécifiquement par des cellules T CD8? cytolytiques capables de tuer des tumeurs.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Résumé: L'automatisation du séquençage et de l'annotation des génomes, ainsi que l'application à large échelle de méthodes de mesure de l'expression génique, génèrent une quantité phénoménale de données pour des organismes modèles tels que l'homme ou la souris. Dans ce déluge de données, il devient très difficile d'obtenir des informations spécifiques à un organisme ou à un gène, et une telle recherche aboutit fréquemment à des réponses fragmentées, voir incomplètes. La création d'une base de données capable de gérer et d'intégrer aussi bien les données génomiques que les données transcriptomiques peut grandement améliorer la vitesse de recherche ainsi que la qualité des résultats obtenus, en permettant une comparaison directe de mesures d'expression des gènes provenant d'expériences réalisées grâce à des techniques différentes. L'objectif principal de ce projet, appelé CleanEx, est de fournir un accès direct aux données d'expression publiques par le biais de noms de gènes officiels, et de représenter des données d'expression produites selon des protocoles différents de manière à faciliter une analyse générale et une comparaison entre plusieurs jeux de données. Une mise à jour cohérente et régulière de la nomenclature des gènes est assurée en associant chaque expérience d'expression de gène à un identificateur permanent de la séquence-cible, donnant une description physique de la population d'ARN visée par l'expérience. Ces identificateurs sont ensuite associés à intervalles réguliers aux catalogues, en constante évolution, des gènes d'organismes modèles. Cette procédure automatique de traçage se fonde en partie sur des ressources externes d'information génomique, telles que UniGene et RefSeq. La partie centrale de CleanEx consiste en un index de gènes établi de manière hebdomadaire et qui contient les liens à toutes les données publiques d'expression déjà incorporées au système. En outre, la base de données des séquences-cible fournit un lien sur le gène correspondant ainsi qu'un contrôle de qualité de ce lien pour différents types de ressources expérimentales, telles que des clones ou des sondes Affymetrix. Le système de recherche en ligne de CleanEx offre un accès aux entrées individuelles ainsi qu'à des outils d'analyse croisée de jeux de donnnées. Ces outils se sont avérés très efficaces dans le cadre de la comparaison de l'expression de gènes, ainsi que, dans une certaine mesure, dans la détection d'une variation de cette expression liée au phénomène d'épissage alternatif. Les fichiers et les outils de CleanEx sont accessibles en ligne (http://www.cleanex.isb-sib.ch/). Abstract: The automatic genome sequencing and annotation, as well as the large-scale gene expression measurements methods, generate a massive amount of data for model organisms. Searching for genespecific or organism-specific information througout all the different databases has become a very difficult task, and often results in fragmented and unrelated answers. The generation of a database which will federate and integrate genomic and transcriptomic data together will greatly improve the search speed as well as the quality of the results by allowing a direct comparison of expression results obtained by different techniques. The main goal of this project, called the CleanEx database, is thus to provide access to public gene expression data via unique gene names and to represent heterogeneous expression data produced by different technologies in a way that facilitates joint analysis and crossdataset comparisons. A consistent and uptodate gene nomenclature is achieved by associating each single gene expression experiment with a permanent target identifier consisting of a physical description of the targeted RNA population or the hybridization reagent used. These targets are then mapped at regular intervals to the growing and evolving catalogues of genes from model organisms, such as human and mouse. The completely automatic mapping procedure relies partly on external genome information resources such as UniGene and RefSeq. The central part of CleanEx is a weekly built gene index containing crossreferences to all public expression data already incorporated into the system. In addition, the expression target database of CleanEx provides gene mapping and quality control information for various types of experimental resources, such as cDNA clones or Affymetrix probe sets. The Affymetrix mapping files are accessible as text files, for further use in external applications, and as individual entries, via the webbased interfaces . The CleanEx webbased query interfaces offer access to individual entries via text string searches or quantitative expression criteria, as well as crossdataset analysis tools, and crosschip gene comparison. These tools have proven to be very efficient in expression data comparison and even, to a certain extent, in detection of differentially expressed splice variants. The CleanEx flat files and tools are available online at: http://www.cleanex.isbsib. ch/.