891 resultados para Rockwell Hardness Tester


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : L'immunité innée regroupe les mécanismes moléculaires et cellulaires formant la première ligne de défense contre les infections microbiennes. La détection des micro-organismes pathogènes est assurée par des cellules sentinelles (cellules dendritiques et macrophages) qui jouent un rôle fondamental dans l'initiation des mécanismes de défense de l'hôte. Au contact de produits microbiens, ces cellules produisent un large échantillonnage de molécules, dont des cytokines, impliquées dans le développement de la réponse inflammatoire. La régulation de cette réponse relève d'un équilibre délicat, son insuffisance tant que son excès pouvant compromettre le devenir des patients infectés. La sepsis sévère et le choc septique représentent les formes les plus sévères d'infection, et leur mortalité demeure élevée (25 à 30% pour la sepsis sévère et 50 à 60% pour le choc septique). De plus, l'incidence de la sepsis tend à augmenter, atteignant en 2000 plus de 240 cas pour 100'000 personnes en Grande-Bretagne. La sepsis est caractérisée dans sa phase aiguë par une réponse inflammatoire exubérante. La plupart des thérapies visant à la bloquer ont toutefois montré des bénéfices incertains lors de leur application clinique. Il est donc impératif d'identifier de nouvelles cibles thérapeutiques. Les "Toll-like receptors" (TLRs) sont une famille de récepteurs qui jouent un rôle fondamental dans la détection des micro-organismes par les cellules du système immunitaire inné. Parmi eux, TLR4 est indispensable à la reconnaissance du lipopolysaccharide (LPS) des bactéries Gram-négatives. L'interaction entre TLR4 et le LPS représentant un élément précoce de la réponse de l'hôte à l'infection, nous avons émit l'hypothèse que TLR4 pourrait représenter une cible de choix en vue du développement de nouvelles thérapies contre la sepsis. Dans l'objectif de valider ce concept, nous avons, dans un premier temps, démontré que des souris génétiquement déficientes en TLR4 étaient totalement résistantes au choc septique induit par Escherichia coli (E. coli), une bactérie Gram-négative fréquemment responsable de sepsis. Forts de cette observation, nous avons développé une molécule recombinante composée du domaine extracellulaire de TLR4 fusionné à la partie IgGi-Fc. Cette molécule soluble, qui inhibait la réponse des macrophages au LPS in vitro, a été utilisée pour générer des anticorps anti-TLR4 chez le lapin. La spécificité et l'efficacité de ces anticorps ont été prouvées en démontrant que les anti-TLR4 bloquaient les signaux d'activation intracellulaire et la production de TNF et d'IL-6 en réponse au LPS et aux bactéries Gram-négatives in vitro et in vivo. Enfin, l'efficacité des ces anticorps a été testée dans des modèles de sepsis chez la souris. Ainsi, l'injection prophylactique (-lh) ou thérapeutique (+3h) d'anticorps anti-TLR4 réduisait la production de TNF et protégeait les animaux de la mort. De manière spectaculaire, ces anticorps réduisaient également la production de TNF et protégeaient de la sepsis à E. coli lorsqu'ils étaient administrés de manière prophylactique (-4h) et thérapeutique, jusqu'à 13 heures après l'initiation de l'infection. Ces résultats indiquent donc qu'il est possible de bloquer le développement de la réponse inflammatoire et de protéger du choc septique à bactéries Gram-négatives en utilisant des thérapies ciblant TLR4. Par ailleurs, ils suggèrent qu'une fenêtre d'opportunité de plusieurs heures pourrait être mise à profit pour initier un traitement chez les patients septiques. Ces résultats devraient encourager la poursuite des essais cliniques en cours qui visent à tester l'efficacité de thérapies dirigées contre TLR4 comme traitement complémentaire de la sepsis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mise en perspective Le rein est un organe vital dont la fonction dépend en grande partie d'une perfusion tissulaire adéquate. Les techniques actuellement utilisées pour étudier la microcirculation rénale sont soit invasives soit très dispendieuses. L'échographie de contraste est une nouvelle technologie, non invasive, facile à réaliser au lit du malade et pour laquelle certaines techniques récemment présentées semblent permettre de quantifier la perfusion d'un organe. Une telle technique pourrait avoir des applications dans l'étude de l'insuffisance rénale aiguë. Buts de l'étude Notre étude vise à tester le potentiel de l'échographie de contraste pour détecter des modifications de la perfusion rénale, corticale et médullaire chez l'être humain. Plan de l'étude Nous avons étudié la microcirculation rénale par échographie de contraste chez 12 sujets sains. Les mesures ont été réalisées en baseline puis sous perfusion de doses croissantes d'angiotensine II (un puissant et spécifique vasoconstricteur rénal) et enfin après la prise orale d'un comprimé de Captopril (un puissant vasodilatateur rénal). Les valeurs obtenues par échographie de contraste ont été comparées à la perfusion globale rénale évaluée par la clairance du PAH, qui constitue le gold standard en physiologie rénale. Résultats principaux Le protocole a pu être réalisé sans complication. Les perfusions vasoactives ainsi que les différentes administrations de Sonovue ont été parfaitement tolérées. Les séquences vidéos ont été analysées par deux lecteurs et une bonne concordance a été trouvée. Nous avons trouvé une diminution statistiquement significative et dose dépendante de l'index de perfusion rénale lors de la perfusion d'angiotensine II: -45% (p<0.02) entre baseline et Ang II faible dose et -65% (p<0.01) entre baseline et Ang II à haute dose. Enfin, nous avons observé une hausse significative de cet indice après administration orale de Captopril (+35%, p>0.2). Ces changements étaient parallèles aux changements de flux plasmatique rénal mesurés par calcul de la clairance du PAH. Une corrélation moyenne mais significative (r=0.57, p=0.002) a été observée entre ces deux mesures. Conclusions et perspectives L'échographie de contraste est capable de détecter des modifications dans la microcirculation rénale induites par une perfusion d'angiotensine et ou une administration de Captopril. Il s'agit d'une technique rapide sensible et fiable qui pourrait participer à l'évaluation des patients souffrant d'insuffisance rénale aiguë. D'autres études sont nécessaires pour démontrer son utilité dans un contexte clinique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La réalisation d'une seconde ligne de métro (M2) dès 2004, passant dans le centre ville de Lausanne, a été l'opportunité de développer une méthodologie concernant des campagnes microgravimétriques dans un environnement urbain perturbé. Les corrections topographiques prennent une dimension particulière dans un tel milieu, car de nombreux objets non géologiques d'origine anthropogénique comme toutes sortes de sous-sols vides viennent perturber les mesures gravimétriques. Les études de génie civil d'avant projet de ce métro nous ont fournis une quantité importante d'informations cadastrales, notamment sur les contours des bâtiments, sur la position prévue du tube du M2, sur des profondeurs de sous-sol au voisinage du tube, mais aussi sur la géologie rencontré le long du corridor du M2 (issue des données lithologiques de forages géotechniques). La planimétrie des sous-sols a été traitée à l'aide des contours des bâtiments dans un SIG (Système d'Information Géographique), alors qu'une enquête de voisinage fut nécessaire pour mesurer la hauteur des sous-sols. Il a été alors possible, à partir d'un MNT (Modèle Numérique de Terrain) existant sur une grille au mètre, de mettre à jour celui ci avec les vides que représentent ces sous-sols. Les cycles de mesures gravimétriques ont été traités dans des bases de données Ac¬cess, pour permettre un plus grand contrôle des données, une plus grande rapidité de traitement, et une correction de relief rétroactive plus facile, notamment lorsque des mises à jour de la topographie ont lieu durant les travaux. Le quartier Caroline (entre le pont Bessières et la place de l'Ours) a été choisi comme zone d'étude. Le choix s'est porté sur ce quartier du fait que, durant ce travail de thèse, nous avions chronologiquement les phases pré et post creusement du tunnel du M2. Cela nous a permis d'effectuer deux campagnes gravimétriques (avant le creu¬sement durant l'été 2005 et après le creusement durant l'été 2007). Ces réitérations nous ont permis de tester notre modélisation du tunnel. En effet, en comparant les mesures des deux campagnes et la réponse gravifique du modèle du tube discrétisé en prismes rectangulaires, nous avons pu valider notre méthode de modélisation. La modélisation que nous avons développée nous permet de construire avec détail la forme de l'objet considéré avec la possibilité de recouper plusieurs fois des interfaces de terrains géologiques et la surface topographique. Ce type de modélisation peut s'appliquer à toutes constructions anthropogéniques de formes linéaires. Abstract The realization of a second underground (M2) in 2004, in downtown Lausanne, was the opportunity to develop a methodology of microgravity in urban environment. Terrain corrections take on special meaning in such environment. Many non-geologic anthropogenic objects like basements act as perturbation of gravity measurements. Civil engineering provided a large amount of cadastral informations, including out¬lines of buildings, M2 tube position, depths of some basements in the vicinity of the M2 corridor, and also on the geology encountered along the M2 corridor (from the lithological data from boreholes). Geometry of basements was deduced from building outlines in a GIS (Geographic Information System). Field investigation was carried out to measure or estimate heights of basements. A DEM (Digital Elevation Model) of the city of Lausanne is updated from voids of basements. Gravity cycles have been processed in Access database, to enable greater control of data, enhance speed processing, and retroactive terrain correction easier, when update of topographic surface are available. Caroline area (between the bridge Saint-Martin and Place de l'Ours) was chosen as the study area. This area was in particular interest because it was before and after digging in this thesis. This allowed us to conduct two gravity surveys (before excavation during summer 2005 and after excavation during summer 2007). These re-occupations enable us to test our modélisation of the tube. Actually, by comparing the difference of measurements between the both surveys and the gravity response of our model (by rectangular prisms), we were able to validate our modeling. The modeling method we developed allows us to construct detailed shape of an object with possibility to cross land geological interfaces and surface topography. This type of modélisation can be applied to all anthropogenic structures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé de l'étude La surveillance de la prescription des antibiotiques en milieu hospitalier est une des mesures recommandées pour prévenir l'émergence de bactéries résistantes. La consommation d'antibiotiques est généralement exprimée en termes de DDD (defined daily dose) rapporté au taux d'occupation (jours patients). Cette mesure ne tient cependant pas compte de la variation de la casuistique d'un service au cours du temps. La consommation d'antibiotiques est influencée par l'incidence des infections, qui peut être saisonnière ou varier selon les circonstances épidémiologiques, ainsi que par les habitudes des médecins en termes de prescription. Une échelle de mesure adaptée à ces paramètres est donc capitale pour rendre compte de la consommation d'antibiotiques au sein d'un service et identifier de possibles dérivations dans les habitudes de prescriptions. Nous avons émis l'hypothèse que le nombre de demandes d'hémocultures pouvait servir d'indicateur de la charge infectieuse d'un service. Une analyse préliminaire a permis d'établir une bonne relation entre ce paramètre et l'incidence d'événements infectieux en comparaison à d'autres paramètres testés (nombre de prélèvements microbiologiques provenant de sites stériles ou nombre total de prélèvements microbiologiques). Sur la base de cette hypothèse, nous avons analysé la consommation d'antibiotiques d'une unité de médecine générale (Service de Médecine Interne du CHUV) sur seize trimestres consécutifs en comparant deux échelles de mesures : la méthode standard en DDD par jours patients et une échelle ajustée à la charge infectieuse (DDD par nombre de demandes d'hémocultures). L'échelle ajustée aux hémocultures a permis d'identifier trois trimestres avec une consommation anormalement élevée qui n'avaient pas été classés comme tels par l'échelle standard (consommation dans les normes en DDD par jours patients). Une analyse détaillée d'un de ces trimestres a confirmé une incidence d'infections moins élevée en comparaison à un trimestre de référence (proche de la norme selon les deux échelles), alors que la corrélation entre infections et demandes d'hémocultures était similaire pour les deux périodes. De même, l'échelle ajustée ä la charge infectieuse a démontré une consommation dans la norme pour un trimestre avec une consommation en apparence trop élevée selon l'échelle standard en raison d'une incidence d'infections plus élevée pour cette période. Cette étude a donc permis une identification plus performante et plus précise de périodes avec des dérivations dans la pratique de la prescription des antibiotiques en utilisant une échelle de mesure ajustée à la charge infectieuse d'un service au cours du temps. Nous avons démontré que le nombre d'hémocultures prélevées était un indicateur stable de la charge infectieuse dans un service de médecine générale. Ceci ne permet cependant pas de généraliser l'usage de cet indicateur pour tous les types de service. La pratique des hémocultures peut, en effet, varier d'une unité à l'autre, ou entres différentes institutions. ll convient donc de tester la validité de ce paramètre dans un service avant de l'appliquer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction Actuellement, les projets européens concernant l'harmonisation des méthodes de profilage se concentrent principalement sur les drogues de type synthétique telles que les ecstasy et les dérivés de la phényléthylamine [Aalberg L. et al. 2005, Aalberg L. et al. 2005, SMT Project 2001, CHAMP Project 2003]. Néanmoins, d'après le rapport annuel 2005 de l'Agence Européenne des Drogues (EMCDDA), la cocaïne est devenue un élément majeur du paysage européen des stupéfiants. De même, les dernières statistiques de l'Office Fédéral de la Police Suisse montrent que les saisies de cocaïne ont quasiment doublé entre 2003 et 2004 pour atteindre des quantités jamais vues auparavant. Le 7ème programme cadre européen, pour la recherche et le développement technologique, propose d'ailleurs un sujet concernant «la détermination et le pistage des composés utilisés lors de la production de certaines substances ». La cocaïne est donc devenue un thème prioritaire en Europe et l'utilisation des méthodes de profilage est un moyen puissant pour établir des liens entre des saisies. Les méthodes de profilage de la cocaïne sont utilisées par quelques laboratoires mais il y a peu ou quasiment pas d'échange d'informations aussi bien concernant les données obtenues que les méthodes utilisées afin d'améliorer la lutte contre le trafic de stupéfiants. Aucune recherche relative à l'harmonisation des méthodes entre deux laboratoires n'a été réalisée à ce jour. Le projet Interreg IIIA avait pour objectif de fournir du renseignement forensique en matière de stupéfiants, plus précisément dans ce cas à la frontière franco-suisse. Le processus de profilage repose sur deux phases interconnectées. La première est consacrée au développement de la méthode analytique permettant l'extraction d'une signature chimique (alcaloïdes et autres composés d'origine, solvants, produits de coupage) ou physique (conditionnement) du produit illicite. La seconde se focalise sur l'intégration des résultats dans un but d'utilisation par les forces de police. Cette recherche s'est tout d'abord focalisée sur le profilage des alcaloïdes en optimisant et en validant la méthode analytique élaborée à l'IPS sur un même GC-FID [Guéniat O. 2004 et Esseiva P. 2004]. Ensuite, la méthode a été étendue à une comparaison de spécimens analysés sur deux appareils différents. Finalement, afin de tester les résultats obtenus par l'analyse des alcaloïdes, une méthode indépendante, la Statique Headspace couplée à un GC-FID, a été, utilisée pour le profilage des solvants. En effet, de nombreux solvants sont utilisés lors de la production de la cocaïne et il doit donc aussi, a priori, être possible d'établir des liens sur la base de cette analyse. Les informations fournies par ces deux méthodes ainsi que leur complémentarité ont été investiguées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Geophysical techniques can help to bridge the inherent gap with regard to spatial resolution and the range of coverage that plagues classical hydrological methods. This has lead to the emergence of the new and rapidly growing field of hydrogeophysics. Given the differing sensitivities of various geophysical techniques to hydrologically relevant parameters and their inherent trade-off between resolution and range the fundamental usefulness of multi-method hydrogeophysical surveys for reducing uncertainties in data analysis and interpretation is widely accepted. A major challenge arising from such endeavors is the quantitative integration of the resulting vast and diverse database in order to obtain a unified model of the probed subsurface region that is internally consistent with all available data. To address this problem, we have developed a strategy towards hydrogeophysical data integration based on Monte-Carlo-type conditional stochastic simulation that we consider to be particularly suitable for local-scale studies characterized by high-resolution and high-quality datasets. Monte-Carlo-based optimization techniques are flexible and versatile, allow for accounting for a wide variety of data and constraints of differing resolution and hardness and thus have the potential of providing, in a geostatistical sense, highly detailed and realistic models of the pertinent target parameter distributions. Compared to more conventional approaches of this kind, our approach provides significant advancements in the way that the larger-scale deterministic information resolved by the hydrogeophysical data can be accounted for, which represents an inherently problematic, and as of yet unresolved, aspect of Monte-Carlo-type conditional simulation techniques. We present the results of applying our algorithm to the integration of porosity log and tomographic crosshole georadar data to generate stochastic realizations of the local-scale porosity structure. Our procedure is first tested on pertinent synthetic data and then applied to corresponding field data collected at the Boise Hydrogeophysical Research Site near Boise, Idaho, USA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé La diminution de la biodiversité, à toutes les échelles spatiales et sur l'ensemble de la planète, compte parmi les problèmes les plus préoccupants de notre époque. En terme de conservation, il est aujourd'hui primordial de mieux comprendre les mécanismes qui créent et maintiennent la biodiversité dans les écosystèmes naturels ou anthropiques. La présente étude a pour principal objectif d'améliorer notre compréhension des patrons de biodiversité végétale et des mécanismes sous jacents, dans un écosystème complexe, riche en espèces et à forte valeur patrimoniale, les pâturages boisés jurassiens. Structure et échelle spatiales sont progressivement reconnues comme des dimensions incontournables dans l'étude des patrons de biodiversité. De plus, ces deux éléments jouent un rôle central dans plusieurs théories écologiques. Toutefois, peu d'hypothèses issues de simulations ou d'études théoriques concernant le lien entre structure spatiale du paysage et biodiversité ont été testées de façon empirique. De même, l'influence des différentes composantes de l'échelle spatiale sur les patrons de biodiversité est méconnue. Cette étude vise donc à tester quelques-unes de ces hypothèses et à explorer les patrons spatiaux de biodiversité dans un contexte multi-échelle, pour différentes mesures de biodiversité (richesse et composition en espèces) à l'aide de données de terrain. Ces données ont été collectées selon un plan d'échantillonnage hiérarchique. Dans un premier temps, nous avons testé l'hypothèse élémentaire selon laquelle la richesse spécifique (le nombre d'espèces sur une surface donnée) est liée à l'hétérogénéité environnementale quelque soit l'échelle. Nous avons décomposé l'hétérogénéité environnementale en deux parties, la variabilité des conditions environnementales et sa configuration spatiale. Nous avons montré que, en général, la richesse spécifique augmentait avec l'hétérogénéité de l'environnement : elle augmentait avec le nombre de types d'habitats et diminuait avec l'agrégation spatiale de ces habitats. Ces effets ont été observés à toutes les échelles mais leur nature variait en fonction de l'échelle, suggérant une modification des mécanismes. Dans un deuxième temps, la structure spatiale de la composition en espèces a été décomposée en relation avec 20 variables environnementales et 11 traits d'espèces. Nous avons utilisé la technique de partition de la variation et un descripteur spatial, récemment développé, donnant accès à une large gamme d'échelles spatiales. Nos résultats ont montré que la structure spatiale de la composition en espèces végétales était principalement liée à la topographie, aux échelles les plus grossières, et à la disponibilité en lumière, aux échelles les plus fines. La fraction non-environnementale de la variation spatiale de la composition spécifique avait une relation complexe avec plusieurs traits d'espèces suggérant un lien avec des processus biologiques tels que la dispersion, dépendant de l'échelle spatiale. Dans un dernier temps, nous avons testé, à plusieurs échelles spatiales, les relations entre trois composantes de la biodiversité : la richesse spécifique totale d'un échantillon (diversité gamma), la richesse spécifique moyenne (diversité alpha), mesurée sur des sous-échantillons, et les différences de composition spécifique entre les sous-échantillons (diversité beta). Les relations deux à deux entre les diversités alpha, beta et gamma ne suivaient pas les relations attendues, tout du moins à certaines échelles spatiales. Plusieurs de ces relations étaient fortement dépendantes de l'échelle. Nos résultats ont mis en évidence l'importance du rapport d'échelle (rapport entre la taille de l'échantillon et du sous-échantillon) lors de l'étude des patrons spatiaux de biodiversité. Ainsi, cette étude offre un nouvel aperçu des patrons spatiaux de biodiversité végétale et des mécanismes potentiels permettant la coexistence des espèces. Nos résultats suggèrent que les patrons de biodiversité ne peuvent être expliqués par une seule théorie, mais plutôt par une combinaison de théories. Ils ont également mis en évidence le rôle essentiel joué par la structure spatiale dans la détermination de la biodiversité, quelque soit le composant de la biodiversité considéré. Enfin, cette étude souligne l'importance de prendre en compte plusieurs échelles spatiales et différents constituants de l'échelle spatiale pour toute étude relative à la diversité spécifique. Abstract The world-wide loss of biodiversity at all scales has become a matter of urgent concern, and improving our understanding of local drivers of biodiversity in natural and anthropogenic ecosystems is now crucial for conservation. The main objective of this study was to further our comprehension of the driving forces controlling biodiversity patterns in a complex and diverse ecosystem of high conservation value, wooded pastures. Spatial pattern and scale are central to several ecological theories, and it is increasingly recognized that they must be taken -into consideration when studying biodiversity patterns. However, few hypotheses developed from simulations or theoretical studies have been tested using field data, and the evolution of biodiversity patterns with different scale components remains largely unknown. We test several such hypotheses and explore spatial patterns of biodiversity in a multi-scale context and using different measures of biodiversity (species richness and composition), with field data. Data were collected using a hierarchical sampling design. We first tested the simple hypothesis that species richness, the number of species in a given area, is related to environmental heterogeneity at all scales. We decomposed environmental heterogeneity into two parts: the variability of environmental conditions and its spatial configuration. We showed that species richness generally increased with environmental heterogeneity: species richness increased with increasing number of habitat types and with decreasing spatial aggregation of those habitats. Effects occurred at all scales but the nature of the effect changed with scale, suggesting a change in underlying mechanisms. We then decomposed the spatial structure of species composition in relation to environmental variables and species traits using variation partitioning and a recently developed spatial descriptor, allowing us to capture a wide range of spatial scales. We showed that the spatial structure of plant species composition was related to topography at the coarsest scales and insolation at finer scales. The non-environmental fraction of the spatial variation in species composition had a complex relationship with several species traits, suggesting a scale-dependent link to biological processes, particularly dispersal. Finally, we tested, at different spatial scales, the relationships between different components of biodiversity: total sample species richness (gamma diversity), mean species .richness (alpha diversity), measured in nested subsamples, and differences in species composition between subsamples (beta diversity). The pairwise relationships between alpha, beta and gamma diversity did not follow the expected patterns, at least at certain scales. Our result indicated a strong scale-dependency of several relationships, and highlighted the importance of the scale ratio when studying biodiversity patterns. Thus, our results bring new insights on the spatial patterns of biodiversity and the possible mechanisms allowing species coexistence. They suggest that biodiversity patterns cannot be explained by any single theory proposed in the literature, but a combination of theories is sufficient. Spatial structure plays a crucial role for all components of biodiversity. Results emphasize the importance of considering multiple spatial scales and multiple scale components when studying species diversity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Background: One third of hospitalized older-adults who developed a delirium are discharged prior to complete resolution of their symptoms. Others may develop symptoms shortly after their hospital discharge or an acute illness. Therefore, strategies for early detection and prevention of delirium at home must be created and implemented. Aims: The aim of the pilot study was two-fold. First, to develop and test the effectiveness of a nursing intervention to detect and prevent delirium among older- adults who were recently hospitalized or had an acute illness. Second, we assessed the feasibility and acceptability of this nursing intervention strategy with this specific population. Methods: A total of 114 patients age 65 and older were recruited in a home health service to participate between February and November 2012. Participants were randomized into an experimental group (n=56) or a control group (n=58). In addition to the control group which only receives standard home care, nursing interventions tailored to detect/prevent delirium were delivered to the experimental group at 5 time points following discharge (at 48 hours, 72 hours, 7 days, 14 days, and 21 days). Socio-demographic characteristics, body mass index, medications, comorbidities, delirium symptoms (Confusion Assessment Method), cognitive impairment (Mini- Mental State Examination) and functional status (Activities of Daily Living) were assessed at study entry (TT). Outcomes of delirium symptoms, cognitive impairment and functional status were assessed after one month (T2). Descriptive and bivariate methods were used to analyse the data. Results: The two groups were similar at baseline. At one month following discharge no statistical differences were observed between groups in terms of symptoms of delirium (p= 0.085), cognitive impairment (p= 0.151) and functional status (p= 0.235). However in the nursing intervention group, significant improvements in cognitive functioning (p= 0,005) and functional status (p= 0,000) as well as decreased delirium symptoms (p=0,003) were observed. The nursing intervention strategy was feasible and well received by the participants. Conclusion: Nursing intervention strategy to detect/prevent delirium appears to be effective but a larger clinical study is needed to confirm these preliminary findings. - Introduction : Un tiers des personnes âgées hospitalisées développent un état confusionnel aigu (ECA) et quittent l'hôpital sans que les symptômes ne soient résolus. D'autres peuvent développer des symptômes d'ECA à domicile après une hospitalisation ou une maladie aiguë. Pour ces raisons, des stratégies de détection et prévention précoces d'ECA doivent être développées, implantées et évaluées. But : Cette étude pilote avait pour but de développer et tester les effets d'une stratégie d'interventions infirmières pour détecter et prévenir l'ECA chez des personnes âgées à domicile après une hospitalisation ou une maladie récente. Dans un deuxième temps, la faisabilité et l'acceptabilité de l'implantation de cette stratégie auprès de cette population spécifique ainsi que de l'étude ont été évaluées. Méthode : Au total 114 personnes 65 ans) ont été recrutées entre février et novembre 2012. Les participants ont été randomisés, soit dans le groupe expérimental (GE, n=56), soit dans le groupe témoin (GT, n=58). En complément des soins usuels, une stratégie d'interventions de détection/prévention d'ECA a été dispensée au GE à 48 heures, 72 heures, 7 jours, 14 jours et 21 jours après le retour à domicile ou une maladie récente. Des données sociodémographiques et de santé (Indice de Masse Corporelle, relevé de la médication, comorbidités), la présence de symptômes d'ECA (Confusion Assessment Method), de troubles cognitifs (Mini évaluation de l'état mental) et de déficit fonctionnel (Activités de la vie quotidienne et instrumentales) ont été évalués à l'entrée de l'étude (T,). L'effet de la stratégie d'interventions a été mesuré sur le nombre de symptômes d'ECA, du déficit/état cognitif (Mini évaluation de l'état mental) et du déficit/état fonctionnel (Activités de la vie quotidienne) après un mois (T2). Des analyses descriptives et bivariées ont été effectuées. Résultats : Les deux groupes étaient équivalents au début de l'étude. Aucune différence significative n'a été retrouvée après un mois entre le GE et le GT par rapport au nombre de symptômes d'ECA (p= 0,085), au déficit cognitif (p= 0,151) et fonctionnel (p= 0,235). Toutefois, une amélioration significative a été observée dans le GE par rapport aux symptômes d'ECA (p= 0,003), aux déficits cognitifs (p= 0,005) et fonctionnels (p= 0,000) à un mois. La stratégie d'interventions s'avère faisable et a été bien acceptée par les participants. Conclusion : La stratégie d'interventions infirmières de détection/prévention d'ECA à domicile semble prometteuse, mais des études cliniques à large échelle sont nécessaires pour confirmer ces résultats préliminaires.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The effects of combined pressure/temperature treatments (200, 400 and 600 MPa, at 20 and 40 °C) on the physical and nutritional properties of swede roots (Brassica napus var. napobrassica) were assessed. Changes induced by high pressure processing (HPP) on the original properties of swede samples were compared with those produced by thermal treatment (blanching). All studied treatments altered the physical properties of swede, resulting in a loss of hardness and water binding capacity. The strongest alteration of texture was observed after HPP at 400 MPa, while 600 MPa was the treatment that better preserved the texture properties of swede. Blanching caused less total colour changes (ΔE) than HPP. Antioxidant properties of swede were measured as total antioxidant capacity, ascorbic acid and total phenol content. All treatments caused a loss of antioxidant capacity, which was less pronounced after HPP at 600 MPa and 20 °C and blanching. Four glucosinolates were detected in swede roots, glucoraphanin, progoitrin, glucobrassicanapin and glucobrassicin. Glucobrassicanapin and glucobrassicin contents were reduced with all studied treatments. Progoitrin content was not affected by blanching and HPP at 200 MPa. HPP at higher pressure levels (400 and 600 MPa), though, induced an increase of progoitrin levels. The results indicated that blanching and HPP at 600 MPa and 20 °C were the treatments that better preserved the original quality properties of swede.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The objective of this work was to evaluate the effect of pond management on fish feed, growth, yield, survival, and water and effluent quality, during tambaqui (Colossoma macropomum) juvenile production. Fish were distributed in nine 600 m² earthen ponds, at a density of 8 fish per m²; the rearing period was 60 days. Three different pond management were applied: limed and fertilized (LimFer), limed (Lim), and natural (Nat). Fish were fed with a commercial ration containing 34% crude protein three times daily. There were no significant differences in fish growth or yield. Three main items found in tambaqui stomach were insect, zooplankton and ration, without a significant difference among treatments in proportion. Alkalinity, hardness, and CO2 were greater in LimFer and Lim ponds. Chlorophyll a, transparency, ammonia, nitrite, temperature, and dissolved oxygen of pond water were not significantly different among treatments. Biochemical oxygen demand, total phosphorus, orthophosphate, ammonia, and nitrite were significantly greater in effluents from LimFer ponds. Pond fertilization should be avoided, because growth and yield were similar among the three pond management systems tested; besides, it produces a more impacting effluent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Summary Due to their conic shape and the reduction of area with increasing elevation, mountain ecosystems were early identified as potentially very sensitive to global warming. Moreover, mountain systems may experience unprecedented rates of warming during the next century, two or three times higher than that records of the 20th century. In this context, species distribution models (SDM) have become important tools for rapid assessment of the impact of accelerated land use and climate change on the distribution plant species. In my study, I developed and tested new predictor variables for species distribution models (SDM), specific to current and future geographic projections of plant species in a mountain system, using the Western Swiss Alps as model region. Since meso- and micro-topography are relevant to explain geographic patterns of plant species in mountain environments, I assessed the effect of scale on predictor variables and geographic projections of SDM. I also developed a methodological framework of space-for-time evaluation to test the robustness of SDM when projected in a future changing climate. Finally, I used a cellular automaton to run dynamic simulations of plant migration under climate change in a mountain landscape, including realistic distance of seed dispersal. Results of future projections for the 21st century were also discussed in perspective of vegetation changes monitored during the 20th century. Overall, I showed in this study that, based on the most severe A1 climate change scenario and realistic dispersal simulations of plant dispersal, species extinctions in the Western Swiss Alps could affect nearly one third (28.5%) of the 284 species modeled by 2100. With the less severe 61 scenario, only 4.6% of species are predicted to become extinct. However, even with B1, 54% (153 species) may still loose more than 80% of their initial surface. Results of monitoring of past vegetation changes suggested that plant species can react quickly to the warmer conditions as far as competition is low However, in subalpine grasslands, competition of already present species is probably important and limit establishment of newly arrived species. Results from future simulations also showed that heavy extinctions of alpine plants may start already in 2040, but the latest in 2080. My study also highlighted the importance of fine scale and regional. assessments of climate change impact on mountain vegetation, using more direct predictor variables. Indeed, predictions at the continental scale may fail to predict local refugees or local extinctions, as well as loss of connectivity between local populations. On the other hand, migrations of low-elevation species to higher altitude may be difficult to predict at the local scale. Résumé La forme conique des montagnes ainsi que la diminution de surface dans les hautes altitudes sont reconnues pour exposer plus sensiblement les écosystèmes de montagne au réchauffement global. En outre, les systèmes de montagne seront sans doute soumis durant le 21ème siècle à un réchauffement deux à trois fois plus rapide que celui mesuré durant le 20ème siècle. Dans ce contexte, les modèles prédictifs de distribution géographique de la végétation se sont imposés comme des outils puissants pour de rapides évaluations de l'impact des changements climatiques et de la transformation du paysage par l'homme sur la végétation. Dans mon étude, j'ai développé de nouvelles variables prédictives pour les modèles de distribution, spécifiques à la projection géographique présente et future des plantes dans un système de montagne, en utilisant les Préalpes vaudoises comme zone d'échantillonnage. La méso- et la microtopographie étant particulièrement adaptées pour expliquer les patrons de distribution géographique des plantes dans un environnement montagneux, j'ai testé les effets d'échelle sur les variables prédictives et sur les projections des modèles de distribution. J'ai aussi développé un cadre méthodologique pour tester la robustesse potentielle des modèles lors de projections pour le futur. Finalement, j'ai utilisé un automate cellulaire pour simuler de manière dynamique la migration future des plantes dans le paysage et dans quatre scénarios de changement climatique pour le 21ème siècle. J'ai intégré dans ces simulations des mécanismes et des distances plus réalistes de dispersion de graines. J'ai pu montrer, avec les simulations les plus réalistes, que près du tiers des 284 espèces considérées (28.5%) pourraient être menacées d'extinction en 2100 dans le cas du plus sévère scénario de changement climatique A1. Pour le moins sévère des scénarios B1, seulement 4.6% des espèces sont menacées d'extinctions, mais 54% (153 espèces) risquent de perdre plus 80% de leur habitat initial. Les résultats de monitoring des changements de végétation dans le passé montrent que les plantes peuvent réagir rapidement au réchauffement climatique si la compétition est faible. Dans les prairies subalpines, les espèces déjà présentes limitent certainement l'arrivée de nouvelles espèces par effet de compétition. Les résultats de simulation pour le futur prédisent le début d'extinctions massives dans les Préalpes à partir de 2040, au plus tard en 2080. Mon travail démontre aussi l'importance d'études régionales à échelle fine pour évaluer l'impact des changements climatiques sur la végétation, en intégrant des variables plus directes. En effet, les études à échelle continentale ne tiennent pas compte des micro-refuges, des extinctions locales ni des pertes de connectivité entre populations locales. Malgré cela, la migration des plantes de basses altitudes reste difficile à prédire à l'échelle locale sans modélisation plus globale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A role for gut hormone in bone physiology has been suspected. We evidenced alterations of microstructural morphology (trabecular and cortical) and bone strength (both at the whole-bone - and tissue-level) in double incretin receptor knock-out (DIRKO) mice as compared to wild-type littermates. These results support a role for gut hormones in bone physiology. INTRODUCTION: The two incretins, glucose-dependent insulinotropic polypeptide (GIP) and glucagon-like peptide-1 (GLP-1), have been shown to control bone remodeling and strength. However, lessons from single incretin receptor knock-out mice highlighted a compensatory mechanism induced by elevated sensitivity to the other gut hormone. As such, it is unclear whether the bone alterations observed in GIP or GLP-1 receptor deficient animals resulted from the lack of a functional gut hormone receptor, or by higher sensitivity for the other gut hormone. The aims of the present study were to investigate the bone microstructural morphology, as well as bone tissue properties, in double incretin receptor knock-out (DIRKO) mice. METHODS: Twenty-six-week-old DIRKO mice were age- and sex-matched with wild-type (WT) littermates. Bone microstructural morphology was assessed at the femur by microCT and quantitative X-ray imaging, while tissue properties were investigated by quantitative backscattered electron imaging and Fourier-transformed infrared microscopy. Bone mechanical response was assessed at the whole-bone- and tissue-level by 3-point bending and nanoindentation, respectively. RESULTS: As compared to WT animals, DIRKO mice presented significant augmentations in trabecular bone mass and trabecular number whereas bone outer diameter, cortical thickness, and cortical area were reduced. At the whole-bone-level, yield stress, ultimate stress, and post-yield work to fracture were significantly reduced in DIRKO animals. At the tissue-level, only collagen maturity was reduced by 9 % in DIRKO mice leading to reductions in maximum load, hardness, and dissipated energy. CONCLUSIONS: This study demonstrated the critical role of gut hormones in controlling bone microstructural morphology and tissue properties.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho foi avaliar a eficiência da seleção recorrente recíproca em produzir híbridos de milho-pipoca (Zea mays) de progênies endógamas superiores, com famílias de irmãos-completos. O programa de seleção recorrente recíproca envolveu as populações de milho-pipoca 'Viçosa' e 'Beija-Flor'. Os testes dos híbridos S0xS0 e S1xS1 foram conduzidos em delineamento látice, nos anos agrícolas de 2002/2003 e 2004/2005. Os dois ensaios incluíram testemunhas comerciais comuns, que permitiram a comparação do desempenho dos híbridos. Analisaram-se a produtividade e a capacidade de expansão. Foram preditos ganhos direto e indireto com a seleção em capacidadede expansão, avaliada em pipoqueira de ar quente e na pipocadora "Metric Weight Volume Tester". Os ganhos observados foram calculados para avaliar a eficiência da seleção recorrente recíproca. As análises de covariância mostraram variabilidade genotípica nas populações. Em relação às testemunhas comerciais, os híbridos S0xS0 foram inferiores em qualidade e equivalentes em produtividade, e os híbridos S1xS1 foram equivalentes nas duas características. O ganho observado na capacidade de expansão foi substancial, cerca de 4 mL g-1, superior ao ganho predito (2,8 mL g-1). A redução observada na produtividade não foi relevante. Verificou-se redução na variabilidade genotípica quanto à capacidade de expansão. O método de seleção recorrente recíproca foi eficiente em produzir híbridos S1xS1 superiores aos S0xS0.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RAPPORT DE SYNTHÈSE : Contexte Les programmes de prévention cardiovasculaire secondaire après un événement coronarien aigu ont pu démontrer leur efficacité dans le contexte des soins ambulatoires. L'hospitalisation pour une maladie aiguë peut être considérée comme un «instant charnière», particulièrement adapté à un changement de comportement de santé et où des interventions de prévention secondaire, telle l'éducation du patient, pourraient être particulièrement efficaces. De plus, la prescription de médicaments de prévention cardiovasculaire durant l'hospitalisation semble augmenter la proportion des patients traités selon les recommandations sur le long terme. Récemment, plusieurs études ont évalué l'efficacité de programmes de prévention ayant pour but l'éducation des patients et/ou une augmentation du taux de prescription de médicaments prouvés efficaces par les médecins en charge. L'article faisant l'objet du travail de thèse synthétise la littérature existante concernant l'efficacité en termes de mortalité des interventions multidimensionnelles de prévention cardiovasculaire après un syndrome coronarien aigu, débutées à l'hôpital, centrées sur le patient et ciblant plusieurs facteurs de risque cardiovasculaire. MÉTHODE ET RÉSULTATS : En utilisant une stratégie de recherche définie à l'avance, nous avons inclus des essais cliniques avec groupe contrôle et des études avant-après, débutées à l'hôpital et qui incluaient des résultats cliniques de suivi en terme de mortalité, de taux de réadmission et/ou de récidive de syndrome coronarien aigu. Nous avons catégorisé les études selon qu'elles ciblaient les patients (par exemple une intervention d'éducation aux patients par des infirmières), les soignants (par exemple des cours destinés aux médecins-assistants pour leur enseigner comment prodiguer des interventions éducatives) ou le système de soins (par exemple la mise en place d'itinéraires cliniques au niveau de l'institution). Globalement, les interventions rapportées dans les 14 études répondant aux critères montraient une réduction du risque relatif (RR) de mortalité après un an (RR= 0.79; 95% intervalle de confiance (IC), 0.69-0.92; n=37'585). Cependant, le bénéfice semblait dépendre du type d'étude et du niveau d'intervention. Les études avant-après suggéraient une réduction du risque de mortalité (RR, 0.77; 95% IC, 0.66-0.90; n=3680 décès), tandis que le RR était de 0.96 (95% IC, 0.64-1.44; n=99 décès) pour les études cliniques contrôlées. Seules les études avant-après et les études ciblant les soignants et le système, en plus de cibler les patients, semblaient montrer un bénéfice en termes de mortalité à une année. CONCLUSIONS ET PERSPECTIVES : Les preuves d'efficacité des interventions de prévention secondaires débutées à l'hôpital, ciblant le patient, sont prometteuses, mais pas définitives. En effet, seules les études avant-après montrent un bénéfice en termes de mortalité. Les recherches futures dans ce domaine devraient tester formellement quels éléments des interventions amènent le plus de bénéfices pour les patients.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Rapport de synthèse : Le monoxyde d'azote (NO) joue un rôle important dans la régulation de l'homéostasie du système cardiovasculaire et du glucose. Les souris déficientes pour le gène codant l'isoforme neuronale de la synthase de monoxyde d'azote (nNOS) sont résistantes à l'insuline, mais les mécanismes sous-jacents sont inconnus. Le manque de NO produit par la nNOS pourrait être à l'origine d'une diminution de la perfusion du muscle squelettique et ainsi d'une diminution de l'apport de substrat. Alternativement, le déficit de nNOS normalement hautement exprimé dans le tissu musculaire squelettique pourrait directement y perturber la consommation de glucose. Finalement l'absence de l'action sympatholytique du NO neuronal pourrait diminuer la sensibilité à l'insuline. Afin de tester ces hypothèses nous avons étudié, chez des souris déficientes en nNOS et des souris-contrôle, la consommation corporelle totale de glucose et le flux musculaire squelettique pendant des clamps hyperinsulinémiques euglycémiques in vivo, ainsi que la consommation de glucose dans le muscle squelettique in vitro. De plus nous avons analysé les effets d'une inhibition alpha-adrénergique sur la consommation de glucose pendant les clamps hyperinsulinémiques euglycémiques in vivo. Le taux de perfusion de glucose pendant les clamps était grossièrement 15 pourcent plus bas (P<0.001) chez les souris déficientes en nNOS que chez les souris-contrôle. Cette résistance à l'insuline chez les souris déficientes en nNOS n'était due ni à une stimulation déficiente du flux sanguin musculaire par l'insuline ni à un défaut intrinsèque de la consommation de glucose du muscle (qui étaient comparables dans les deux groupes), mais à un mécanisme alpha-adrénergique, car l'administration de phentolamine rétablissait la sensibilité à l'insuline chez les souris déficientes en nNOS. Ces résultats suggèrent qu'une hyperactivité sympathique, potentiellement due à la perte de l'inhibition neuronale centrale du flux sympathique par le NO provenant de nNOS, contribue à la résistance à l'insuline des souris déficientes en nNOS. Par ailleurs ces résultats tendent à prouver qu'un défaut de production de NO provoquerait une résistance à l'insuline par des mécanismes différents selon l'isoforme de NO synthase déficiente (par exemple chez les souris déficientes pour la forme endothéliale de NO synthase, il a été montré que la résistance à l'insuline est due à un défaut de stimulation de la perfusion musculaire par l'insuline et à un défaut du signalling de l'insuline dans la cellule musculaire squelettique). Chez l'être humain il est établi que les états de résistance à l'insuline sont associés à une synthèse défectueuse et/ou une mauvaise biodisponibilité du NO, ainsi qu'à une hyperactivité sympathique. Nous spéculons que la perte d'inhibition centrale du flux sympathique représente un mécanisme contribuant à la résistance à l'insuline et ses complications cardiovasculaires chez l'être humain.