999 resultados para Risques biologiques


Relevância:

10.00% 10.00%

Publicador:

Resumo:

RESUME : La douleur neuropathique est le résultat d'une lésion ou d'un dysfonctionnement du système nerveux. Les symptômes qui suivent la douleur neuropathique sont sévères et leur traitement inefficace. Une meilleure approche thérapeutique peut être proposée en se basant sur les mécanismes pathologiques de la douleur neuropathique. Lors d'une lésion périphérique une douleur neuropathique peut se développer et affecter le territoire des nerfs lésés mais aussi les territoires adjacents des nerfs non-lésés. Une hyperexcitabilité des neurones apparaît au niveau des ganglions spinaux (DRG) et de la corne dorsale (DH) de la moelle épinière. Le but de ce travail consiste à mettre en évidence les modifications moléculaires associées aux nocicepteurs lésés et non-lésés au niveau des DRG et des laminae I et II de la corne dorsale, là où l'information nociceptive est intégrée. Pour étudier les changements moléculaires liés à la douleur neuropathique nous utilisons le modèle animal d'épargne du nerf sural (spared nerve injury model, SNI) une semaine après la lésion. Pour la sélection du tissu d'intérêt nous avons employé la technique de la microdissection au laser, afin de sélectionner une sous-population spécifique de cellules (notamment les nocicepteurs lésés ou non-lésés) mais également de prélever le tissu correspondant dans les laminae superficielles. Ce travail est couplé à l'analyse à large spectre du transcriptome par puce ADN (microarray). Par ailleurs, nous avons étudié les courants électriques et les propriétés biophysiques des canaux sodiques (Na,,ls) dans les neurones lésés et non-lésés des DRG. Aussi bien dans le système nerveux périphérique, entre les neurones lésés et non-lésés, qu'au niveau central avec les aires recevant les projections des nocicepteurs lésés ou non-lésés, l'analyse du transcriptome montre des différences de profil d'expression. En effet, nous avons constaté des changements transcriptionnels importants dans les nocicepteurs lésés (1561 gènes, > 1.5x et pairwise comparaison > 77%) ainsi que dans les laminae correspondantes (618 gènes), alors que ces modifications transcriptionelles sont mineures au niveau des nocicepteurs non-lésés (60 gènes), mais important dans leurs laminae de projection (459 gènes). Au niveau des nocicepteurs, en utilisant la classification par groupes fonctionnels (Gene Ontology), nous avons observé que plusieurs processus biologiques sont modifiés. Ainsi des fonctions telles que la traduction des signaux cellulaires, l'organisation du cytosquelette ainsi que les mécanismes de réponse au stress sont affectés. Par contre dans les neurones non-lésés seuls les processus biologiques liés au métabolisme et au développement sont modifiés. Au niveau de la corne dorsale de la moelle, nous avons observé des modifications importantes des processus immuno-inflammatoires dans l'aire affectée par les nerfs lésés et des changements associés à l'organisation et la transmission synaptique au niveau de l'aire des nerfs non-lésés. L'analyse approfondie des canaux sodiques a démontré plusieurs changements d'expression, principalement dans les neurones lésés. Les analyses fonctionnelles n'indiquent aucune différence entre les densités de courant tétrodotoxine-sensible (TTX-S) dans les neurones lésés et non-lésés même si les niveaux d'expression des ARNm des sous-unités TTX-S sont modifiés dans les neurones lésés. L'inactivation basale dépendante du voltage des canaux tétrodotoxine-insensible (TTX-R) est déplacée vers des potentiels positifs dans les cellules lésées et non-lésées. En revanche la vitesse de récupération des courants TTX-S et TTX-R après inactivation est accélérée dans les neurones lésés. Ces changements pourraient être à l'origine de l'altération de l'activité électrique des neurones sensoriels dans le contexte des douleurs neuropathiques. En résumé, ces résultats suggèrent l'existence de mécanismes différenciés affectant les neurones lésés et les neurones adjacents non-lésés lors de la mise en place la douleur neuropathique. De plus, les changements centraux au niveau de la moelle épinière qui surviennent après lésion sont probablement intégrés différemment selon la perception de signaux des neurones périphériques lésés ou non-lésés. En conclusion, ces modulations complexes et distinctes sont probablement des acteurs essentiels impliqués dans la genèse et la persistance des douleurs neuropathiques. ABSTRACT : Neuropathic pain (NP) results from damage or dysfunction of the peripheral or central nervous system. Symptoms associated with NP are severe and difficult to treat. Targeting NP mechanisms and their translation into symptoms may offer a better therapeutic approach.Hyperexcitability of the peripheral and central nervous system occurs in the dorsal root ganglia (DRG) and the dorsal horn (DH) of the spinal cord. We aimed to identify transcriptional variations in injured and in adjacent non-injured nociceptors as well as in corresponding laminae I and II of DH receiving their inputs.We investigated changes one week after the injury induced by the spared nerve injury model of NP. We employed the laser capture microdissection (LCM) for the procurement of specific cell-types (enrichment in nociceptors of injured/non-injured neurons) and laminae in combination with transcriptional analysis by microarray. In addition, we studied functionál properties and currents of sodium channels (Nav1s) in injured and neighboring non-injured DRG neurons.Microarray analysis at the periphery between injured and non-injured DRG neurons and centrally between the area of central projections from injured and non-injured neurons show significant and differential expression patterns. We reported changes in injured nociceptors (1561 genes, > 1.5 fold, >77% pairwise comparison) and in corresponding DH laminae (618 genes), while less modifications occurred in non-injured nociceptors (60 genes) and in corresponding DH laminae (459 genes). At the periphery, we observed by Gene Ontology the involvement of multiple biological processes in injured neurons such as signal transduction, cytoskeleton organization or stress responses. On contrast, functional overrepresentations in non-injured neurons were noted only in metabolic or developmentally related mechanisms. At the level of superficial laminae of the dorsal horn, we reported changes of immune and inflammatory processes in injured-related DH and changes associated with synaptic organization and transmission in DH corresponding to non-injured neurons. Further transcriptional analysis of Nav1s indicated several changes in injured neurons. Functional analyses of Nav1s have established no difference in tetrodotoxin-sensitive (TTX-S) current densities in both injured and non-injured neurons, despite changes in TTX-S Nav1s subunit mRNA levels. The tetrodotoxin-resistant (TTX-R) voltage dependence of steady state inactivation was shifted to more positive potentials in both injured and non-injured neurons, and the rate of recovery from inactivation of TTX-S and TTX-R currents was accelerated in injured neurons. These changes may lead to alterations in neuronal electrogenesis. Taken together, these findings suggest different mechanisms occurring in the injured neurons and the adjacent non-injured ones. Moreover, central changes after injury are probably driven in a different manner if they receive inputs from injured or non-injured neurons. Together, these distinct and complex modulations may contribute to NP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La trachée et les bronches proximales sont de fins conduits subtils, ingénieusement structurés par une partie cartilagineuse antérieure résistante aux variations de pression et une partie membraneuse postérieure souple. Par leurs faibles volumes (espace mort) ils délivrent un grand pourcentage de l'air inspiré aux voies distales, puis au parenchyme pulmonaire, permettant les échanges de gaz. Cette belle harmonie respiratoire peut être rapidement mise à mal dès qu'un processus atteint ces voies respiratoires proximales, soit en les comprimant, processus sténosant, soit en affaiblissant leur structure, trachéo-bronchomalacie, soit en ouvrant leur paroi sur les structures médiastinales, fistule trachéo/broncho-médiastinales, pleurales ou autres. Le pronostic vital est alors rapidement engagé au vu de l'absolue nécessité du bon fonctionnement de ces fins conduits, une petite diminution du calibre de leurs fines lumières provoquant une baisse importante de leurs surfaces. Dans ces situations à haut potentiel de complication majeure les interventions endoscopiques pour restaurer l'intégrité de ces conduits sont alors fort risquées, et il est primordial de pouvoir les effectuer dans un cadre sécurisé au maximum. La réalisation de ces gestes par la technique décrite dans notre article « Use of combined suspension laryngoscopy, flexible bronchoscopy and high frequency jet ventilation forY-shaped airway stents delivery" permet la sécurité nécessaire à ces situations instable, en effet -la laryngoscopie en suspension expose les voies proximales en offrant un accès le plus large possible à l'arbre trachéobronchique ce qui permet l insertion de multiples instruments parfois volumineux, -la Jet ventilation assure une oxygénation et une ventilation adéquate par un fin cathéter placé soit dans le poumon sain, soit en distalité de la lésion -la bronchoscopie souple, passant au travers d'endroits exigus et courbes permet le déploiement sous vision direct, au millimètre près, de divers dispositifs. Cette association remplace avantageusement la technique traditionnelle qui insère les stents à l'aveugle, et en apnée, ce qui représente de haut risque de mauvais positionnement des stents avec des conséquences immédiates sur l'oxygénation et la ventilation souvent déjà bien altérées. Perspective et conclusion : cette technique est utile pour l'insertion des stents en Y, centraux, comme décrit dans notre article, et les indications peuvent être étendues aux stents distaux pour lesquels l'accès n'est parfois pas aisé avec le bronchoscope rigide, et pour d'autres interventions endoscopiques, laser, cryothérapie, radiofréquence ou l'insertion de nouveaux dispositifs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les précipitations journalières extrêmes centennales ont été estimées à partir d'analyses de Gumbel effectuées sur des séries de mesures pluviométriques à 151 endroits en Suisse pour 4 périodes de 30 ans différentes. Ces estimations ont été comparées avec les valeurs journalières maximales mesurées durant les 100 dernières années (1911-2010) afin de tester l'efficacité de ces analyses. Cette comparaison révèle que ces dernières aboutissent à de bons résultats pour 50 à 60% des stations de ce pays à partir des séries de mesures pluviométriques de 1961-1990 et de 1981-2010. Par contre, les précipitations journalières centennales estimées à partir des séries de mesures de 1931-1960 et surtout de 1911-1940 sont sous-estimées pour la plupart des stations. Cette sous-estimation résulte de l'augmentation des précipitations journalières maximales mesurées de 1911 à 2010 pour 90% des stations en Suisse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La première partie de cette recherche, consistant en une revue critique de la littérature, a mis en évidence le manque de connaissances relatives au phénomène de coupage des produits stupéfiants, la cocaïne et l'héroïne en particulier (Broséus et al., 2014). La seconde partie s'attelle alors à améliorer l'état des connaissances sur le phénomène de coupage des produits stupéfiants et, pour ce faire, se base sur les résultats d'analyses d'environ 6000 spécimens de cocaïne et 3000 d'héroïne saisis en Suisse ent 2006 et 2013. Le type de produits de coupage détectés (adultérant ou diluant) avec leurs fréquences d'apparition respectives, le degré de coupage des spécimens et finalement les niveaux de la chaine de distribution auxquels se produirait le coupage ont été tout particulièrement investigués. L'ensemble des renseignements obtenus permettent de mieux comprendre le marché de distribution et de consommation des produits stupéfiants et s'avèrent utiles pour la mise en place de politiques efficaces, que ce soit dans le cadre de démarches de prévention, de réduction des risques ou de dépression.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis focuses on theoretical asset pricing models and their empirical applications. I aim to investigate the following noteworthy problems: i) if the relationship between asset prices and investors' propensities to gamble and to fear disaster is time varying, ii) if the conflicting evidence for the firm and market level skewness can be explained by downside risk, Hi) if costly learning drives liquidity risk. Moreover, empirical tests support the above assumptions and provide novel findings in asset pricing, investment decisions, and firms' funding liquidity. The first chapter considers a partial equilibrium model where investors have heterogeneous propensities to gamble and fear disaster. Skewness preference represents the desire to gamble, while kurtosis aversion represents fear of extreme returns. Using US data from 1988 to 2012, my model demonstrates that in bad times, risk aversion is higher, more people fear disaster, and fewer people gamble, in contrast to good times. This leads to a new empirical finding: gambling preference has a greater impact on asset prices during market downturns than during booms. The second chapter consists of two essays. The first essay introduces a foramula based on conditional CAPM for decomposing the market skewness. We find that the major market upward and downward movements can be well preadicted by the asymmetric comovement of betas, which is characterized by an indicator called "Systematic Downside Risk" (SDR). We find that SDR can efafectively forecast future stock market movements and we obtain out-of-sample R-squares (compared with a strategy using historical mean) of more than 2.27% with monthly data. The second essay reconciles a well-known empirical fact: aggregating positively skewed firm returns leads to negatively skewed market return. We reconcile this fact through firms' greater response to negative maraket news than positive market news. We also propose several market return predictors, such as downside idiosyncratic skewness. The third chapter studies the funding liquidity risk based on a general equialibrium model which features two agents: one entrepreneur and one external investor. Only the investor needs to acquire information to estimate the unobservable fundamentals driving the economic outputs. The novelty is that information acquisition is more costly in bad times than in good times, i.e. counter-cyclical information cost, as supported by previous empirical evidence. Later we show that liquidity risks are principally driven by costly learning. Résumé Cette thèse présente des modèles théoriques dévaluation des actifs et leurs applications empiriques. Mon objectif est d'étudier les problèmes suivants: la relation entre l'évaluation des actifs et les tendances des investisseurs à parier et à crainadre le désastre varie selon le temps ; les indications contraires pour l'entreprise et l'asymétrie des niveaux de marché peuvent être expliquées par les risques de perte en cas de baisse; l'apprentissage coûteux augmente le risque de liquidité. En outre, des tests empiriques confirment les suppositions ci-dessus et fournissent de nouvelles découvertes en ce qui concerne l'évaluation des actifs, les décisions relatives aux investissements et la liquidité de financement des entreprises. Le premier chapitre examine un modèle d'équilibre où les investisseurs ont des tendances hétérogènes à parier et à craindre le désastre. La préférence asymétrique représente le désir de parier, alors que le kurtosis d'aversion représente la crainte du désastre. En utilisant les données des Etats-Unis de 1988 à 2012, mon modèle démontre que dans les mauvaises périodes, l'aversion du risque est plus grande, plus de gens craignent le désastre et moins de gens parient, conatrairement aux bonnes périodes. Ceci mène à une nouvelle découverte empirique: la préférence relative au pari a un plus grand impact sur les évaluations des actifs durant les ralentissements de marché que durant les booms économiques. Exploitant uniquement cette relation générera un revenu excédentaire annuel de 7,74% qui n'est pas expliqué par les modèles factoriels populaires. Le second chapitre comprend deux essais. Le premier essai introduit une foramule base sur le CAPM conditionnel pour décomposer l'asymétrie du marché. Nous avons découvert que les mouvements de hausses et de baisses majeures du marché peuvent être prédits par les mouvements communs des bêtas. Un inadicateur appelé Systematic Downside Risk, SDR (risque de ralentissement systématique) est créé pour caractériser cette asymétrie dans les mouvements communs des bêtas. Nous avons découvert que le risque de ralentissement systématique peut prévoir les prochains mouvements des marchés boursiers de manière efficace, et nous obtenons des carrés R hors échantillon (comparés avec une stratégie utilisant des moyens historiques) de plus de 2,272% avec des données mensuelles. Un investisseur qui évalue le marché en utilisant le risque de ralentissement systématique aurait obtenu une forte hausse du ratio de 0,206. Le second essai fait cadrer un fait empirique bien connu dans l'asymétrie des niveaux de march et d'entreprise, le total des revenus des entreprises positiveament asymétriques conduit à un revenu de marché négativement asymétrique. Nous décomposons l'asymétrie des revenus du marché au niveau de l'entreprise et faisons cadrer ce fait par une plus grande réaction des entreprises aux nouvelles négatives du marché qu'aux nouvelles positives du marché. Cette décomposition révélé plusieurs variables de revenus de marché efficaces tels que l'asymétrie caractéristique pondérée par la volatilité ainsi que l'asymétrie caractéristique de ralentissement. Le troisième chapitre fournit une nouvelle base théorique pour les problèmes de liquidité qui varient selon le temps au sein d'un environnement de marché incomplet. Nous proposons un modèle d'équilibre général avec deux agents: un entrepreneur et un investisseur externe. Seul l'investisseur a besoin de connaitre le véritable état de l'entreprise, par conséquent, les informations de paiement coutent de l'argent. La nouveauté est que l'acquisition de l'information coute plus cher durant les mauvaises périodes que durant les bonnes périodes, comme cela a été confirmé par de précédentes expériences. Lorsque la récession comamence, l'apprentissage coûteux fait augmenter les primes de liquidité causant un problème d'évaporation de liquidité, comme cela a été aussi confirmé par de précédentes expériences.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans le contexte climatique actuel, les régions méditerranéennes connaissent une intensification des phénomènes hydrométéorologiques extrêmes. Au Maroc, le risque lié aux inondations est devenu problématique, les communautés étant vulnérables aux événements extrêmes. En effet, le développement économique et urbain rapide et mal maîtrisé augmente l'exposition aux phénomènes extrêmes. La Direction du Développement et de la Coopération suisse (DDC) s'implique activement dans la réduction des risques naturels au Maroc. La cartographie des dangers et son intégration dans l'aménagement du territoire représentent une méthode efficace afin de réduire la vulnérabilité spatiale. Ainsi, la DDC a mandaté ce projet d'adaptation de la méthode suisse de cartographie des dangers à un cas d'étude marocain (la ville de Beni Mellal, région de Tadla-Azilal, Maroc). La méthode suisse a été adaptée aux contraintes spécifiques du terrain (environnement semi-aride, morphologie de piémont) et au contexte de transfert de connaissances (caractéristiques socio-économiques et pratiques). Une carte des phénomènes d'inondations a été produite. Elle contient les témoins morphologiques et les éléments anthropiques pertinents pour le développement et l'aggravation des inondations. La modélisation de la relation pluie-débit pour des événements de référence, et le routage des hydrogrammes de crue ainsi obtenus ont permis d'estimer quantitativement l'aléa inondation. Des données obtenues sur le terrain (estimations de débit, extension de crues connues) ont permis de vérifier les résultats des modèles. Des cartes d'intensité et de probabilité ont été obtenues. Enfin, une carte indicative du danger d'inondation a été produite sur la base de la matrice suisse du danger qui croise l'intensité et la probabilité d'occurrence d'un événement pour obtenir des degrés de danger assignables au territoire étudié. En vue de l'implémentation des cartes de danger dans les documents de l'aménagement du territoire, nous nous intéressons au fonctionnement actuel de la gestion institutionnelle du risque à Beni Mellal, en étudiant le degré d'intégration de la gestion et la manière dont les connaissances sur les risques influencent le processus de gestion. L'analyse montre que la gestion est marquée par une logique de gestion hiérarchique et la priorité des mesures de protection par rapport aux mesures passives d'aménagement du territoire. Les connaissances sur le risque restent sectorielles, souvent déconnectées. L'innovation dans le domaine de la gestion du risque résulte de collaborations horizontales entre les acteurs ou avec des sources de connaissances externes (par exemple les universités). Des recommandations méthodologiques et institutionnelles issues de cette étude ont été adressées aux gestionnaires en vue de l'implémentation des cartes de danger. Plus que des outils de réduction du risque, les cartes de danger aident à transmettre des connaissances vers le public et contribuent ainsi à établir une culture du risque. - Severe rainfall events are thought to be occurring more frequently in semi-arid areas. In Morocco, flood hazard has become an important topic, notably as rapid economic development and high urbanization rates have increased the exposure of people and assets in hazard-prone areas. The Swiss Agency for Development and Cooperation (SADC) is active in natural hazard mitigation in Morocco. As hazard mapping for urban planning is thought to be a sound tool for vulnerability reduction, the SADC has financed a project aimed at adapting the Swiss approach for hazard assessment and mapping to the case of Morocco. In a knowledge transfer context, the Swiss method was adapted to the semi-arid environment, the specific piedmont morphology and to socio-economic constraints particular to the study site. Following the Swiss guidelines, a hydro-geomorphological map was established, containing all geomorphic elements related to known past floods. Next, rainfall / runoff modeling for reference events and hydraulic routing of the obtained hydrographs were carried out in order to assess hazard quantitatively. Field-collected discharge estimations and flood extent for known floods were used to verify the model results. Flood hazard intensity and probability maps were obtained. Finally, an indicative danger map as defined within the Swiss hazard assessment terminology was calculated using the Swiss hazard matrix that convolves flood intensity with its recurrence probability in order to assign flood danger degrees to the concerned territory. Danger maps become effective, as risk mitigation tools, when implemented in urban planning. We focus on how local authorities are involved in the risk management process and how knowledge about risk impacts the management. An institutional vulnerability "map" was established based on individual interviews held with the main institutional actors in flood management. Results show that flood hazard management is defined by uneven actions and relationships, it is based on top-down decision-making patterns, and focus is maintained on active mitigation measures. The institutional actors embody sectorial, often disconnected risk knowledge pools, whose relationships are dictated by the institutional hierarchy. Results show that innovation in the risk management process emerges when actors collaborate despite the established hierarchy or when they open to outer knowledge pools (e.g. the academia). Several methodological and institutional recommendations were addressed to risk management stakeholders in view of potential map implementation to planning. Hazard assessment and mapping is essential to an integrated risk management approach: more than a mitigation tool, danger maps represent tools that allow communicating on hazards and establishing a risk culture.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cadre de l'étude La part des dépenses de santé dans les budgets des pays occidentaux est importante et tend à croître depuis plusieurs décennies. Une des conséquences, notamment pour la Suisse, est une augmentation régulière des primes d'assurance maladie, dont l'impopularité incite les responsables politiques à trouver des stratégies de frein à la croissance des coûts de la santé. Les médicaments, qui contribuent notablement à l'augmentation de ces coûts, constituent l'une des cibles classiques d'interventions visant à une réduction des dépenses de santé. Le niveau de coûts des médicaments représente plus de 20% des dépenses de soins du domaine ambulatoire à la charge de l'assurance obligatoire des soins (AOS), soit une dépense annuelle de plus de 4 milliards de francs. Différentes mesures peuvent être utilisées par le gouvernement pour contenir cette facture à charge de la collectivité : baisse du prix des médicaments, limitation du nombre de produits remboursés par l'assurance de base et incitations à la concurrence sur les prix en autorisant les importations parallèles. Depuis que de plus en plus de brevets pour des médicaments sont arrivés à échéance, un autre angle d'attaque s'est concrétisé avec l'incitation à la prescription de médicaments génériques. Les génériques sont définis comme des produits thérapeutiques chimiquement identiques à des composés déjà utilisés, appelés médicaments originaux. En principe, une économie substantielle devrait pouvoir être réalisée sur les coûts totaux des médicaments si tous les génériques disponibles sur le marché étaient systématiquement prescrits par les professionnels et acceptés par les patients. Les résultats publiés par les caisses maladie et les offices fédéraux sont des estimations globales et les montants publiés par l'industrie pharmaceutique concernent l'ensemble du marché, incluant les médicaments utilisés dans les séjours hospitaliers, sont par ailleurs exprimés en prix de fabrique. De plus, aucune étude n'a tenu compte de la substituabilité des produits d'un point de vue pharmaceutique. L'objectif général de la thèse est d'évaluer aussi précisément que possible l'économie pouvant être encore réalisée dans le secteur ambulatoire en substituant aux médicaments originaux les produits génériques présents sur le marché et de caractériser plusieurs facteurs qui influencent la substitution générique. Pour cette étude, nous avons pu disposer de l'ensemble des factures pharmaceutiques de la caisse maladie CSS, pour tous ses assurés des cantons d'Argovie, du Tessin et de Vaud, soit plus de 169'000 assurés représentant les trois régions linguistiques de la Suisse. Les 1'341'197 prescriptions médicales qui ont été analysées concernent l'année 2003. C'est un moment critique dans l'histoire des génériques en Suisse, approprié pour établir un premier bilan après l'entrée en vigueur de la première mesure relative au droit de substituer octroyé en 2001 aux pharmaciens et, pour identifier idéalement les principaux déterminants de la substitution par les praticiens avant l'introduction de la quote-part différenciée en 2006. La présence d'un même principe actif n'est pas une condition suffisante pour permettre une substitution et pour ce travail des critères tenant compte des caractéristiques pharmaceutiques des produits ont été établis et appliqués pour valider la substituabilité des originaux par les génériques disponibles sur le marché. Ces critères concernent notamment le mode d'administration, le dosage et le nombre de doses dans l'emballage. L'étude a été réalisée selon deux approches, d'abord par une analyse descriptive sur l'ensemble de la population source pour estimer le marché des génériques et ensuite par une analyse statistique (régression logit multivariée) sur 173'212 prescriptions agrégées, qui concernent spécifiquement soit un générique soit un original substituable, pour caractériser les facteurs déterminants de la substitution générique. Résultats Dans l'ensemble de la population source, les génériques et les originaux substituables représentent 17,4% du marché en termes de coûts facturés, avec 3,4% de génériques et 14,0% d'originaux substituables ce qui correspond à un taux de substitution de 19,5%. En termes de dépenses, les substitutions génériques réalisées représentent une économie de 1,3% du total du marché étudié alors qu'il reste un potentiel notable d'économie par la substitution de 4,6%. Les taux de substitution sont très variables selon les cantons : 10,1% au Tessin, 29,0% pour le canton de Vaud et 35,8% pour Argovie. L'analyse univariée des 173'212 prescriptions de génériques ou d'originaux substituables, montre des taux de substitution plus élevés chez les patients jeunes et lorsqu'il y a d'importantes différences de prix entre les originaux et les génériques. Des taux de substitution peu élevés sont observés chez les patients les plus âgés et pour ceux qui ont des traitements médicamenteux complexes. Les patients ayant plus de 10 médicaments différents durant la même année, présentent une probabilité relative de substituer inférieure (-24%) par rapport aux patients ayant 6 à 10 médicaments différents dans l'année. Cependant, l'analyse multivariée montre que l'effet négatif sur le taux de substitution de l'âge combiné à la complexité des traitements n'excède pas 3%. Bien que le niveau de franchises et la participation financière à la quote-part soient liées à une augmentation de la prescription de génériques, leurs effets sont modérés pour les patients avec des franchises supérieures à 300 francs (effet marginal de 1%) et pour les patients qui n'ont pas atteint le plafond de participation (effet marginal de 2%). La différence de taux substitution entre les médecins hospitaliers et les spécialistes est diminuée de façon notable (effet marginal de -13%) et elle est cependant moins marquée avec les médecins généralistes (effet marginal de -3%). Les facteurs associés au marché ont une influence notable sur la substitution générique et des effets positifs sont observés avec l'augmentation de la taille du marché, du nombre de génériques pour un même original substituable et de l'économie relative entre l'original et le générique. Par contre, la diversification des formes galéniques et des tailles d'emballages au niveau de l'offre des médicaments originaux a des effets fortement négatifs sur la substitution générique (-7%). Le canton de domicile a aussi un impact notable sur la substitution et le canton du Tessin présente un taux plus bas (-26%) que le canton d'Argovie. Conclusion et perspectives Ce travail a montré qu'il y a encore un important potentiel d'économies à réaliser par la substitution générique, calculé à plus de 4% des dépenses pharmaceutiques prises en charge par l'AOS en ambulatoires. Une extrapolation à l'ensemble du marché suisse, qui doit être faite avec prudence, fait apparaître un potentiel d'économies de 127 millions pour les médicaments délivrés par les pharmacies en 2003. L'étude a mis en évidence un certain nombre de déterminants qui freinent la substitution générique, notamment la prescription par un médecin hospitalier. Sur ce point la prescription en DCI (dénomination commune internationale) pourrait favoriser la dispensation de génériques moins chers. Un taux de substitution plus faible est observé chez les patients âgés avec des traitements complexes. Ce constat peut être mis en relation avec la crainte d'avoir un traitement moins efficace ou moins bien supporté et les risques de confusion lors du passage d'un original substituable à un générique ou d'un générique à un autre générique. Sur ces éléments, l'indication claire et précise du nom de la substance, aussi bien sur les emballages des originaux substituables que sur ceux des génériques, pourrait rassurer les patients et diminuer les risques d'erreurs dans la prise des médicaments. Certaines précautions à prendre lors de la prescription de génériques sont reconnues, notamment pour les médicaments à faible marge thérapeutique, et des informations sur la bioéquivalence, régulièrement mises à jour et à disposition des professionnels, pourraient augmenter la confiance dans l'utilisation des génériques. Les industries pharmaceutiques préservent par différentes tactiques leurs parts de marché et notamment avec succès en introduisant de nouvelles formes galéniques juste avant l'expiration des brevets. Des directives complémentaires sur la fixation des prix pour le remboursement, en particulier l'introduction d'un prix de référence quelle que soit la forme galénique, pourraient diminuer l'effet de barrage des médicaments originaux. Les incitations économiques, telles que la franchise et les participations sont efficaces si l'on considère l'impact sur les taux de substitution. Leur effet global reste toutefois modeste et il serait nécessaire de mesurer concrètement l'impact de l'introduction en 2006 de la quote-part différenciée. Les différences de prix entre les originaux et les génériques exigées à 50% pour les gros marchés, c'est-à-dire de plus de 16 millions, devraient aussi avoir un impact qu'il serait opportun de mesurer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present dissertation analyzed the construct of attachment at different time points, specifically focusing on two phases of adoptive family life that have so far received little attention from investigators. Study 1 focused on the first months of adoption, and analyzed the development of the attachment relationship to new caregivers. The sample was composed of a small but homogeneous group (n=6) of Korean-born children, adopted by Italian parents. The Parent Attachment Diary (Dozier & Stovall, 1997) was utilized to assess the child's attachment behavior. We assessed these behavior for the first 3 months after placement into adoption. Results showed a double variability of attachment behavior: within subjects during the 3-months, and between subjects, with just half of the children developing a stable pattern of attachment. In order to test the growth trajectories of attachment behavior, Hierarchical Linear Models (Bryk & Raudenbush, 1992) were also applied, but no significant population trend was identified. Study 2 analyzed attachment among adoptees during the sensitive period of adolescence. Data was derived from an international collection (n= 104, from Belgium Italy, and Romania) of semi-structured clinical interviews (with adolescents and with their adoptive parents), as well as from questionnaires. The purpose of this study was to detect the role played by risk and protective factors on the adoptee's behavioral and socio-emotional outcomes. In addition, we tested the possible interactions between the different attachment representations within the adoptive family. Results showed that pre-adoptive risk predicted the adolescent's adjustment; however, parental representations constituted an important moderator of this relationship. Moreover, the adolescent's security of attachment partially mediated the relationship between age at placement and later behavioral problems. In conclusion, the two present attachment studies highlighted the notable rate of change of attachment behavior over time, which showed its underlying plasticity, and thus the possible reparatory value of the adoption practice. Since parents have been proven to play an important role, especially in adolescence, the post-adoption support acquires even more importance in order to help parents promoting a positive and stable relational environment over time. - L'objectif de cette thèse est de décrire la formation des relations d'attachement chez les enfants et les adolescents adoptés, lors de deux phases particulières de la vie de la famille adoptive, qui ont été relativement peu étudiées. L'Étude 1 analyse les premiers mois après l'adoption, avec le but de comprendre si, et comment, une relation d'attachement aux nouveaux parents se développe. L'échantillon est composé d'un petit groupe (n = 6) d'enfants provenant de Corée du Sud, adoptés par des parents Italiens. A l'aide du Parent Attachment Diary (Dozier & Stovall, 1997), des observations des comportements d'attachement de l'enfant ont été recueillies chaque jour au cours des 3 premiers mois après l'arrivée. Les résultats montrent une double variabilité des comportements d'attachement: au niveau inter- et intra-individuel ; au premier de ces niveaux, seuleme la moitié des enfants parvient à développer un pattern stable d'attachement ; au niveau intra-individuel, les trajectoires de développement des comportements d'attachement ont été testées à l'aide de Modèles Linéaires Hiérarchiques (Bryk et Raudenbush, 1992), mais aucune tendance significative n'a pu être révélée. L'Étude 2 vise à analyser l'attachement chez des enfants adoptés dans l'enfance, lors de la période particulièrement sensible de l'adolescence. Les données sont issues d'un base de données internationale (n = 104, Belgique, Italie et Roumanie), composée d' entretiens cliniques semi-structurées (auprès de l'adolescents et des ses parents adoptifs), ainsi que de questionnaires. Les analyses statistiques visent à détecter la présence de facteurs de risque et de protection relativement à l'attachement et aux problèmes de comportement de l'enfant adopté. En outre, la présence d'interactions entre les représentations d'attachement des membres de la famille adoptive est évaluée. Les résultats montrent que les risques associés à la période pré-adoptive prédisent la qualité du bien-être de l'adolescent, mais les représentations parentales constituent un modérateur important de cette relation. En outre, la sécurité de l'attachement du jeune adopté médiatise partiellement la relation entre l'âge au moment du placement et les problèmes de comportement lors de l'adolescence. En conclusion, à l'aide de multiples données relatives à l'attachement, ces deux études soulignent son évolution notable au fil du temps, ce qui sous-tend la présence d'une certaine plasticité, et donc la possible valeur réparatrice de la pratique de l'adoption. Comme les parents semblent jouer un rôle important de ce point de vue, surtout à l'adolescence, cela renforce la notion d'un soutien post-adoption, en vue d'aider les parents à la promotion d'un environnement relationnel favorable et stable. - Il presente lavoro è volto ad analizzare l'attaccamento durante le due fasi della vita della famiglia adottiva che meno sono state indagate dalla letteratura. Lo Studio 1 aveva l'obiettivo di analizzare i primi mesi che seguono il collocamento del bambino, al fine di capire se e come una relazione di attaccamento verso i nuovi genitori si sviluppa. Il campione è composto da un piccolo gruppo (n = 6) di bambini provenienti dalla Corea del Sud e adottati da genitori italiani. Attraverso il Parent Attachment Diary (Stovall e Dozier, 1997) sono stati osservati quotidianamente, e per i primi tre mesi, i comportamenti di attaccamento del bambino. I risultati hanno mostrato una duplice variabilità: a livello intraindividuale (nell'arco dei 3 mesi), ed interindividuale, poiché solo la metà dei bambini ha sviluppato un pattern stabile di attaccamento. Per verificare le traiettorie di sviluppo di tali comportamenti, sono stati applicati i Modelli Lineari Gerarchici (Bryk & Raudenbush, 1992), che però non hanno stimato una tendenza significativa all'interno della popolazione. Obiettivo dello Studio 2 è stato quello di esaminare l'attaccamento nelle famiglie i cui figli adottivi si trovavano nella delicata fase adolescenziale. I dati, provenienti da una raccolta internazionale (n = 104, Belgio, Italia e Romania), erano costituiti da interviste cliniche semi-strutturate (con gli adolescenti e i propri genitori adottivi) e da questionari. Le analisi hanno indagato il ruolo dei fattori di rischio sullo sviluppo socio-emotivo e sugli eventuali problemi comportamentali dei ragazzi. Inoltre, sono state esaminate le possibili interazioni tra le diverse rappresentazioni di attaccamento dei membri della famiglia adottiva. I risultati hanno mostrato che il rischio pre-adottivo predice l'adattamento dell'adolescente, sebbene le rappresentazioni genitoriali costituiscano un importante moderatore di questa relazione. Inoltre, la sicurezza dell'attaccamento dell'adolescente media parzialmente la relazione tra età al momento dell'adozione e problemi comportamentali in adolescenza. In conclusione, attraverso i molteplici dati relativi all'attaccamento, i due studi ne hanno evidenziato il cambiamento nel tempo, a riprova della sua plasticità, e pertanto sottolineano il possibile valore riparativo dell'adozione. Dal momento che i genitori svolgono un ruolo importante, soprattutto in adolescenza, il supporto nel post- adozione diventa centrale per aiutarli a promuovere un ambiente relazionale favorevole e stabile nel tempo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les sports équestres sont en plein développement en France où l'on compte plus d'un million de chevaux. Le nombre de cavaliers pratiquant en club ou chez eux est estimé à 600 000 et l'on dénombre plus de 68 000 emplois en France dans tous les domaines : agriculture, environnement, courses, loisirs, sports (www.haras-nationaux.fr). On trouve également dans les métiers du cheval les vétérinaires spécialisés ainsi que les maréchaux-ferrants. De plus, la France est un pays reconnu pour son activité d'élevage avec une production de chevaux de concours de très grande qualité.Récemment, plusieurs études relatant les expositions professionnelles à la poussière des écuries ont paru dans les journaux scientifiques. Les résultats montrent que la poussière issue des écuries contient, entre autres, des concentrations relativement élevées d'endotoxines (1) et de ?(1-3)-glucan (2) pouvant avoir des conséquences sur la santé respiratoire des travailleurs. En effet, des études précédentes ont montré que le fait de travailler ou de côtoyer des chevaux était associé avec une augmentation des risques de problèmes des voies respiratoires supérieures tels que des irritations du nez, de la toux (sèche et productive), de l'asthme, des bronchites chroniques et des épisodes d'" organic dust toxic syndrome (3) " (Gallagher et al., 2007 ; Mazan et al., 2009). [Auteure]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les médias de masse, en particulier Internet, ont profondément modifié la distribution du pouvoir dans notre société. Sous l'oeil des caméras et des citoyens-reporters, le pouvoir policier est l'objet d'une intense « sous-veillance » publique et médiatique. Pourquoi et comment sensibiliser les nouveaux entrants aux « risques médiatiques » de leur future profession ?

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les acteurs du système judiciaire prennent des décisions à des niveaux différents. La distribution des rôles et des responsabilités se définissent par des procédures et des formes d'organisations qui varient parfois fortement d'une juridiction à l'autre. Ainsi, selon le contexte particulier et la nature de la tâche, le forensicien peut par exemple décider lui-même de cibler la recherche d'indices sur des lieux ou d'effectuer des traitements particuliers sur une trace. Il est susceptible dans d'autres rôles de recommander des pistes d'enquête ou d'évaluer la valeur probante d'un indice au profit d'une autorité judiciaire qui prend les décisions de condamnation. De mauvais choix peuvent aboutir in fine à des erreurs judiciaires. Comme les décisions se prennent sur la base d'informations incertaines et incomplètes, les risques d'erreurs doivent s'évaluer dans des cadres formels bien maîtrisés. L'erreur "acceptable" devient ainsi un thème crucial, surtout lorsque les systèmes automatisés sont susceptibles de prendre certaines décisions, notamment dans le cadre du contrôle de l'identité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les précipitations moyennes et les nombres de jours de pluie par saison et par an ont été analysés pour 151 séries de mesures pluviométriques en Suisse de 1900 à 2009. Ces analyses révèlent que les précipitations moyennes ont augmenté durant le 20ème siècle pour toutes les saisons, sauf en été. Cette hausse est la plus marquée en hiver, surtout dans le Nord des Alpes et en Valais. Les nombres de jours de pluie ont également augmenté en hiver, mais moins fortement que les précipitations moyennes, alors qu'ils tendent à diminuer très légèrement durant les autres saisons. On en déduit que l'intensité moyenne des précipitations s'est accrue en Suisse durant le 20ème siècle en toutes saisons.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction L'écriture manuelle fluide et automatisée constitue, avec la lecture, les fondements au développement des compétences scolaires. En effet, l'enfant peut développer le langage écrit avec l'acquisition de l'écriture, il a besoin d'une écriture manuelle automatisée lors d'évaluations scolaires écrites. De plus, la sollicitation de l'écriture manuelle augmente au cours de la scolarité, que ce soit au niveau de l'endurance, de la vitesse ou de la qualité. L'acquisition de l'écriture requiert des processus cognitifs, linguistiques et perceptivomoteurs, définis en tant que facteurs internes ou endogènes (Beeson et al., 2003) et résulte d'une démarche d'enseignement et d'un processus d'apprentissage constituant des facteurs externes ou exogènes. Les perturbations de l'acquisition de l'écriture sont nommées de différentes manières dans la littérature scientifique. Les chercheurs anglo-saxons convoquent la notion de faible écriture manuelle (poor handwriting), de troubles grapho-moteurs ou de difficultés d'écriture (Weintraub & Graham, 2000 ; Jongmans, Smits-Engelsman, & Schoemaker, 2003 ; Volman, van Schendel, &Jongmans, 2006) qui se caractérisent par une absence de régularité du tracé et/ ou de l'espace entre les mots, par des lettres ambiguës (Rosenblum, Weiss, & Parush, 2006). Les auteurs francophones, le plus souvent de formation médicale (Gubbay & de Klerk, 1995 ; Mazeau, 2005), utilisent plus fréquemment le diagnostic de dysgraphie qui renvoie à des difficultés d'assemblage de ronds et de traits pour former une lettre perturbant ainsi l'apprentissage de l'écriture (Mazeau, 2005). Selon Mazeau, la dysgraphie fait partie des troubles d'apprentissage. Les conséquences d'une faible écriture manuelle sont multiples. Si l'écriture n'est pas automatisée, l'enfant est placé dans une situation de double tâche nécessitant une attention focalisée à la fois sur l'acte d'écrire et sur le raisonnement nécessaire pour réaliser les exigences d'une tâche scolaire (Berningér et al., 1997). Si l'enfant se concentre sur la formation des lettres et le contrôle des mouvements, le raisonnement nécessaire à l'application de règles de grammaire et d'orthographe est perturbé tout comme la qualité des idées lors d'une composition. L'enfant présentant une écriture lente ne parviendra pas à finaliser son travail dans les situations de tests. Les difficultés d'écriture manuelle constituent un facteur de prédiction des troubles d'apprentissage (Harvey & Henderson, 1997 ; Simner, 1982) et elles sont fréquemment citées parmi les causes de la littératie. Car, comme le relèvent Berninger, Mizokawa et Bragg (1991), l'enfant présentant des difficultés d'écriture manuelle aura tendance à éviter toute activité d'écriture renforçant ainsi l'écart avec ses pairs dans ce domaine. Si ces comportements d'évitement se situent dans la période d'apprentissage de l'écriture, ils perturberont la mémorisation des lettres. En effet, la mémorisation des lettres est meilleure lorsque l'apprentissage se fait en situation d'écriture manuelle qu'en situation de lecture uniquement (Longcamp, Boucard, Guilhodes, & Velay, 2006). Par ailleurs, les épreuves dont la qualité de l'écriture est faible font l'objet d'évaluation moins favorable que celles dont l'écriture est plus facilement lisible. Les enseignants/es seraient alors moins persévérants/es dans leur lecture et plus sévères lors de la notation d'une rédaction. Ils, elles développeraient une faible perception des compétences en composition lorsqu'ils, elles sont confrontés/es à une épreuve dont la qualité est peu fluide et peu lisible (Alston & Taylor, 1987). L'identification des difficultés d'écriture peut se fairé de différentes manières (Kozatiek & Powell, 2002 ; Simons & Thijs, 2006 ). D'une part, l'appréciation de la qualité et de la vitesse d'écriture manuelle peut être subjective avec l'avis de l'enseignant et, d'autre part, objective avec l'utilisation de tests standardisés comportant des critères permettant de mesurer la vitesse et la qualité de l'écriture. Les conditions de passation des évaluations peuvent varier (copie, dictée ou composition) et influencer la vitesse et la qualité de l'écriture. La vitesse est moindre et la taille des lettres est inférieure en situation de composition qu'en situation de copie tandis que la régularité du tracé est plus stable en situation de copie que lors d'une composition. Si le dépistage et l'identification des difficultés d'écriture contribuent à la prévention de risques ultérieurs tels que de faibles compétence en littératie, la compréhension des causes de ces difficultés permettra le développement de moyens de remédiation de ces difficultés. Dans la littérature scientifique traitant de cette problématique, des facteurs endogènes ou exogènes peuvent être identifiés. Les facteurs endogènes regroupent autant la maturation développementale et le genre que les fonctions sensorimotrices telles que les dextérités manuelle et digitale, l'intégration visuomotrice, la visuoperception, l'attention visuelle et les fonctions cognitives. En outre, les troubles du développement tels qu'un trouble du langage, un déficit de l'attention ou un Trouble de l'acquisition de la coordination (TAC) (DSM-IV) (American Psychiatric Association, 2003) peuvent perturber l'acquisition de l'écriture. Les facteurs exogènes correspondent soit aux facteurs environnementaux tels que la position de l'enfant ou l'outil scripteur utilisé, soit aux modalités et à la durée de l'enseignement de l'écriture. En effet, la durée de l'enseignement de l'écriture et les modalités pédagogiques contribuent à marquer les différences interindividuelles pour la qualité et pour la vitesse de l'écriture. Actuellement, l'enseignement de l'écriture est, dans la plupart des programmes scolaires, intégré dans le cadre d'autres cours et ne fait pas l'objet d'un enseignement spécifique. Cette pratique entraîné un auto-apprentissage de la part de l'enfant et, par conséquent, un apprentissage implicite de l'écriture alors que les bénéfices d'un enseignement explicite ont été largement mis en évidence par Willingham et Goedert-Eschmann (1999). En effet, ces auteurs ont montré qu'un enseignement explicite favorise l'acquisition, la performance et le transfert d'apprentissage de manière plus importante que l'apprentissage implicite. Paradoxalement, alors que l'enseignement de l'écriture tend à être délaissé dans les programmes scolaires, les études mettant en évidence l'efficacité de l'enseignement de l'écriture (Berninger et al., 1997 ; Jongmans, Linthorst-Bakker, Westenberg & SmitsEngelsman et al., 2003 ; Schoemaker, Niemeijer, Reynders, & Smits-Engelsman , 2003) sont nombreuses. Leurs résultats montrent que l'enseignement d'une seule catégorie d'écriture (liée ou scripte) est plus efficace que l'enseignement de deux catégories d'écriture scripte en début d'apprentissage et écriture liée dans un second temps. Un enseignement régulier et intensif consacré à l'écriture au début de la scolarité va permettre une acquisition plus rapide de l'écriture et de la lecture (Graham & Weintraub, 1996 ; Denton, Cope & Moser, 2006). Selon Berninger, Abbot, Abbot, Graham et Richards (2002), la lecture et l'écriture devraient faire l'objet d'un enseignement coordonné et harmonisé. L'enseignement de l'écriture favorisant les liens avec les contextes d'utilisation de l'écriture montre une efficacité plus grande que lorsqu'il est déconnecté de son contexte (Denton, Cope, & Moser, 2006). L'enjeu d'une automatisation de l'écriture de qualité est important et relève d'une priorité afin de permettre aux enfants de développer de manière optimale leurs compétences académiques. Lorsque des troubles d'écriture sont constatés, l'identification des causes liées à ces difficultés tout comme une prise en charge spécifique faciliteront l'acquisition de cette compétence fondamentale (Berninger et al., 1997). Dans ces perspectives, cette thèse vise à identifier les facteurs endogènes et les facteurs exogènes intervenant dans l'écriture manuelle, que ce soit au niveau de la qualité ou de la vitesse de l'écriture. Au niveau théorique, elle développe l'étai des connaissances dans le domaine de l'écriture en neuropsychologie, en neurosciences et en sciences du mouvement humain. Elle présente, dans une perspective développementale, les modèles de l'apprentissage de l'écriture ainsi que les étapes d'acquisition de l'écriture tout en considérant les différences liées au genre. Ensuite, la description des difficultés d'écriture manuelle précède les moyens d'évaluation de l'écriture. Un chapitre est consacré aux fonctions perceptivomotrices et cognitives influençant l'écriture. Puis, comme les difficultés d'acquisition de l'écriture manuelle font partie du TAC, ce trouble est développé dans le chapitre 5. Enfin, les facteurs exogènes sont présentés dans le chapitre 6, ils comprennent les conditions environnementales (position de l'enfant, types de papiers, types d'outils scripteurs) ainsi que les dimensions d'un programme d'enseignement de l'écriture manuelle. Les effets des programmes de remédiation ou d'enseignement intensif de l'écriture sont traités en dernière partie du chapitre 6. Cette thèse est composée d'une partie de recherche fondamentale et d'une partie de recherche appliquée. La recherche fondamentale, qui comprend deux étapes d'investigation (Etudes 1 et 2), a pour objectifs d'identifier les facteurs endogènes prédictifs d'une écriture manuelle non performante (dextérités digitale et manuelle, intégration visuomotrice ou visuoperception) et d'investiguer les relations entre la lecture, l'attention visuelle, la mémoire audtive et l'écriture manuelle. De plus, elle déterminera la prévalence du TAC parmi les enfants présentant une faible écriture manuelle. La recherche appliquée comporte deux expérimentations. La première expérience a pour but de mesurer les effets d'un programme d'enseignement de l'écriture introduit en fin de deuxième année primaire visant à permettre aux enfants les plus faibles dans le domaine de l'écriture d'améliorer leurs performances. La seconde expérience analyse les effets d'un programme d'enseignement intensif de l'écriture manuelle qui s'est déroulé au début de la première année de scolarité obligatoire. L'acquisition de l'écriture est complexe tant au niveau du contróle moteur que du codage phonème -graphème ou de l'attention. L'écriture manuelle, en tant que compétence de base dans le développement des acquisitions scolaires, demeure tout au long de la scolarité et de la vie professionnelle, une compétence incontournable malgré le développement des nouvelles technologies. Remplir un formulaire, prendre des notes dans une séance ou à un cours, signer des documents, consigner des notes dans des dossiers, utiliser des écrans tactiles constituent des activités nécessitant une écriture manuelle fonctionnelle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Social medicine is a medicine that seeks to understand the impact of socio-economic conditions on human health and diseases in order to improve the health of a society and its individuals. In this field of medicine, determining the socio-economic status of individuals is generally not sufficient to explain and/or understand the underlying mechanisms leading to social inequalities in health. Other factors must be considered such as environmental, psychosocial, behavioral and biological factors that, together, can lead to more or less permanent damages to the health of the individuals in a society. In a time where considerable progresses have been made in the field of the biomedicine, does the practice of social medicine in a primary care setting still make sense? La médecine sociale est une médecine qui cherche à comprendre l'impact des conditions socio-économiques sur la santé humaine et les maladies, dans la perspective d'améliorer l'état de santé d'une société et de ses individus. Dans ce domaine, la détermination du statut socio-économique des individus ne suffit généralement pas à elle seule pour expliquer et comprendre les mécanismes qui sous-tendent les inégalités sociales de santé. D'autres facteurs doivent être pris en considération, tels que les facteurs environnementaux, psychosociaux, comportementaux et biologiques, facteurs qui peuvent conduire de manière synergique à des atteintes plus ou moins durables de l'état de santé des individus d'une société. A une époque où les connaissances, les compétences et les moyens à disposition en biomédecine ont fait des progrès considérables, la pratique de la médecine sociale en cabinet a-t-elle encore sa place en 2013?