221 resultados para Probabilité de couverture


Relevância:

10.00% 10.00%

Publicador:

Resumo:

McCausland (2004a) describes a new theory of random consumer demand. Theoretically consistent random demand can be represented by a \"regular\" \"L-utility\" function on the consumption set X. The present paper is about Bayesian inference for regular L-utility functions. We express prior and posterior uncertainty in terms of distributions over the indefinite-dimensional parameter set of a flexible functional form. We propose a class of proper priors on the parameter set. The priors are flexible, in the sense that they put positive probability in the neighborhood of any L-utility function that is regular on a large subset bar(X) of X; and regular, in the sense that they assign zero probability to the set of L-utility functions that are irregular on bar(X). We propose methods of Bayesian inference for an environment with indivisible goods, leaving the more difficult case of indefinitely divisible goods for another paper. We analyse individual choice data from a consumer experiment described in Harbaugh et al. (2001).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cet article illustre l’applicabilité des méthodes de rééchantillonnage dans le cadre des tests multiples (simultanés), pour divers problèmes économétriques. Les hypothèses simultanées sont une conséquence habituelle de la théorie économique, de sorte que le contrôle de la probabilité de rejet de combinaisons de tests est un problème que l’on rencontre fréquemment dans divers contextes économétriques et statistiques. À ce sujet, on sait que le fait d’ignorer le caractère conjoint des hypothèses multiples peut faire en sorte que le niveau de la procédure globale dépasse considérablement le niveau désiré. Alors que la plupart des méthodes d’inférence multiple sont conservatrices en présence de statistiques non-indépendantes, les tests que nous proposons visent à contrôler exactement le niveau de signification. Pour ce faire, nous considérons des critères de test combinés proposés initialement pour des statistiques indépendantes. En appliquant la méthode des tests de Monte Carlo, nous montrons comment ces méthodes de combinaison de tests peuvent s’appliquer à de tels cas, sans recours à des approximations asymptotiques. Après avoir passé en revue les résultats antérieurs sur ce sujet, nous montrons comment une telle méthodologie peut être utilisée pour construire des tests de normalité basés sur plusieurs moments pour les erreurs de modèles de régression linéaires. Pour ce problème, nous proposons une généralisation valide à distance finie du test asymptotique proposé par Kiefer et Salmon (1983) ainsi que des tests combinés suivant les méthodes de Tippett et de Pearson-Fisher. Nous observons empiriquement que les procédures de test corrigées par la méthode des tests de Monte Carlo ne souffrent pas du problème de biais (ou sous-rejet) souvent rapporté dans cette littérature – notamment contre les lois platikurtiques – et permettent des gains sensibles de puissance par rapport aux méthodes combinées usuelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’introduction éventuelle, au Québec, de la force exécutoire pour les actes notariés soulève, du point de vue économique, deux questions. La première porte sur les effets prévisibles de cette mesure, notamment sur le marché des services juridiques de rédaction d’actes. Du côté de l’offre, il convient de distinguer selon que l’acte notarié est obligatoire ou facultatif. Du côté de la demande, le changement tendrait à diminuer le coût de réalisation d’un droit. Le gain qui en résulte peut profiter, en partie, aux notaires. L’ampleur de l’effet dépend de la probabilité qu’il faille recourir à l’exécution forcée. L’effet irait dans le sens de réduire le coût du crédit et d’augmenter sa disponibilité. Pour le débiteur, l’engagement deviendrait plus risqué, mais du même coup, lui permettrait de signaler sa « crédibilité ». Les chiffres fournis dans une étude réalisée par le groupe Secor en 1995 font voir une économie plutôt modeste de ces mesures. Pour évaluer l’ampleur du désengorgement prévisible des tribunaux, il faudrait connaître l’importance des procédures essentiellement engagées pour la perception de créances. Au-dedes effets immédiats, les enjeux de cette mesure sont de deux ordres. D’abord, ils soulèvent la question de la justification d’accorder l’avantage comparatif de la force exécutoire aux actes notariés et à eux seuls. Cette question nous conduit à celle du statut d’officier public des notaires, plus précisément aux caractéristiques qui doivent être jugées essentielles pour ce statut. Car si l’on ne peut prêter au notaire une aussi grande confiance qu’au juge, il convient de s’interroger, aux fins de l’exécution forcée, sur les limites à imposer au contenu des actes ayant force exécutoire. Les réponses à ces questions présupposent des données qu’on peut difficilement obtenir autrement que par l’expérience prudente. Les chiffres disponibles permettent de prévoir des économies modestes. L’introduction de la force exécutoire doit s’accompagner de mesures de stricte surveillance, notamment en matière de conflits d’intérêt potentiels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les employés d’un organisme utilisent souvent un schéma de classification personnel pour organiser les documents électroniques qui sont sous leur contrôle direct, ce qui suggère la difficulté pour d’autres employés de repérer ces documents et la perte possible de documentation pour l’organisme. Aucune étude empirique n’a été menée à ce jour afin de vérifier dans quelle mesure les schémas de classification personnels permettent, ou même facilitent, le repérage des documents électroniques par des tiers, dans le cadre d’un travail collaboratif par exemple, ou lorsqu’il s’agit de reconstituer un dossier. Le premier objectif de notre recherche était de décrire les caractéristiques de schémas de classification personnels utilisés pour organiser et classer des documents administratifs électroniques. Le deuxième objectif consistait à vérifier, dans un environnement contrôlé, les différences sur le plan de l’efficacité du repérage de documents électroniques qui sont fonction du schéma de classification utilisé. Nous voulions vérifier s’il était possible de repérer un document avec la même efficacité, quel que soit le schéma de classification utilisé pour ce faire. Une collecte de données en deux étapes fut réalisée pour atteindre ces objectifs. Nous avons d’abord identifié les caractéristiques structurelles, logiques et sémantiques de 21 schémas de classification utilisés par des employés de l’Université de Montréal pour organiser et classer les documents électroniques qui sont sous leur contrôle direct. Par la suite, nous avons comparé, à partir d'une expérimentation contrôlée, la capacité d’un groupe de 70 répondants à repérer des documents électroniques à l’aide de cinq schémas de classification ayant des caractéristiques structurelles, logiques et sémantiques variées. Trois variables ont été utilisées pour mesurer l’efficacité du repérage : la proportion de documents repérés, le temps moyen requis (en secondes) pour repérer les documents et la proportion de documents repérés dès le premier essai. Les résultats révèlent plusieurs caractéristiques structurelles, logiques et sémantiques communes à une majorité de schémas de classification personnels : macro-structure étendue, structure peu profonde, complexe et déséquilibrée, regroupement par thème, ordre alphabétique des classes, etc. Les résultats des tests d’analyse de la variance révèlent des différences significatives sur le plan de l’efficacité du repérage de documents électroniques qui sont fonction des caractéristiques structurelles, logiques et sémantiques du schéma de classification utilisé. Un schéma de classification caractérisé par une macro-structure peu étendue et une logique basée partiellement sur une division par classes d’activités augmente la probabilité de repérer plus rapidement les documents. Au plan sémantique, une dénomination explicite des classes (par exemple, par utilisation de définitions ou en évitant acronymes et abréviations) augmente la probabilité de succès au repérage. Enfin, un schéma de classification caractérisé par une macro-structure peu étendue, une logique basée partiellement sur une division par classes d’activités et une sémantique qui utilise peu d’abréviations augmente la probabilité de repérer les documents dès le premier essai.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Un résumé en anglais est également disponible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Chez les personnes âgées, la dépression est un problème important en santé publique, à cause de sa prévalence élevée et de son association avec les incapacités fonctionnelles, la mortalité et l’utilisation des services. La plupart des études ont montré que le manque de relations sociales était associé à la dépression, mais les résultats ne sont pas clairs. Au Québec et au Canada, on possède peu de données sur la prévalence de la dépression chez les personnes âgées et de son association avec les relations sociales. Peu d’études ont examiné le rôle des relations sociales sur l’utilisation des services de santé par les personnes âgées déprimées. Le but de cette recherche était d’examiner le rôle des relations sociales dans la présence de la dépression et dans la consultation chez un professionnel de la santé des personnes âgées déprimées, au Québec. Plus spécifiquement, ce travail visait à : 1) examiner les associations entre les relations sociales et les troubles dépressifs selon la région de résidence; 2) examiner les associations différentielles des relations sociales sur la dépression des femmes et des hommes âgés; 3) examiner le rôle des relations sociales dans la consultation auprès d’un professionnel de la santé des personnes âgées déprimées. Pour répondre à ces objectifs, nous avons utilisé les données de l’enquête ESA (Enquête sur la Santé des Aînés), réalisée en 2005 -2006 auprès d’un échantillon de 2670 personnes âgées résidant à domicile au Québec, qui nous ont permis de rédiger trois articles. Les troubles dépressifs (incluant la dépression majeure et mineure) ont été mesurés, selon les critères du DSM-IV, en excluant le critère de l’altération du fonctionnement social, professionnel ou dans d’autres domaines importants, à l’aide du questionnaire ESA développé par l’équipe de recherche. Les relations sociales ont été mesurées à l’aide de cinq variables : (1) le réseau social; (2) l’intégration sociale; (3) le soutien social, (4) la perception d’utilité auprès des proches et (5) la présence de relations conflictuelles avec le conjoint, les enfants, les frères et sœurs et les amis. Des modèles de régression logistique multiple ont été ajustés aux données pour estimer les rapports de cote et leur intervalle de confiance à 95 %. Nos résultats ont montré des prévalences de dépression plus élevées chez les personnes qui résident dans les régions rurales et urbaines, comparées à celles qui résident dans la région métropolitaine de Montréal. La pratique du bénévolat, le soutien social et les relations non conflictuelles avec le conjoint sont associés à une faible prévalence de dépression, indépendamment du type de résidence. Comparés aux hommes, les femmes ont une prévalence de dépression plus élevée. L’absence de confident est associée à une prévalence de dépression élevée, tant chez les hommes que chez les femmes. La probabilité de dépression est plus élevée chez les hommes veufs et chez ceux qui ne pratiquent pas d’activités de bénévolat, comparativement à ceux qui sont mariés et font du bénévolat. Chez les femmes, aucune association significative n’a été observée entre le statut marital, le bénévolat et la dépression. Cependant, la présence de relations conflictuelles avec le conjoint est associée avec la dépression, seulement chez les femmes. Les relations avec les enfants, les frères et sœurs et les amis ne sont pas associées avec la dépression dans cette population de personnes âgées du Quebec. En ce qui concerne la consultation chez un professionnel de la santé, nos résultats ont révélé que presque la moitié des personnes âgées dépressives n’ont pas consulté un professionnel de la santé, pour leurs symptômes de dépression, au cours des 12 derniers mois. Par ailleurs, notre étude a montré que les personnes âgées qui disposent de tous les types de soutien (confident, émotionnel et instrumental) consultent plus pour leurs symptômes de dépression que ceux qui ont moins de soutien. Comparativement aux hommes mariés, les femmes mariées consultent plus les professionnels de la santé, ce qui laisse supposer que le réseau de proches (épouse et enfants) semble agir comme un substitut en réduisant la fréquence de consultation chez les hommes. Vu la rareté des études canadiennes sur la prévalence de la dépression chez les personnes âgées et les facteurs psychosociaux qui y sont associés, les résultats de ce travail seront utiles pour les cliniciens et pour les responsables des politiques à l’échelle nationale, provinciale et locale. Ils pourront guider des interventions spécifiques, selon la région de résidence et pour les hommes et les femmes âgées, dans le domaine de la santé mentale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Résumé Objectif : Identifier les facteurs institutionnels qui influencent la mortalité maternelle (MM) hospitalière dans les maternités chirurgicales au Sénégal. Méthode : cette étude est une analyse secondaire des données de la troisième Enquête Nationale sur la Couverture Obstétrico-chirurgicale au Sénégal en 2001. Les données analysées, issues des fiches d'activité des maternités, comptaient pour 38,239 admissions en obstétrique dans 19 hôpitaux et 450 décès maternels. Les taux de mortalité maternelle hospitalière (TMMH) brut et ajusté ont été utilisés comme variables dépendantes. Le TMMH ajusté sur les caractéristiques de la clientèle ('cases-mix') a été estimé pour chaque établissement de santé par la méthode de standardisation directe. Les indicateurs de la qualité des structures, de la gestion des ressources, et un score de qualité ont été utilisés comme variables indépendantes pour prédire la MM hospitalière. Les tests de Mann-Whitney et de Kruskal-Wallis ont été utilisés pour analyser l’association entre les variables indépendantes, le score de qualité et la MM. Une analyse multivariée a été utilisée pour estimer l’impact du score de qualité sur la MM, en tenant compte de la situation géographique (Dakar versus autre région).Résultats: En analyse bivariée, la présence d'anesthésiste, la disponibilité de boîtes de césarienne complète et la supervision de tous les accouchements par du personnel qualifié sont les facteurs institutionnels associés significativement à une réduction du TMMH brut. Quant au TMMH ajusté ce sont la présence de scialytique, la disponibilité du sulfate de magnésium, l'utilisation des guides de pratiques cliniques (GPC) pour la prise en charge des complications obstétricales. Le score de qualité est associé significativement au TMMH brut, y compris en analyse multivariée, mais pas au TMMH ajusté. Conclusion : La disponibilité du Sulfate de magnésium, et du scialytique pourrait contribuer à la réduction de la MM. En complément, une réorganisation adéquate des ressources pour réduire la disparité géographique rurale/urbaine est essentielle ainsi qu’une sensibilisation du personnel à l’usage des GPC. De plus, l’assistance par un personnel qualifié de tous les accouchements est nécessaire pour améliorer la qualité des soins et la prise en charge des complications obstétricales.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'imagerie intravasculaire ultrasonore (IVUS) est une technologie médicale par cathéter qui produit des images de coupe des vaisseaux sanguins. Elle permet de quantifier et d'étudier la morphologie de plaques d'athérosclérose en plus de visualiser la structure des vaisseaux sanguins (lumière, intima, plaque, média et adventice) en trois dimensions. Depuis quelques années, cette méthode d'imagerie est devenue un outil de choix en recherche aussi bien qu'en clinique pour l'étude de la maladie athérosclérotique. L'imagerie IVUS est par contre affectée par des artéfacts associés aux caractéristiques des capteurs ultrasonores, par la présence de cônes d'ombre causés par les calcifications ou des artères collatérales, par des plaques dont le rendu est hétérogène ou par le chatoiement ultrasonore (speckle) sanguin. L'analyse automatisée de séquences IVUS de grande taille représente donc un défi important. Une méthode de segmentation en trois dimensions (3D) basée sur l'algorithme du fast-marching à interfaces multiples est présentée. La segmentation utilise des attributs des régions et contours des images IVUS. En effet, une nouvelle fonction de vitesse de propagation des interfaces combinant les fonctions de densité de probabilité des tons de gris des composants de la paroi vasculaire et le gradient des intensités est proposée. La segmentation est grandement automatisée puisque la lumière du vaisseau est détectée de façon entièrement automatique. Dans une procédure d'initialisation originale, un minimum d'interactions est nécessaire lorsque les contours initiaux de la paroi externe du vaisseau calculés automatiquement sont proposés à l'utilisateur pour acceptation ou correction sur un nombre limité d'images de coupe longitudinale. La segmentation a été validée à l'aide de séquences IVUS in vivo provenant d'artères fémorales provenant de différents sous-groupes d'acquisitions, c'est-à-dire pré-angioplastie par ballon, post-intervention et à un examen de contrôle 1 an suivant l'intervention. Les résultats ont été comparés avec des contours étalons tracés manuellement par différents experts en analyse d'images IVUS. Les contours de la lumière et de la paroi externe du vaisseau détectés selon la méthode du fast-marching sont en accord avec les tracés manuels des experts puisque les mesures d'aire sont similaires et les différences point-à-point entre les contours sont faibles. De plus, la segmentation par fast-marching 3D s'est effectuée en un temps grandement réduit comparativement à l'analyse manuelle. Il s'agit de la première étude rapportée dans la littérature qui évalue la performance de la segmentation sur différents types d'acquisition IVUS. En conclusion, la segmentation par fast-marching combinant les informations des distributions de tons de gris et du gradient des intensités des images est précise et efficace pour l'analyse de séquences IVUS de grandes tailles. Un outil de segmentation robuste pourrait devenir largement répandu pour la tâche ardue et fastidieuse qu'est l'analyse de ce type d'images.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La plasticité synaptique est une importante propriété du système nerveux, impliquée dans l’intégration de l’information. Cette plasticité a généralement été décrite par des changements aux niveaux pré et postsynaptiques. Notamment, l’efficacité présynaptique, soit la probabilité de libération de neurotransmetteurs associée au contenu quantique d’une synapse, peut être augmentée ou diminuée selon l’activité antérieure de la synapse. Malgré cette caractérisation, les mécanismes à l’origine de la détermination de l’efficacité présynaptique demeurent obscurs. Également, la plasticité synaptique reste encore mal définie au niveau glial, limitant, de ce fait, notre compréhension de l’intégration de l’information. Pourtant, la dernière décennie a mené à une redéfinition du rôle des cellules gliales. Autrefois reléguées à un rôle de support passif aux neurones, elles sont désormais reconnues comme étant impliquées dans la régulation de la neurotransmission. Notamment, à la jonction neuromusculaire (JNM), les cellules de Schwann périsynaptiques (CSPs) sont reconnues pour moduler l’efficacité présynaptique et les phénomènes de plasticité. Un tel rôle actif dans la modulation de la neurotransmission implique cependant que les CSPs soient en mesure de s’adapter aux besoins changeants des JNMs auxquelles elles sont associées. La plasticité synaptique devrait donc sous-tendre une forme de plasticité gliale. Nous savons, en effet, que la JNM est capable de modifications tant morphologiques que physiologiques en réponse à des altérations de l'activité synaptique. Par exemple, la stimulation chronique des terminaisons nerveuses entraîne une diminution persistante de l’efficacité présynaptique et une augmentation de la résistance à la dépression. À l’opposé, le blocage chronique des récepteurs nicotiniques entraîne une augmentation prolongée de l’efficacité présynaptique. Aussi, compte tenu que les CSPs détectent et répondent à la neurotransmission et qu’elles réagissent à certains stimuli environnementaux par des changements morphologiques, physiologiques et d’expression génique, nous proposons que le changement d'efficacité présynaptique imposé à la synapse, soit par une stimulation nerveuse chronique ou par blocage chronique des récepteurs nicotiniques, résulte en une adaptation des propriétés des CSPs. Cette thèse propose donc d’étudier, en parallèle, la plasticité présynaptique et gliale à long-terme, en réponse à un changement chronique de l’activité synaptique, à la JNM d’amphibien. Nos résultats démontrent les adaptations présynaptiques de l’efficacité présynaptique, des phénomènes de plasticité à court-terme, du contenu mitochondrial et de la signalisation calcique. De même, ils révèlent différentes adaptations gliales, notamment au niveau de la sensibilité des CSPs aux neurotransmetteurs et des propriétés de leur réponse calcique. Les adaptations présynaptiques et gliales sont discutées, en parallèle, en termes de mécanismes et de fonctions possibles dans la régulation de la neurotransmission. Nos travaux confirment donc la coïncidence de la plasticité présynaptique et gliale et, en ce sens, soulèvent l’importance des adaptations gliales pour le maintien de la fonction synaptique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: Les centres de jour offrent des interventions de groupe à des personnes âgées qui présentent des incapacités, dans le but de favoriser leur maintien à domicile. Des études récentes tendent à démontrer qu’une utilisation régulière du service serait nécessaire pour induire des effets bénéfiques. Objectifs: Cette recherche visait à documenter l’utilisation des centres de jour par des personnes âgées qui présentent des incapacités. Elle comportait trois principaux objectifs: 1) Caractériser les utilisateurs de centre de jour et ce qui les distingue des non-utilisateurs et analyser les déterminants de l’utilisation du centre de jour. 2) Explorer l’adéquation entre les activités offertes par les centres de jour et les caractéristiques d’autonomie et de santé des utilisateurs. 3) Définir les facteurs associés à la régularité de la participation. Méthodes: Cette recherche s’appuie sur une analyse secondaire de données recueillies auprès de 723 personnes âgées qui ont participé au projet de démonstration SIPA (Services intégrés pour personnes âgées) implanté dans deux CLSC de la région de Montréal. L’utilisation du centre de jour a été documentée pendant une période de six mois, auprès des cinq centres de jour existant sur ce même territoire. Des informations sur le fonctionnement des centres de jour ont été obtenues par des entrevues et des rencontres de groupe auprès de coordonnateurs de ces centres. Les données ont été analysées à l’aide de statistiques descriptives, d’analyses en regroupement et d’analyses de régression logistique et multiple. Résultats: Les résultats sont présentés dans trois articles, soit un pour chacun des objectifs. Article 1: La proportion d’utilisateurs de centre de jour est de 18,8% (IC-0,95: 16,0 à 21,7%). Les facteurs suivants augmentent la probabilité d’utiliser le centre de jour: être plus jeune (RC: 1,12; IC-0,95: 1,06 à 1,19); ne pas avoir une éducation universitaire (RC: 1,92; IC-0,95: 1,04 à 3,57); recevoir l’aide du CLSC pour les activités de vie quotidienne plus d’une fois par semaine (RC: 1,73 et 2,48 pour aide de deux à cinq fois par semaine et aide de six à sept fois par semaine respectivement; IC-0,95: 1,06 à 2,80 et 1,22 à 5,06); faire partie du bassin de desserte d’un centre de jour dont les coûts sont moins élevés (RC: 1,054 ; IC-0,95: 1,001 à 1,108 pour chaque augmentation de 1$); et pour les hommes seulement, avoir déjà subi un accident vasculaire cérébral et présenter davantage d’incapacités fonctionnelles (interaction entre le sexe et la présence d’un AVC: RC: 0,298; IC-0,95: 0,108 à 0,825; interaction entre le sexe et les capacités fonctionnelles mesurées à l’OARS: RC: 1,096; IC-0,95: 1,019 à 1,178). De plus, on observe une plus grande probabilité d’utiliser le centre de jour chez les personnes qui cohabitent avec une personne de soutien. Toutefois, cette relation ne s’observe que chez les personnes nées au Canada (interaction entre la cohabitation avec la personne de soutien et le pays de naissance: RC: 0,417; IC-0,95: 0,185 à 0,938). Article 2: Des analyses en regroupement ont permis de distinguer quatre profils de participants ayant des caractéristiques similaires: 1) les personnes fragilisées par un âge avancé et un grand nombre de problèmes de santé; 2) les participants plus jeunes et plus autonomes que la moyenne, qui semblent des utilisateurs précoces; 3) les personnes qui présentent des incapacités d’origine cognitive; et 4) celles qui présentent des incapacités d’origine motrice. Les activités de groupe des centres de jour ont été regroupées en huit catégories: exercices physiques; groupe spécifique pour un diagnostic ou un problème fonctionnel commun; activités fonctionnelles; stimulation cognitive; activités musicales ou de réminiscence; sports et jeux physiques; intégration sociale; prévention et promotion de la santé. Les activités les plus fréquentes sont les exercices physiques et les activités d’intégration sociale auxquelles ont participé plus de 90% des utilisateurs de centre de jour, et ce en moyenne à respectivement 78% (±23%) et 72% (±24%) de leurs présences au centre de jour. Les autres catégories d’activités rejoignent de 45% à 77% des participants, et ce en moyenne à 35% (±15%) à 46% (±33%) de leurs présences. La participation aux diverses catégories d’activités a été étudiée pour chaque profil d’utilisateurs et comparée aux activités recommandées pour divers types de clientèle. On observe une concordance partielle entre les activités offertes et les besoins des utilisateurs. Cette concordance apparaît plus grande pour les participants qui présentent des problèmes de santé physique ou des incapacités d’origine motrice et plus faible pour ceux qui présentent des symptômes dépressifs ou des atteintes cognitives. Article 3: Les participants au centre de jour y sont inscrits en moyenne à raison de 1,56 (±0,74) jours par semaine mais sont réellement présents à 68,1% des jours attendus. Les facteurs suivants sont associés à une participation plus régulière au centre de jour en termes de taux de présences réelles / présences attendues: ne pas avoir travaillé dans le domaine de la santé (b: ,209; IC-0,95: ,037 à ,382); recevoir de l’aide du CLSC les jours de fréquentation du centre de jour (b: ,124; IC-0,95: ,019 à ,230); être inscrit pour la journée plutôt que la demi-journée (b: ,209: IC-0,95: ,018 à ,399); lors de ses présences au centre de jour, avoir une moins grande proportion d’activités de prévention et promotion de la santé (b: ,223; IC-0,95: ,044 à ,402); et enfin, avoir un aidant qui présente un fardeau moins élevé pour les personnes avec une atteinte cognitive et un fardeau plus élevé pour les personnes sans atteinte cognitive (interaction entre la présence d’atteinte cognitive et le fardeau de l’aidant: b: -,008; IC-0,95: -,014 à -,044). Conclusion: Conformément à leur mission, les centres de jour rejoignent une bonne proportion des personnes âgées qui présentent des incapacités. Cette étude fait ressortir les caractéristiques des personnes les plus susceptibles d’y participer. Elle suggère la nécessité de revoir la planification des activités pour assurer une offre de services qui tienne davantage compte des besoins des participants, en particulier de ceux qui présentent des atteintes cognitives et des symptômes de dépression. Elle démontre aussi que l’intensité d’exposition au service semble faible, ce qui soulève la question des seuils d’exposition nécessaires pour induire des effets favorables sur le maintien à domicile et sur la qualité de vie de la clientèle cible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude vise à estimer l’apport en glutamine (Gln) alimentaire chez des athlètes soumis à un protocole de supplémentation en glutamine ainsi qu’à clarifier les informations diffusées au grand public en ce qui concerne les sources alimentaires de glutamine. Des études cliniques ont démontré que la supplémentation en glutamine pouvait réduire la morbidité et la mortalité chez des sujets en phase critique (grands brulés, chirurgie…). Le mécanisme en cause semble impliquer le système immunitaire. Cependant, les études chez les sportifs, dont le système immunitaire a de fortes chances d’être affaibli lors de périodes d’entraînement prolongées impliquant des efforts longs et intenses, n’ont pas été concluantes. Or, ces études négligent systématiquement l’apport alimentaire en glutamine, si bien qu’il est probable que les résultats contradictoires observés puissent en partie être expliqués par les choix alimentaires des sujets. Puisque la méthode conventionnelle de dosage des acides aminés dans les protéines alimentaires transforme la glutamine en glutamate, les tables de composition des aliments présentent la glutamine et le glutamate ensemble sous la dénomination « glutamate » ou « Glu », ce qui a comme conséquence de créer de l’ambiguïté. La dénomination « Glx » devrait être utilisée. Partant de la probabilité qu’un apport en Glx élevé soit un bon indicateur de l’apport en glutamine, nous avons créé un calculateur de Glx et avons évalué l’alimentation de 12 athlètes faisant partie d’une étude de supplémentation en glutamine. Nous avons alors constaté que l’apport en Glx était directement proportionnel à l’apport en protéines, avec 20,64 % ± 1,13 % de l’apport protéique sous forme de Glx. Grâce à quelques données sur la séquence primaire des acides aminés, nous avons pu constater que le rapport Gln/Glx pouvait être très variable d’un type de protéine à l’autre. Alors que le ratio molaire Gln/Glx est de ~95 % pour les α et β-gliadines, il n’est que de ~43 % pour la caséine, de ~36 % pour la β-lactoglobuline, de ~31 % pour l’ovalbumine et de ~28 % pour l’actine. Il est donc possible que certaines protéines puissent présenter des avantages par rapport à d’autres, à quantité égale de Glx.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les agences de notation de crédit ont permis la banalisation des véhicules de titrisation. Elles ont sous-estimé la probabilité que les émetteurs de certains instruments financiers complexes ne puissent pas honorer leurs dettes. Elles ont tardé à refléter la détérioration du marché de leurs notes. Les agences de notation ont donc été en partie responsables de la tempête que traversent les places financières mondiales et ont exposé les entreprises à un risque sérieux de défiance. Alors que les entreprises doivent à l’heure actuelle maîtriser de multiples risques, celles-ci ont été les premières victimes des professionnels de la notation. Pour apporter une réponse au risque de la notation, les régulateurs tentent de réagir. Par l’intermédiaire de leur autorité boursière, les Etats-Unis ont été les premiers à modifier le cadre règlementaire de l’activité de la notation. C’est ce cadre règlementaire, adopté au premier trimestre 2009, qui fait l’objet du présent papier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

My aim in the present paper is to develop a new kind of argument in support of the ideal of liberal neutrality. This argument combines some basic moral principles with a thesis about the relationship between the correct standards of justification for a belief/action and certain contextual factors. The idea is that the level of importance of what is at stake in a specific context of action determines how demanding the correct standards to justify an action based on a specific set of beliefs ought to be. In certain exceptional contexts –where the seriousness of harm in case of mistake and the level of an agent’s responsibility for the outcome of his action are specially high– a very small probability of making a mistake should be recognized as a good reason to avoid to act based on beliefs that we nonetheless affirm with a high degree of confidence and that actually justify our action in other contexts. The further steps of the argument consist in probing 1) that the fundamental state’s policies are such a case of exceptional context, 2) that perfectionist policies are the type of actions we should avoid, and 3) that policies that satisfy neutral standards of justification are not affected by the reasons which lead to reject perfectionist policies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nouveaux modèles d'atmosphère sont présentés, incluant les profils de raie d'hélium neutre améliorés de Beauchamp (1995) et le formalisme de probabilité d'occupation pour ce même atome. Ces modèles sont utilisés pour calculer une grille de spectres synthétiques correspondant à des atmosphères riches en hélium et contenant des traces d'hydrogène. Cette grille est utilisée pour déterminer les paramètres atmosphériques principaux des étoiles de notre échantillon, soient la température effective, la gravité de surface et l'abondance d'hydrogène. Notre échantillon contient des spectres visibles de haut rapport signal-sur-bruit pour 102 naines blanches riches en hélium, dont 29 ont été observés au cours de ce projet, ce qui en fait le plus grand échantillon de spectres de qualité de naines blanches riches en hélium. Des spectres synthétiques ont été calculés en utilisant différentes valeurs du paramètre α de la théorie de la longueur de mélange dans le but de calibrer empiriquement la valeur de ce paramètre pour les DB. Afin d'améliorer la précision sur les paramètres atmosphériques de quelques étoiles, nous avons utilisé des spectres couvrant la raie Hα pour mieux déterminer l'abondance d'hydrogène. Finalement, nous avons calculé la distribution de masse de notre échantillon et la fonction de luminosité des DB. La distribution de masse montre une coupure à 0.5 fois la masse solaire qui est prédite par les modèles d'évolution stellaire et dévoile une masse moyenne significativement plus élevée pour les étoiles de type DBA. La masse moyenne de l'ensemble des DB et DBA est très proche de celle des DA. La fonction de luminosité nous permet de calculer que le rapport du nombre de DB sur le nombre de DA vaut environ 25%.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.