999 resultados para Abandon des études (Enseignement secondaire)--Études de cas
Resumo:
La présente étude intitulée « utilisation des technologies de l’information et de la communication dans l’enseignement secondaire et développement des compétences des élèves en résolution de problèmes mathématiques au Burkina Faso » est une recherche descriptive de type mixte examinant à la fois des données qualitatives et quantitatives. Elle examine les compétences en résolution de problèmes mathématiques d’élèves du Burkina Faso pour révéler d’éventuelles relations entre celles-ci et l’utilisation des TIC par les élèves ou leur enseignant de mathématiques. L’intérêt de cette recherche est de fournir des informations aussi bien sur la réalité des TIC dans l’enseignement secondaire au Burkina que sur les effets de leur présence dans l’enseignement et l’apprentissage des mathématiques. Les éléments théoriques ayant servi à l’analyse des données sont présentés suivant trois directions : la résolution des problèmes, le développement des compétences, et les relations entre les TIC, le développement de compétences et la résolution de problèmes. Du croisement de ces éléments émergent trois axes pour le développement de la réponse apportée à la préoccupation de l’étude : 1) décrire l’utilisation de l’ordinateur par les élèves du Burkina Faso pour améliorer leur apprentissage des mathématiques ; 2) identifier des rapports éventuels entre l’utilisation de l’ordinateur par les élèves et leurs compétences en résolution de problèmes mathématiques ; 3) identifier des rapports entre les compétences TIC de l’enseignant de mathématiques et les compétences de ses élèves en résolution de problèmes. Les processus de la résolution de problèmes sont présentés selon l’approche gestaltiste qui les fait passer par une illumination et selon l’approche de la théorie de la communication qui les lie au type de problème. La résolution de problèmes mathématiques passe par des étapes caractéristiques qui déterminent la compétence du sujet. Le concept de compétence est présenté selon l’approche de Le Boterf. Les données révèlent que les élèves du Burkina Faso utilisent l’ordinateur selon une logique transmissive en le considérant comme un répétiteur suppléant de l’enseignant. Par la suite, il n’y a pas de différence significative dans les compétences en résolution de problèmes mathématiques entre les élèves utilisant l’ordinateur et ceux qui ne l’utilisent pas. De même, l’étude révèle que les enseignants présentant des compétences TIC n’ont pas des élèves plus compétents en résolution de problèmes mathématiques que ceux de leurs collègues qui n’ont pas de compétences TIC.
Resumo:
Ce rapport de stage porte sur l’observance du traitement psychosocial chez des détenus fédéraux présentant un double diagnostic de schizophrénie et de trouble de la personnalité antisociale. Après une recension des écrits, le milieu de stage est présenté, ainsi que la méthodologie, trois études de cas et, enfin, une analyse de celles-ci. L’observance du traitement et les problématiques de santé mentale ici traitées sont exposées de façon descriptive, assez précise et critique. Suite à l’analyse des trois études de cas dans un centre correctionnel communautaire (SCC), il semble que la clientèle judiciarisée, schizophrène et antisociale ne reçoive pas des services entièrement adaptés à ses déficits au niveau des compétences sociales. De même, le personnel du SCC présente certaines lacunes face à l’intervention préconisée avec ces individus. Dans ce sens, il est noté que les intervenants sont généralement insuffisamment disponibles, formés et disposés à réellement envisager la réadaptation sociale du détenu tel que perçue dans ce stage. Souvent, les suivis étant discontinus, l’alliance thérapeutique peine à s’installer. Or ce n’est qu’en instaurant une relation de confiance qu’un travail clinique profitable peut subsister. En somme, avant d’être remis en liberté, il serait souhaitable que ces hommes reçoivent du soutien quant à l’acquisition des savoir-faire et savoir-être nécessaires à toute socialisation.
Resumo:
La tâche de maintenance ainsi que la compréhension des programmes orientés objet (OO) deviennent de plus en plus coûteuses. L’analyse des liens de dépendance peut être une solution pour faciliter ces tâches d’ingénierie. Cependant, analyser les liens de dépendance est une tâche à la fois importante et difficile. Nous proposons une approche pour l'étude des liens de dépendance internes pour des programmes OO, dans un cadre probabiliste, où les entrées du programme peuvent être modélisées comme un vecteur aléatoire, ou comme une chaîne de Markov. Dans ce cadre, les métriques de couplage deviennent des variables aléatoires dont les distributions de probabilité peuvent être étudiées en utilisant les techniques de simulation Monte-Carlo. Les distributions obtenues constituent un point d’entrée pour comprendre les liens de dépendance internes entre les éléments du programme, ainsi que leur comportement général. Ce travail est valable dans le cas où les valeurs prises par la métrique dépendent des entrées du programme et que ces entrées ne sont pas fixées à priori. Nous illustrons notre approche par deux études de cas.
Resumo:
Le but du présent projet de thèse est d’étudier le lien entre les habitudes à l’endroit des technologies de l’information et de la communication (TIC) et la motivation à apprendre. Bien que l’utilisation de l’ordinateur en contexte scolaire ait été étudiée en profondeur au cours des dernières années, la majorité des études présentent la même perspective : elles examinent l’effet de l’utilisation des technologies à l’école sur le rendement et la motivation scolaire des élèves. Cependant, on connaît mal l’effet de l’utilisation des technologies à des fins personnelles sur le vécu scolaire. Il apparait que les élèves n’ont pas tous les mêmes opportunités en ce qui a trait à l’utilisation des TIC et n’acquièrent donc pas tous les mêmes compétences dans ce domaine. Quelques recherches se sont intéressées aux effets de l’ordinateur (sa présence et son utilisation à la maison) sur le rendement à l’école. Bien qu’en majorité, les auteurs s’entendent sur les bénéfices que pourrait générer l’ordinateur, ils restent prudents sur les rapports de cause à effet (Beltran, Das et Fairlie, 2008; OCDE, 2006). Nous avons voulu aborder la question différemment : déterminer les possibles liens entre les habitudes d’utilisation de l’ordinateur à des fins personnelles et la motivation à apprendre à l’école. À cet égard, la motivation pour les sciences a été retenue puisque cette matière scolaire fait souvent appel à des compétences associées à l’utilisation des TIC. Pour répondre à nos objectifs, 331 élèves du cours ordinaire de sciences et technologie au premier cycle du secondaire ont remplis un questionnaire autorapporté, composé de sept échelles motivationnelles et d’un questionnaire lié à l’utilisation des TIC. Nous avons d’abord dégagé des profils d’utilisateurs à partir des différentes utilisations de l’ordinateur. Ensuite, nous avons examiné ces profils en lien avec leurs caractéristiques motivationnelles (le sentiment de compétence, l’anxiété, l’intérêt et les buts d’accomplissement) et l’engagement pour le cours de sciences. Finalement, nous avons déterminé la valeur prédictive de l’utilisation de l’ordinateur sur les variables motivationnelles retenues. Nos résultats montrent que l’utilisation personnelle des TIC ne se fait pas nécessairement au détriment de l’école. Nous avons trouvé que les élèves qui utilisent davantage les TIC dans leurs temps libres, et ce, avec des utilisations diversifiées, ont des caractéristiques motivationnelles plus positives. Toutefois, nous constatons que le type d’usage est lié à un effet médiateur positif ou négatif sur la motivation à apprendre. Les élèves qui limitent leurs utilisations de l’ordinateur à la communication et aux jeux ont des caractéristiques motivationnelles plus négatives que ceux avec des utilisations variées. Les usages centrés sur la communication semblent être ceux qui sont le plus susceptibles d’être liés négativement à la motivation à apprendre alors que ceux orientés vers les usages à caractère intellectuel s’avèrent plus positifs. Les résultats suggèrent que la clé ne réside pas dans le temps d'utilisation mais plutôt dans l'utilisation judicieuse de ce temps. En favorisant des usages à caractère intellectuel, tout en laissant des temps libres aux jeunes, nous augmentons leurs chances de développer de bonnes habitudes technologiques qui seront essentielles dans la société de demain.
Resumo:
La littérature montre que plusieurs aspects du travail d’universitaire sont influencés tant par la discipline et l’organisation, que par les caractéristiques individuelles des professeurs. Cette recherche vise à explorer l’impact de ces deux premiers facteurs sur l’utilisation des technologies de l’information et des communications (TIC) par les professeurs d’une université de recherche. Les données, recueillies par sondage, ont été analysées à l’aide d’un modèle hiérarchique comprenant deux niveaux, dans lequel 350 professeurs sont nichés dans 42 départements. Le statut professoral, le profil d’adoption des innovations technologiques et la perception de la compétence technologique ont été placés au niveau 1 (individus), alors que le secteur disciplinaire et quatre facteurs organisationnels liés à l’enseignement et à la recherche, ont été placés au niveau 2 (départements). Les résultats montrent que ces variables indépendantes n’influencent pas de la même façon l’utilisation des différentes technologies. Une plus grande partie des différences d’utilisation se situe entre les départements lorsqu’on considère l’utilisation du projecteur en salle de classe. L’utilisation d’équipements en salle de classe relève davantage de facteurs organisationnels que celle des environnements numériques d’apprentissage (ENA). Les résultats montrent par ailleurs que la perception de la compétence technologique et le profil d’adoption des innovations technologiques mesurent des choses différentes. Alors que le profil d’adoption influence dans une plus ou moins grande mesure toutes les utilisations, la perception de la compétence n’a d’impact que sur l’utilisation plus poussée des ressources, soit l’utilisation d’une page web personnelle ou d’une plateforme autre que WebCT. Un clivage entre disciplines molles pures et disciplines dures pures existe, mais seulement lorsqu’on considère l’utilisation des ENA et de la page web personnelle. La plateforme WebCT est associée au secteur des sciences humaines alors que l’utilisation de la page web ou d’ENA autre que WebCT est liée au secteur des sciences pures. Dans les deux cas, l’utilisation des ENA est liée à l’enseignement de premier cycle, c’est à dire à un enseignement de masse.
Resumo:
Il a été suggéré que la similarité physique entre un observateur et une action observée facilite la perception et la compréhension d’action. Par exemple, l’observation d’un acteur exécutant des gestes de la main ayant une signification culturelle est associée à une augmentation de l’excitabilité corticospinale lorsque les deux individus sont de la même ethnicité (Molnar-Szakacs et al., 2007). La perception tactile serait également facilitée lorsqu’un individu regarde un modèle de sa propre race être touché (Serino et al., 2009), tandis que des études en imagerie cérébrale fonctionnelle suggèrent la présence d’activations plus importantes dans le cortex cingulaire lorsqu’un sujet observe une personne de son propre groupe racial ressentir de la douleur (Xu et al., 2009). Certaines études ont lié ces résultats à un mécanisme de résonance motrice, possiblement associé au système des neurones miroirs (SNM), suggérant que la représentation de l’action dans les aires motrices est facilitée par la similarité physique. Toutefois, la grande majorité des stimuli utilisés dans ces études comportent une composante émotionnelle ou culturelle pouvant masquer les effets purement moteurs liant la similarité physique à un mécanisme de résonance motrice. De plus, la sélectivité de l’activation du SNM face à des stimuli biologiques a récemment été remise en question en raison de biais méthodologiques. La présente thèse présente trois études visant à évaluer l’effet de la similarité physique et des caractéristiques biologiques d’un mouvement sur la résonance motrice à l’aide de mesures comportementales et neurophysiologiques. À cet effet, l’imitation automatique de mouvements de la main, l’excitabilité corticospinale et la désynchronisation du rythme électroencéphalographique mu ont servi de marqueurs de l’activité du SNM. Dans les trois études présentées, la couleur de la peau et l’aspect biologique du stimulus observé ou imité ont été systématiquement manipulés. Nos données confirment la sélectivité du SNM pour le mouvement biologique en démontrant une réponse imitative plus rapide et une désynchronisation du rythme mu plus prononcée lors de la présentation de stimuli biologiques comparativement à des stimuli non-biologiques répliquant les aspects physiques du mouvement humain. Les deux mêmes mesures montrent une réponse neurophysiologique et comportementale équivalente lorsque l’action est exécutée par un agent de couleur similaire ou dissimilaire au participant. Nous rapportons aussi un effet surprenant de la similarité physique sur l’excitabilité corticospinale, où l’observation d’une action exécutée par un agent de couleur différente est associée à une activation plus grande du cortex moteur primaire droit de participants de sexe féminin. Prises dans leur ensemble, ces données suggèrent que la similarité physique avec une action observée ne module généralement pas l’activité du SNM au niveau des aires sensorimotrices en l’absence de composantes culturelles et émotionnelles. De plus, les résultats présentés suggèrent que le SNM est sélectif au mouvement biologique plutôt qu’à l’aspect kinématique du mouvement.
Resumo:
Notre recherche vise à vérifier s'il existe un lien entre l'intérêt des Américains pour les investissements étrangers et le maintien des structures opaques de la finance internationale. Les pratiques d'opacité financière (utilisation abusive du secret bancaire, faibles mesures d'identification du client, faible règlementation bancaire, absence d’échange d’information fiscale, absence d’obligations d’enregistrements de compagnies et de fiducies, possibilité d’établir la propriété d’une société avec des prête-noms, utilisation de bons au porteur, manque d’encadrement des fiducies, etc.) semblent accommoder les États qui les dénoncent. Utilisant les théories des jeux à deux niveaux de Putnam, de la règlementation et de l’équilibre de Nash, nous faisons le lien entre le niveau national et international. Notre recherche consiste en deux études de cas. La première traite d’un projet de règlement de l’Internal Revenue Service visant à assurer la déclaration de revenus d’intérêt sur les dépôts bancaires des non-résidents. La seconde traite d’une série de projets de loi déposés au Sénat et à la Chambre des représentants des États-Unis. Ils cherchent à assurer la transparence du processus d’enregistrement de compagnies de manière à faciliter l’accès des agences d’application de la loi à l’information sur les bénéficiaires effectifs des compagnies formées en sol américain. Notre recherche ne permet pas de confirmer notre hypothèse avec certitude. Cependant, nos données tendent à indiquer que les groupes d’intellectuels et les groupes de pression financiers incitent le gouvernement des États-Unis à freiner la mise en application de certaines mesures prévues par le régime antiblanchiment (particulièrement l’identification du client et le partage d’information avec des pays tiers) pour attirer l’investissement étranger.
Resumo:
Le biais de confusion est un défi majeur des études observationnelles, surtout s'ils sont induits par des caractéristiques difficiles, voire impossibles, à mesurer dans les banques de données administratives de soins de santé. Un des biais de confusion souvent présents dans les études pharmacoépidémiologiques est la prescription sélective (en anglais « prescription channeling »), qui se manifeste lorsque le choix du traitement dépend de l'état de santé du patient et/ou de son expérience antérieure avec diverses options thérapeutiques. Parmi les méthodes de contrôle de ce biais, on retrouve le score de comorbidité, qui caractérise l'état de santé d'un patient à partir de médicaments délivrés ou de diagnostics médicaux rapportés dans les données de facturations des médecins. La performance des scores de comorbidité fait cependant l'objet de controverses car elle semble varier de façon importante selon la population d'intérêt. Les objectifs de cette thèse étaient de développer, valider, et comparer les performances de deux scores de comorbidité (un qui prédit le décès et l’autre qui prédit l’institutionnalisation), développés à partir des banques de services pharmaceutiques de la Régie de l'assurance-maladie du Québec (RAMQ) pour leur utilisation dans la population âgée. Cette thèse vise également à déterminer si l'inclusion de caractéristiques non rapportées ou peu valides dans les banques de données administratives (caractéristiques socio-démographiques, troubles mentaux ou du sommeil), améliore la performance des scores de comorbidité dans la population âgée. Une étude cas-témoins intra-cohorte fut réalisée. La cohorte source consistait en un échantillon aléatoire de 87 389 personnes âgées vivant à domicile, répartie en une cohorte de développement (n=61 172; 70%) et une cohorte de validation (n=26 217; 30%). Les données ont été obtenues à partir des banques de données de la RAMQ. Pour être inclus dans l’étude, les sujets devaient être âgés de 66 ans et plus, et être membres du régime public d'assurance-médicaments du Québec entre le 1er janvier 2000 et le 31 décembre 2009. Les scores ont été développés à partir de la méthode du Framingham Heart Study, et leur performance évaluée par la c-statistique et l’aire sous les courbes « Receiver Operating Curves ». Pour le dernier objectif qui est de documenter l’impact de l’ajout de variables non-mesurées ou peu valides dans les banques de données au score de comorbidité développé, une étude de cohorte prospective (2005-2008) a été réalisée. La population à l'étude, de même que les données, sont issues de l'Étude sur la Santé des Aînés (n=1 494). Les variables d'intérêt incluaient statut marital, soutien social, présence de troubles de santé mentale ainsi que troubles du sommeil. Tel que décrit dans l'article 1, le Geriatric Comorbidity Score (GCS) basé sur le décès, a été développé et a présenté une bonne performance (c-statistique=0.75; IC95% 0.73-0.78). Cette performance s'est avérée supérieure à celle du Chronic Disease Score (CDS) lorsqu'appliqué dans la population à l'étude (c-statistique du CDS : 0.47; IC 95%: 0.45-0.49). Une revue de littérature exhaustive a montré que les facteurs associés au décès étaient très différents de ceux associés à l’institutionnalisation, justifiant ainsi le développement d'un score spécifique pour prédire le risque d'institutionnalisation. La performance de ce dernier s'est avérée non statistiquement différente de celle du score de décès (c-statistique institutionnalisation : 0.79 IC95% 0.77-0.81). L'inclusion de variables non rapportées dans les banques de données administratives n'a amélioré que de 11% la performance du score de décès; le statut marital et le soutien social ayant le plus contribué à l'amélioration observée. En conclusion, de cette thèse, sont issues trois contributions majeures. D'une part, il a été démontré que la performance des scores de comorbidité basés sur le décès dépend de la population cible, d'où l'intérêt du Geriatric Comorbidity Score, qui fut développé pour la population âgée vivant à domicile. D'autre part, les médicaments associés au risque d'institutionnalisation diffèrent de ceux associés au risque de décès dans la population âgé, justifiant ainsi le développement de deux scores distincts. Cependant, les performances des deux scores sont semblables. Enfin, les résultats indiquent que, dans la population âgée, l'absence de certaines caractéristiques ne compromet pas de façon importante la performance des scores de comorbidité déterminés à partir de banques de données d'ordonnances. Par conséquent, les scores de comorbidité demeurent un outil de recherche important pour les études observationnelles.
Resumo:
Dans ce mémoire, nous étudions le problème de l'estimation de la variance pour les estimateurs par double dilatation et de calage pour l'échantillonnage à deux phases. Nous proposons d'utiliser une décomposition de la variance différente de celle habituellement utilisée dans l'échantillonnage à deux phases, ce qui mène à un estimateur de la variance simplifié. Nous étudions les conditions sous lesquelles les estimateurs simplifiés de la variance sont valides. Pour ce faire, nous considérons les cas particuliers suivants : (1) plan de Poisson à la deuxième phase, (2) plan à deux degrés, (3) plan aléatoire simple sans remise aux deux phases, (4) plan aléatoire simple sans remise à la deuxième phase. Nous montrons qu'une condition cruciale pour la validité des estimateurs simplifiés sous les plans (1) et (2) consiste à ce que la fraction de sondage utilisée pour la première phase soit négligeable (ou petite). Nous montrons sous les plans (3) et (4) que, pour certains estimateurs de calage, l'estimateur simplifié de la variance est valide lorsque la fraction de sondage à la première phase est petite en autant que la taille échantillonnale soit suffisamment grande. De plus, nous montrons que les estimateurs simplifiés de la variance peuvent être obtenus de manière alternative en utilisant l'approche renversée (Fay, 1991 et Shao et Steel, 1999). Finalement, nous effectuons des études par simulation dans le but d'appuyer les résultats théoriques.
Resumo:
L’amélioration de la qualité de l’utilisation des médicaments dans les soins primaires est devenue un enjeu crucial. Les pharmaciens communautaires se présentent comme des acteurs centraux dans l’atteinte de cet objectif, en réclamant une extension de leur rôle. L’objectif principal de cette thèse est de mieux comprendre comment les technologies de prescription informatisée (eRx) influencent la transformation du rôle des pharmaciens communautaires. Le premier article présente les résultats d’une étude de cas qui aborde la transformation du rôle des pharmaciens communautaires à partir du concept de professionnalisation. Elle propose un modèle logique des influences d’une technologie de eRx sur cette professionnalisation, élaboré à partir de la typologie de Davenport. Ce modèle logique a été validé en interviewant douze pharmaciens communautaires participant à un projet pilote typique de technologie de eRx. A partir des perceptions des pharmaciens communautaires, nous avons établi que la technologie était susceptible de soutenir la professionnalisation des pharmaciens en passant par cinq mécanismes : la capacité analytique, l’élimination des intermédiaires, l’intégration, l’automatisation et la diffusion des connaissances. Le deuxième article analyse les perturbations induites par les différentes fonctions des technologies de eRx sur la stabilité de la juridiction des pharmaciens communautaires, en se basant sur un cadre de référence adapté d’Abbott. À partir de trente-trois entrevues, avec des praticiens (médecins et pharmaciens) et des élites, cette étude de cas a permis de décrire en détail les influences des différentes fonctions sur les modalités d’action des professionnels, ainsi que les enjeux soulevés par ces possibilités. La perturbation principale est liée aux changements dans la distribution des informations, ce qui influence les activités de diagnostic et d’inférence des professionnels. La technologie peut redistribuer les informations relatives à la gestion des médicaments autant au bénéfice des médecins qu’au bénéfice des pharmaciens, ce qui suscite des tensions entre les médecins et les pharmaciens, mais aussi parmi les pharmaciens. Le troisième article présente une revue systématique visant à faire une synthèse des études ayant évalué les effets des technologies de eRx de deuxième génération sur la gestion des médicaments dans les soins primaires. Cette revue regroupe dix-neuf études menées avec des méthodes observationnelles. Les résultats rapportés révèlent que les technologies sont très hétérogènes, le plus souvent immatures, et que les effets ont été peu étudiés au-delà des perceptions des utilisateurs, qui sont mitigées. Le seul effet positif démontré est une amélioration de la qualité du profil pharmacologique accessible aux professionnels, alors que des effets négatifs ont été démontrés au niveau de l’exécution des prescriptions, tels que l’augmentation du nombre d’appels de clarification du pharmacien au prescripteur. Il semble donc que l’on en connaisse peu sur les effets des technologies de eRx de deuxième génération. Ces trois études permettent de constater que les nouvelles technologies de eRx peuvent effectivement influencer la transformation du rôle du pharmacien communautaire en perturbant les caractéristiques des prescriptions, et surtout, l’information et sa distribution. Ces perturbations génèrent des possibilités pour une extension du rôle des pharmaciens communautaires, tout en soulignant les défis intra et interprofessionnels associés à l’actualisation de ces possibilités. Dans l’ensemble, nos résultats soulignent que les perturbations associées aux technologies de eRx dépassent les éléments techniques du travail des utilisateurs, pour englober de multiples perturbations quant à la nature même du travail et du rôle des professionnels. Les décideurs et acteurs impliqués dans le déploiement des technologies de eRx auraient avantage à prendre en compte l’ensemble de ces considérations pour rapprocher les effets observés des bénéfices promis de ces technologies.
Resumo:
L’objectif de ce mémoire de maîtrise est de développer et de caractériser diverses sources de neutres réactifs destinées à des études fondamentales des interactions plasmas-surfaces. Ce projet s’inscrit dans le cadre d’une vaste étude de la physique des interactions plasmas-parois mises en jeu dans les procédés de gravure par plasma des matériaux de pointe. Une revue de la littérature scientifique sur les diverses méthodes permettant de générer des faisceaux de neutres réactifs nous a permis de sélectionner deux types de sources. La première, une source pyrolitique, a été caractérisée par spectrométrie de masse en utilisant le C2F6 comme molécule mère. Nous avons montré que le C2F6 était dissocié à plus de 90% à 1000ºC et qu’il formait du CF4, lui-même dissocié en CF2 vers 900ºC. Ces résultats ont été validés à l’aide d’un modèle basé sur des calculs d’équilibres chimiques, qui a aussi prédit la formation de F à 1500ºC. La seconde source, un plasma entretenu par une onde électromagnétique de surfaces, a été caractérisée par spectroscopie optique d’émission et par interférométrie haute fréquence. Dans le cas du plasma d’argon créé par un champ électromagnétique (>GHz), nos travaux ont révélé une distribution en énergie des électrons à trois températures avec Te-low>Te-high
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
L’évaluation économique en santé consiste en l’analyse comparative d’alternatives de services en regard à la fois de leurs coûts et de leurs conséquences. Elle est un outil d’aide à la décision. La grande majorité des décisions concernant l’allocation des ressources sont prises en clinique; particulièrement au niveau des soins primaires. Puisque chaque décision est associée à un coût d’opportunité, la non-prise en compte des considérations économiques dans les pratiques des médecins de famille peut avoir un impact important sur l’efficience du système de santé. Il existe peu de connaissances quant à l’influence des évaluations économiques sur la pratique clinique. L’objet de la thèse est de comprendre le rôle de l’évaluation économique dans la pratique des médecins de famille. Ses contributions font l’objet de quatre articles originaux (philosophique, théorique, méthodologique et empirique). L’article philosophique suggère l’importance des questions de complexité et de réflexivité en évaluation économique. La complexité est la perspective philosophique, (approche générale épistémologique) qui sous-tend la thèse. Cette vision du monde met l’attention sur l’explication et la compréhension et sur les relations et les interactions (causalité interactive). Cet accent sur le contexte et le processus de production des données souligne l’importance de la réflexivité dans le processus de recherche. L’article théorique développe une conception nouvelle et différente du problème de recherche. L’originalité de la thèse réside également dans son approche qui s’appuie sur la perspective de la théorie sociologique de Pierre Bourdieu; une approche théorique cohérente avec la complexité. Opposé aux modèles individualistes de l’action rationnelle, Bourdieu préconise une approche sociologique qui s’inscrit dans la recherche d’une compréhension plus complète et plus complexe des phénomènes sociaux en mettant en lumière les influences souvent implicites qui viennent chaque jour exercer des pressions sur les individus et leurs pratiques. L’article méthodologique présente le protocole d’une étude qualitative de cas multiples avec niveaux d’analyse imbriqués : les médecins de famille (niveau micro-individuel) et le champ de la médecine familiale (niveau macro-structurel). Huit études de cas furent réalisées avec le médecin de famille comme unité principale d’analyse. Pour le niveau micro, la collecte des informations fut réalisée à l’aide d’entrevues de type histoire de vie, de documents et d’observation. Pour le niveau macro, la collecte des informations fut réalisée à l’aide de documents, et d’entrevues de type semi-structuré auprès de huit informateurs clés, de neuf organisations médicales. L’induction analytique fut utilisée. L’article empirique présente l’ensemble des résultats empiriques de la thèse. Les résultats montrent une intégration croissante de concepts en économie dans le discours officiel des organisations de médecine familiale. Cependant, au niveau de la pratique, l'économisation de ce discours ne semble pas être une représentation fidèle de la réalité puisque la très grande majorité des participants n'incarnent pas ce discours. Les contributions incluent une compréhension approfondie des processus sociaux qui influencent les schèmes de perception, de pensée, d’appréciation et d’action des médecins de famille quant au rôle de l’évaluation économique dans la pratique clinique et la volonté des médecins de famille à contribuer à une allocation efficiente, équitable et légitime des ressources.
Resumo:
L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.
Resumo:
La luxation du genou, bien que très rare, demeure une blessure dévastatrice car elle entraîne de multiples complications en raison de la nature complexe du traumatisme associé à cette lésion. La luxation peut résulter d'un traumatisme à haute ou basse énergie. Les blessures sévères aux ligaments et aux structures associées donnent à la luxation du genou un potentiel élevé d'atteinte fonctionnelle. Le traitement conservateur, qui était considéré comme acceptable auparavant, est maintenant réservé à un très faible pourcentage de patients. La reconstruction chirurgicale est maintenant préconisée dans la plupart des cas, mais de nombreuses options existent et le traitement chirurgical optimal à préconiser reste controversé. Certains chirurgiens recommandent la reconstruction complète de tous les ligaments endommagés le plus tôt possible, tandis que d'autres, craignant l’établissement d’arthrofibrose, limitent l'intervention chirurgicale immédiate à la reconstruction du ligament croisé postérieur et de l'angle postéro-externe. En raison des multiples structures endommagées lors d’une luxation du genou, les chirurgiens utilisent couramment la combinaison des autogreffes et des allogreffes pour compléter la reconstruction ligamentaire. Les complications associées au prélèvement de la greffe, l'allongement de la greffe, l’affaiblissement précoce du greffon ainsi que les risques de transmission de maladies ont poussé les chirurgiens à rechercher différentes options d’intervention. L'utilisation de matériaux synthétiques pour le remplacement du ligament lésé a été proposée dans les années ´80. Après une première vague d'enthousiasme, les résultats décevants à long terme et les taux élevés d'échec ont diminué sa popularité. Depuis lors, une nouvelle génération de ligaments artificiels a vu le jour et parmi eux, le Ligament Advanced Reinforced System (LARS) a montré des résultats prometteurs. Il a été utilisé récemment dans les reconstructions isolées du ligament croisé antérieur et du ligament croisé postérieur pour lesquelles il a montré de bons résultats à court et moyen termes. Le but de cette étude rétrospective était d'évaluer la fonction et la stabilité du genou après la luxation aiguë suivant la reconstruction des ligaments croisés avec le ligament artificiel de type LARS. Cette étude a évalué 71 patients présentant une luxation du genou et qui ont subi une chirurgie de reconstruction du ligament croisé antérieur et du ligament croisé postérieur à l'aide du ligament LARS. Suite à la chirurgie le même protocole intensif de réadaptation a été suivi pour tous les patients, où la mise en charge progressive était permise après une période d’environ 6 semaines pendant laquelle la force musculaire et la stabilité dynamique se rétablissaient. Les outils d’évaluation utilisés étaient le score Lysholm, le formulaire de «l’International Knee Documentation Committee», le «Short Form-36», les tests cliniques de stabilité du genou, l'amplitude de mouvement articulaire à l’aide d’un goniomètre et la radiographie en stress Telos à 30° et 90° de flexion du genou. Le même protocole d’évaluation a été appliqué au genou controlatéral pour des fins de comparaison. Les résultats subjectifs et objectifs de cette étude sont satisfaisants et suggèrent que la réparation et la reconstruction combinées avec ligaments LARS est une alternative valable pour le traitement des luxations aiguës du genou. Ces résultats démontrent que ces interventions produisent des effets durables en termes d’amélioration de la fonction et révèlent la durabilité à long terme des ligaments artificiels LARS. Les patients sont à la fois plus autonomes et plus satisfaits avec le temps, même si la luxation du genou est considérée comme une catastrophe au moment où elle se produit. Des études prospectives randomisées sont maintenant nécessaires afin de comparer la sélection de la greffe et le délai de reconstruction chirurgicale.