508 resultados para Analyse des valeurs-[Phi]
Resumo:
Nous avons développé un modèle qui cherche à identifier les déterminants des trajectoires scolaires des élèves universitaires en articulant deux perspectives théoriques et en utilisant une approche méthodologique mixte en deux phases : quantitative et qualitative. La première phase est basée sur le modèle de Tinto (1992) avec l'incorporation d'autres variables de Crespo et Houle (1995). Cette étape a atteint deux objectifs. Dans le premier, on a identifié les différences entre les variables exogènes (indice économique, l'éducation parentale, moyen au lycée et moyenne dans l’examen d'entrée) et trois types de trajectoires: la persévérante, de décalage et d’abandon. Cette phase était basée sur les données d'un sondage administré à 800 étudiants à l'Université de Sonora (Mexique). Les résultats montrent que ceux qui ont quitté l'institution ont obtenu des scores significativement plus bas sur les variables exogènes. Le deuxième objectif a été atteint pour les trajectoires persévérantes et de décalage, en établissant que les étudiants ont une plus grande chance d’être persévérants lorsqu’ils présentent de meilleurs scores dans deux variables exogènes (l'examen d'entrée et être de genre féminin) et quatre viable endogènes (haute intégration académique, de meilleures perspectives d'emploi, ont une bourse). Dans la deuxième phase nous avons approfondi la compréhension (Verstehen) des processus d'articulation entre l'intégration scolaire et sociale à travers de trois registres proposés par Dubet (2005): l'intégration, le projet et la vocation. Cette phase a consisté dans 30 interviews avec étudiantes appartenant aux trois types de trajectoire. À partir du travail de Bourdages (1994) et Guzman (2004), nous avons cherché le sens de l'expérience attribuée par les étudiants au processus éducatif. Les résultats révèlent cinq groupes d’étudiantes avec des expériences universitaires identifiables : ceux qui ont une intégration académique et sociale plus grande, les femmes travailleuses intégrées académiquement, ceux qui ont les plus grandes désavantages économiques et d’intégration scolaire, ceux qui ont cherché leur vocation dans un autre établissement et ceux qui n'ont pas poursuivi leurs études. L'utilisation de différents outils statistiques (analyse de corrélation, analyse de régression logistique et analyse des conglomérats) dans la première phase a permis d’identifier des variables clés dans chaque type de trajectoire, lesquelles ont été validées avec les résultats de la phase qualitative. Cette thèse, en plus de montrer l'utilité d'une approche méthodologique mixte, étend le modèle de Tinto (1987) et confirme l'importance de l'intégration scolaire pour la persévérance à l'université.
Resumo:
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.
Resumo:
La recherche du premier chapitre de ce mémoire a été menée en collaboration avec les co-chercheurs suivants: Catherine Olivier et Michel Bergeron.
Resumo:
Nous présentons une nouvelle approche pour formuler et calculer le temps de séparation des événements utilisé dans l’analyse et la vérification de différents systèmes cycliques et acycliques sous des contraintes linéaires-min-max avec des composants ayant des délais finis et infinis. Notre approche consiste à formuler le problème sous la forme d’un programme entier mixte, puis à utiliser le solveur Cplex pour avoir les temps de séparation entre les événements. Afin de démontrer l’utilité en pratique de notre approche, nous l’avons utilisée pour la vérification et l’analyse d’une puce asynchrone d’Intel de calcul d’équations différentielles. Comparée aux travaux précédents, notre approche est basée sur une formulation exacte et elle permet non seulement de calculer le maximum de séparation, mais aussi de trouver un ordonnancement cyclique et de calculer les temps de séparation correspondant aux différentes périodes possibles de cet ordonnancement.
Resumo:
Réalisé en cotutelle avec l'Université de Paris Ouest Nanterre La Défense
Resumo:
La présente thèse de doctorat porte sur les processus internes au sein des équipes de travail pluriculturelles. Cette thèse se compose de trois articles et propose, d’une part, une mesure validée des valeurs culturelles au niveau individuel en langue française et, d’autre part, une mesure du degré d’homogénéité culturelle au sein des équipes de travail (ci-après ÉT). En outre, elle se penche sur la vérification empirique des nombreux liens entre l’homogénéité culturelle et les processus internes au sein des ÉT postulés par les auteurs mais jamais vérifiés empiriquement. Le premier article a pour but de faire le point sur la documentation scientifique concernant les équipes de travail pluriculturelles. Il présente une recension de la documentation portant sur ce type d’équipe, notamment l’impact présumé de la culture sur les comportements d’équipier, et les effets de la diversité culturelle sur la performance de l’équipe et sur ses processus internes. Le deuxième article, quant à lui, a pour objectif de valider la mesure des dimensions culturelles de Hofstede (1980, 1991, 1994) sur une base individuelle et en langue française. Cette étude a été réalisée en adaptant deux questionnaires, l’un développé par Hellmann (2000) et mesurant les dimensions culturelles de distance hiérarchique, de masculinité, de contrôle de l’incertitude et de collectivisme, et le second développé par Bearden, Money et Nevins (2006) et mesurant la dimension d’orientation à long terme. L’échantillon se compose de 453 répondants tous étudiants dans des programmes de baccalauréat à l’Université de Montréal et à l’Université du Québec à Montréal. Les résultats des deux analyses factorielles exploratoires effectuées ont fait ressortir sept facteurs distincts expliquant 41.6% de la variance pour le premier questionnaire et 61.6% de la variance pour le second. La composition de l’échantillon n’a pas permis de conduire d’analyse de variance afin de vérifier s’il se trouvait des différences significatives entre les différents groupes culturels de l’échantillon à l’étude, et ce, pour chacune des dimensions culturelles. Les limites de la recherche ainsi que des suggestions de recherches futures sont proposées. Enfin, le troisième article se penche sur les liens, postulés par de nombreux auteurs mais jamais confirmés empiriquement, entre l’homogénéité culturelle dans les équipes et les processus internes de l’équipe en termes de comportements productifs et de comportements contre-productifs. Afin d’étudier cette réalité, l’instrumentation de Hofstede (1980, 1991), conçue pour capter des différences au niveau des nations, a été opérationnalisée au niveau des individus (Temimi, Savoie et Duguay, 2008) et mis en relation avec les processus internes se déroulant au sein de l’équipe (Duguay, Temimi et Savoie, 2008; Rousseau, 2003; Temimi et Savoie, 2007). Cette étude a été réalisée auprès de 67 équipes variant en termes d’homogénéité culturelle. Les résultats indiquent que le degré d’homogénéité culturelle global s’avère positivement relié aux comportements productifs de l’équipe et négativement relié aux comportements contre-productifs. De plus, le degré d’homogénéité de la dimension culturelle de féminité ressort négativement relié aux comportements contre-productifs de flânerie sociale et de domination.
Resumo:
La politique québécoise de l’adaptation scolaire confirme que le plan d’intervention (PI) constitue l’outil privilégié pour répondre aux besoins des élèves handicapés ou en difficulté d’adaptation ou d’apprentissage. Toutefois, la recension des écrits nous informe que le plan d’intervention est encore loin d’être efficace. Le Ministère de l’Éducation, des Loisirs et des Sports du Québec (MELS, 2004) ainsi que l’Office of Special Education and Rehabilitative Services des U.S. department of Education (dans Eichler, 1999) ont bien identifié et présenté explicitement cinq à six fonctions du PI mais, aucun des deux organismes ne définit ce qu’est une fonction, à quoi elle sert, son importance relative et ce qu’elle implique. De plus, on retrouve, explicitement ou implicitement, soit dans le cadre de référence pour l’établissement des PI (MELS, 2004), soit dans la revue de la littérature, soit dans les milieux de pratique plusieurs autres fonctions que le PI remplit ou devrait remplir. Ce flou entourant le concept de fonction entraîne un manque de rigueur dans la conception des PI, car « lorsque la totalité des fonctions a été identifiée, elle permet le développement d’un produit répondant à l’usage attendu » (Langevin et coll., 1998). Il y a d’emblée une somme de fonctions qu’un PI remplit déjà et d’autres sûrement à remplir. Or, cela n’a pas été élucidé, précisé et validé. Le but de la présente recherche a été de définir les rôles du PI au regard des besoins de ses différents utilisateurs. Les objectifs spécifiques ont été les suivants, 1) Identifier les différents utilisateurs d’un PI, 2) Identifier les besoins des différents utilisateurs d’un PI, 3) Identifier les fonctions qu’un PI doit remplir afin de satisfaire les besoins de ses utilisateurs, 4) Créer un cahier des charges fonctionnel pour la conception et l’évaluation d’un PI, 5) Identifier certains coûts reliés à la conception d’un PI. Afin d’atteindre les objectifs précités, nous avons eu recours à la méthode de l’analyse de la valeur pédagogique (AVP) (Langevin, Rocque et Riopel, 2008). La méthode d’AVP comportait une analyse des besoins des différents utilisateurs potentiels, une analyse de la recension des écrits, une analyse des encadrements légaux, une analyse de produits types et une analyse écosystémique. En conclusion, nous avons identifié les différents utilisateurs potentiels d’un PI, identifié les différents besoins de ces utilisateurs, identifié les fonctions qu’un PI doit remplir pour satisfaire leurs besoins, crée un cahier des charges fonctionnel (CdCF) pour la conception et l’évaluation des PI et identifié certains coûts liés à la conception d’un PI. Le CdCF pourra servir à concevoir des PI et à évaluer leur efficience. Une partie du CdCF pourra aussi remplir un rôle prescriptif pour la conception d’outil de soutien à l’élaboration du PI. Enfin, le CdCF pourra servir à la formation et à la recherche en éducation.
Resumo:
L’amélioration de la qualité de l’utilisation des médicaments dans les soins primaires est devenue un enjeu crucial. Les pharmaciens communautaires se présentent comme des acteurs centraux dans l’atteinte de cet objectif, en réclamant une extension de leur rôle. L’objectif principal de cette thèse est de mieux comprendre comment les technologies de prescription informatisée (eRx) influencent la transformation du rôle des pharmaciens communautaires. Le premier article présente les résultats d’une étude de cas qui aborde la transformation du rôle des pharmaciens communautaires à partir du concept de professionnalisation. Elle propose un modèle logique des influences d’une technologie de eRx sur cette professionnalisation, élaboré à partir de la typologie de Davenport. Ce modèle logique a été validé en interviewant douze pharmaciens communautaires participant à un projet pilote typique de technologie de eRx. A partir des perceptions des pharmaciens communautaires, nous avons établi que la technologie était susceptible de soutenir la professionnalisation des pharmaciens en passant par cinq mécanismes : la capacité analytique, l’élimination des intermédiaires, l’intégration, l’automatisation et la diffusion des connaissances. Le deuxième article analyse les perturbations induites par les différentes fonctions des technologies de eRx sur la stabilité de la juridiction des pharmaciens communautaires, en se basant sur un cadre de référence adapté d’Abbott. À partir de trente-trois entrevues, avec des praticiens (médecins et pharmaciens) et des élites, cette étude de cas a permis de décrire en détail les influences des différentes fonctions sur les modalités d’action des professionnels, ainsi que les enjeux soulevés par ces possibilités. La perturbation principale est liée aux changements dans la distribution des informations, ce qui influence les activités de diagnostic et d’inférence des professionnels. La technologie peut redistribuer les informations relatives à la gestion des médicaments autant au bénéfice des médecins qu’au bénéfice des pharmaciens, ce qui suscite des tensions entre les médecins et les pharmaciens, mais aussi parmi les pharmaciens. Le troisième article présente une revue systématique visant à faire une synthèse des études ayant évalué les effets des technologies de eRx de deuxième génération sur la gestion des médicaments dans les soins primaires. Cette revue regroupe dix-neuf études menées avec des méthodes observationnelles. Les résultats rapportés révèlent que les technologies sont très hétérogènes, le plus souvent immatures, et que les effets ont été peu étudiés au-delà des perceptions des utilisateurs, qui sont mitigées. Le seul effet positif démontré est une amélioration de la qualité du profil pharmacologique accessible aux professionnels, alors que des effets négatifs ont été démontrés au niveau de l’exécution des prescriptions, tels que l’augmentation du nombre d’appels de clarification du pharmacien au prescripteur. Il semble donc que l’on en connaisse peu sur les effets des technologies de eRx de deuxième génération. Ces trois études permettent de constater que les nouvelles technologies de eRx peuvent effectivement influencer la transformation du rôle du pharmacien communautaire en perturbant les caractéristiques des prescriptions, et surtout, l’information et sa distribution. Ces perturbations génèrent des possibilités pour une extension du rôle des pharmaciens communautaires, tout en soulignant les défis intra et interprofessionnels associés à l’actualisation de ces possibilités. Dans l’ensemble, nos résultats soulignent que les perturbations associées aux technologies de eRx dépassent les éléments techniques du travail des utilisateurs, pour englober de multiples perturbations quant à la nature même du travail et du rôle des professionnels. Les décideurs et acteurs impliqués dans le déploiement des technologies de eRx auraient avantage à prendre en compte l’ensemble de ces considérations pour rapprocher les effets observés des bénéfices promis de ces technologies.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
Surveillance de maladies chroniques à l'aide des données administratives : cas de l'asthme au Québec
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
Thèse diffusée initialement dans le cadre d'un projet pilote des Presses de l'Université de Montréal/Centre d'édition numérique UdeM (1997-2008) avec l'autorisation de l'auteur.
Resumo:
Il est connu qu’on retrouve chez les femmes en post-ménopause un risque plus important de développer des maladies oculaires comparativement aux hommes du même groupe d’âge. Il semble que les changements hormonaux, et en particulier la baisse importante des niveaux d’estradiol, secondaires à la sénescence folliculaire constituent un facteur étiologique à long terme. Cela étant, il est légitime de se demander si les variations des niveaux d’hormones sexuelles endogènes peuvent également occasionner des effets à court terme sur les tissus de l’œil. Cette interrogation constitue d’ailleurs le motif principal de l’élaboration de la présente étude. Sachant qu’il se produit chez les femmes non ménopausées des variations continuelles des niveaux d’hormones sexuelles stéroïdiennes au cours de leur cycle menstruel, des femmes en âge de procréer ont été recrutées comme sujets d’étude. Dans un deuxième temps, afin de trouver le paramètre d’intérêt, on a effectué une revue de la documentation scientifique qui révèle un fait bien établi : les estrogènes favorisent la vasodilatation des vaisseaux sanguins par l’intermédiaire du monoxyde d’azote, et permettent, par le fait même, l’accroissement du débit sanguin tissulaire. Or, comment mesurer des variations de débit sanguin dans des tissus oculaires? Comme il est expliqué dans la discussion du présent mémoire, les variations d’oxygénation dans un organe dont le métabolisme est relativement stable sont le reflet de variations de débit sanguin. Grâce à une technique de mesure basée sur la spectroréflectométrie, il est possible de mesurer le taux d’oxyhémoglobine (HbO2) des lits capillaires du disque optique. En observant les variations du taux d’oxyhémoglobine au cours du cycle menstruel chez les sujets, on peut ainsi mesurer l’effet des variations hormonales cycliques sur l’irrigation des tissus oculaires. En somme, l’objectif de cette recherche est de mieux comprendre, en suivant le cycle menstruel des femmes, l’effet des hormones sexuelles endogènes sur l’oxygénation des lits capillaires du disque optique. Étant à la base du métabolisme de l’œil, l’apport en oxygène et en divers substrat véhiculés par la circulation sanguine est important au maintien de la santé oculaire. L’éclaircissement du lien entre les hormones et l’oxygénation de la rétine constituerait un avancement important, puisqu’il permettrait de comprendre pourquoi certaines atteintes oculaires, comme la cécité, touchent davantage les femmes. Les résultats de cette étude ont démontré que le taux d’oxyhémoglobine mesuré dans les lits capillaires du disque optique de l’œil ne subit pratiquement pas de variations significatives durant le cycle menstruel lorsqu’on considère les incertitudes des valeurs mesurées. Également, on observe une variabilité similaire des taux d’oxyhémoglobine mesurés chez les femmes en âge de procréation et chez les hommes du même groupe d’âge. Cela suggère que les changements hormonaux cycliques, qui ne se produisent que chez les femmes, n’occasionnent probablement pas de variation significative mesurable du taux d’oxyhémoglobine. Bref, malgré les effets possibles des estrogènes sur le diamètre artériolaire, il semble que les mécanismes locaux de régulation du débit sanguin tissulaire maintiennent un état d’équilibre propre au tissu irrigué et adapté aux besoins métaboliques locaux.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Le stress oxydatif et la formation des radicaux libres sont impliqués dans plusieurs mécanismes de la mort neuronale qui caractérisent la maladie d'Alzheimer. Les antioxydants sont reconnus comme une source de protection contre le stress oxydatif et peuvent avoir un effet protecteur sur le développement de la maladie d’Alzheimer. Cette étude visait à évaluer le potentiel antioxydant, par le biais du score « oxygen radical absorbance capacity » (ORAC), de l’alimentation habituelle de personnes âgées atteintes de la maladie d’Alzheimer en comparaison avec des témoins appariés pour l’âge sans problèmes cognitifs. L’hypothèse stipulait que les patients atteints de la maladie d’Alzheimer ont une alimentation dont le potentiel antioxydant est inférieur à celui des témoins sans problèmes cognitifs. L’étude a consisté en des analyses secondaires de données provenant de l’étude « Nutrition-Mémoire » (NMS), durant laquelle quarante-deux patients avec une démence du type Alzheimer (DTA) probable et leurs aidants étaient suivis pendant une période de dix-huit mois. Pour la présente étude, les données provenaient de trois jours de collecte alimentaire, ont été colligées au début (T0) de l’étude NMS, selon la méthode « Multiple-Pass ». Le potentiel antioxydant de l’alimentation a été déterminé à l’aide de la description des aliments énumérés dans la base de données des valeurs ORAC de l’USDA. Les résultats de l’étude ont montré que les patients avaient une alimentation dont le potentiel antioxydant était inférieur à celui des témoins (13784,07 ± 7372,70 μmol TE/100g contre 23220,54 ± 10862,55 μmol TE/100g, patients et témoins, respectivement; p<0,0001). Les analyses de régression hiérarchique pas à pas montraient que l’IMC, l’éducation, et le groupe (patients, témoins) étaient des facteurs influençant le score ORAC total. La consommation des aliments riches en antioxydants est un comportement préventif à faible risque qui pourrait bénéficier des individus susceptibles de développer la maladie d'Alzheimer.