993 resultados para Modèle de prévision de qualité de logiciel
Resumo:
Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtention du grade de Maîtrise en sciences économiques.
Resumo:
Le logiciel de simulation des données et d'analyse est Conquest V.3
Resumo:
On parle de plus en plus d'insertion professionnelle difficile. Les taux de chômage augmentent et cela implique une grande demande d'aide de la part des chercheurs d'emploi. Les ressources humaines pour répondre à leurs besoins sont débordées et doivent donner des services efficaces dans un court laps de temps. Le problème qui se pose alors, c'est de savoir comment faire une évaluation, un diagnostic ajusté de la situation du chercheur d'emploi, qui répond à la fois à ses besoins et à ses difficultés d'insertion, qui respecte son environnement, ses choix et qui s'adapte au contexte de notre société? Ce qui nous préoccupe donc ici, c'est de savoir comment mesurer l'employabilité d'un individu. Dans le premier chapitre nous définirons ce qu'est l'employabilité. Et nous ferons le point sur les réalités du marché du travail. Nous ferons aussi une analyse de certains instruments de mesure d'employabilité déjà existants et nous présenterons un modèle théorique d'intervention en employabilité nouveau et à jour pouvant répondre au besoin d'un instrument de mesure, le Trèfle chanceux de Limoges. Dans le deuxième chapitre, nous verrons l'instrument de mesure de l'employabilité que nous jugeons le plus avancé; "Copilote insertion" de Clavier. Dans un souci de répondre au besoin de posséder un instrument de mesure d'employabilité, nous allons utiliser Copilote insertion afin de vérifier la taxonomie du Trèfle chanceux. Dans le troisième chapitre, nous vous proposons un jeu bâti sur le modèle du Trèfle Chanceux; L'emploi à la Carte, que nous comparerons, par la suite, à Copilote insertion pour en faire ressortir les différences et similarités. C'est dans le quatrième et dernier chapitre que vous pourrez retrouver des recommandations afin d'amorcer la construction d'un instrument intégrant Copilote insertion et le Trèfle chanceux, tout en respectant les priorités des deux auteurs.
Resumo:
En tant qu'enseignant dans le programme des Techniques du génie électrique (T.G.E, anciennement Électrotechnique) nous avons pu constater qu'en moins de 10 ans, le micro-ordinateur est devenu une réalité qui concerne pratiquement tous les cours des trois années de formation, alors qu'ils n'étaient utilisés dans aucun cours avant. Cet exemple est typique de la révolution informatique que nous vivons actuellement et qui pénètre tous les secteurs d'activités de notre société. Dans ce contexte de changements importants, les enseignants ont malgré eux un rôle de pionniers car ils n'ont que peu de ressources à leur disposition pour maîtriser cette technologie et l'intégrer dans leur enseignement. Ce virage informatique, s'il est à peine commencé dans l'enseignement général, pose de nombreux problèmes aux enseignants du secteur professionnel qui doivent trouver la place et déterminer le rôle que doit jouer cette nouvelle technologie dans l'enseignement. La majorité des recherches sur les didacticiels ont pour objet les logiciels qui cherchent à assurer des tâches d'enseignement, tels que les tests, exerciseurs ou tutoriels, et auxquels s'ajoutent maintenant les applications multimédia. Une étude menée dans les collèges (Mataigne, 1992) montre cependant que ce sont d'abord les logiciels de bureautique et ensuite les logiciels de programmation et de simulation-modélisation, qui sont de loin les plus utilisés dans l'enseignement. S'il n'existe pratiquement pas de logiciels de bureautique ou de programmation conçus pour l'enseignement, les logiciels de simulation et de modélisation constituent plus des deux tiers des développements de didacticiels de ces dix dernières années pour le réseau collégial. Ces logiciels, dont la forme et le contenu se rapprochent plus de logiciels conçus pour les entreprises que de logiciels pédagogiques traditionnels, appartiennent à une catégorie où il se fait très peu de recherche didactique et où il n'existe pas de modèle de développement spécifique. Par ailleurs, nous avons constaté que la grande majorité des auteurs de didacticiels sont des enseignants qui réalisent parfois leur logiciel eux-mêmes. La conception d'un didacticiel étant une tâche particulièrement complexe, il nous a semblé utile d'analyser les différences entre les didacticiels traditionnels et les logiciels de simulation-modélisation afin de dégager la problématique du développement de ces derniers. Après avoir analysé les différents modèles de développement proposés par la recherche ou par le génie informatique, nous nous proposons, dans cette recherche, de dégager et de justifier une méthodologie de développement spécifique aux logiciels de simulation-modélisation fondée sur des éléments empruntés aux modèles du génie logiciel et de la didactique, sur notre expérience de développement et sur celle d'experts dans le domaine.
Resumo:
RESUME : L'athérosclérose, pathologie inflammatoire artérielle chronique, est à l'origine de la plupart des maladies cardiovasculaires qui constituent l'une des premières causes de morbidité et mortalité en France. Les études observationnelles et expérimentales montrent que l'exercice physique prévient la mortalité cardiovasculaire. Cependant, les mécanismes précisant les bénéfices cliniques de l'exercice sur l'athérosclérose sont encore largement inconnus. Le but général de ce travail a donc été d'explorer, en utilisant un modèle expérimental d'athérosclérose, la souris hypercholestérolémique génétiquement dépourvue en apolipoprotéine E (apoE-/-), les mécanismes athéroprotecteurs de l'exercice. La dysfonction endothéliale, généralement associée aux facteurs de risque cardiovasculaire, serait l'une des étapes précoces majeures de l'athérogenèse. Elle est caractérisée par une diminution de la biodisponibilité en monoxyde d'azote (NO) avec la perte de ses propriétés vasculo-protectrices, ce qui favorise un climat pro-athérogène (stress oxydatif, adhésion et infiltration des cellules inflammatoires dans la paroi artérielle...) conduisant à la formation de la plaque athéromateuse. L'objectif de notre premier travail a donc été d'explorer les effets de l'exercice d'une part, sur le développement des plaques athéromateuses et d'autre part, sur la fonction endothéliale de la souris apoE-/-. Nos résultats montrent que l'exercice réduit significativement l'extension de l'athérosclérose et prévient la dysfonction endothéliale. L'explication pharmacologique montre que l'exercice stimule la fonction endothéliale via, notamment, une plus grande sensibilité des récepteurs endothéliaux muscariniques, ce qui active les événements signalétiques cellulaires récepteurs-dépendants à l'origine d'une bioactivité accrue de NO. Les complications cliniques graves de l'athérosclérose sont induites par la rupture de la plaque instable provoquant la formation d'un thrombus occlusif et l'ischémie du territoire tissulaire en aval. L'objectif de notre deuxième travail a été d'examiner l'effet de l'exercice sur la qualité/stabilité de la plaque. Nos résultats indiquent que l'exercice de longue durée stabilise la plaque en augmentant le nombre de cellules musculaires lisses et en diminuant le nombre de macrophages intra-plaques. Nos résultats montrent aussi que la phosphorylation de la eNOS (NO Synthase endothéliale) Akt-dépendante n'est pas le mécanisme moléculaire majeur à l'origine de ce bénéfice. Enfin, dans notre troisième travail, nous avons investigué l'effet de l'exercice sur le développement de la plaque vulnérable. Nos résultats montrent, chez un modèle murin de plaque instable (modèle d'hypertension rénovasculaire à rénine et angiotensine II élevés) que l'exercice prévient l'apparition de la plaque vulnérable indépendamment d'un effet hémodynamique. Ce bénéfice serait associé à une diminution de l'expression vasculaire des récepteurs AT1 de l'Angiotensine II. Nos résultats justifient l'importance de l'exercice comme outil préventif des maladies cardiovasculaires. ABSTRACT : Atherosclerosis, a chronic inflammatory disease, is one of the main causes of morbidity and mortality in France. Observational and experimental data indicate that regular physical exercise has a positive impact on cardiovascular mortality. However, the mechanisms by which exercise exerts clinical benefits on atherosclerosis are still unknown. The general aim of this work was to elucidate the anti-atherosclerotic effects of exercise, using a mouse model of atherosclerosis: the apolipoprotein E-deficient mice (apoE-/- mice). Endothelial dysfunction, generally associated with cardiovascular risk factors, has been recognized to be a major and early step in atherogenesis. Endothelial dysfunction is characterized by Nitric Oxide (NO) biodisponibility reduction with loss of NO-mediated vasculoprotective actions. This leads to vascular effects such as increased oxidative stress and increased adhesion of inflammatory cells into arterial wall thus playing a role in atherosclerotic plaque development. Therefore, one of the objective of our study was to explore the effects of exercise on atherosclerotic plaque extension and on endothelial function in apoE-/- mice. Results show that exercise significantly reduces plaque progression and prevents endothelial dysfunction. Pharmacological explanation indicates that exercise stimulates endothelial function by increasing muscarinic receptors sensitivity which in turn activates intracellular signalling receptor-dependent events leading to increased NO bioactivity. The clinical manifestations of atherosclerosis are the consequences of unstable plaque rupture with thrombus formation leading to tissue ischemia. The second aim of our work was to determine the effect of exercise on plaque stability. We demonstrate that long-term exercise stabilizes atherosclerotic plaques as shown by decreased macrophage and increased Smooth Muscle Cells plaque content. Our results also suggest that the Akt-dependent eNOS phosphorylation pathway is not the primary molecular mechanism mediating these beneficial effects. Finally, we assessed a putative beneficial effect of exercise on vulnerable plaque development. In a mouse model of Angiotensine II (Ang II)-mediated vulnerable atherosclerotic plaques, we provide fist evidence that exercise prevents atherosclerosis progression and plaque vulnerability. The beneficial effect of swimming was associated with decreased aortic Ang II AT1 receptor expression independently from any hemodynamic change. These findings suggest clinical benefit of exercise in terms of cardiovascular event protection.
Resumo:
Cette étude traite de la complexité des enjeux de la mise en lumière urbaine et de sa conception. Le but est de déceler les mécanismes opératoires du projet d’éclairage afin de générer une analyse et une compréhension de ce type d’aménagement. Cette recherche met à jour les enjeux lumineux à différents niveaux comme l’urbanisme, l’environnement, la culture, la communication, la vision et la perception mais aussi au niveau des acteurs et de leurs pratiques sur le terrain. En utilisant une approche qualitative déductive, cette recherche théorique cherche à mieux comprendre les différentes significations du phénomène lumineux : comment dans la réalité terrain ces enjeux de la lumière sont compris, interprétés et traduits au travers de la réalisation des projets et des processus mis en place pour répondre aux besoins d’éclairage ? La pertinence de cette recherche est de questionner les enjeux complexes de la mise en lumière afin de savoir comment concevoir un « bon éclairage ». Comment se déroule un projet d’éclairage de sa conception à sa réalisation ? Quels sont les différents acteurs, leurs modes d’intervention et leurs perceptions du projet d’éclairage ? Le but est de vérifier comment ces enjeux se concrétisent sur le terrain, notamment au travers de l’activité et de l’interprétation des professionnels. Nous souhaitons créer un modèle opératoire qui rende compte des enjeux et du processus de ce type de projet. Modèle qui servira alors de repère pour la compréhension des mécanismes à l’œuvre comme le contexte, les acteurs, les moyens et les finalités des projets. Une étude des recherches théoriques nous permettra de comprendre la polysémie du phénomène lumineux afin d’en déceler la complexité des enjeux et de créer une première interprétation de ce type de projet. Nous déterminerons théoriquement ce que recouvre la notion de « bon éclairage » qui nous permettra de créer une grille analytique pour comparer notre approche avec la réalité sur le terrain. Ces recherches seront ensuite confrontées au recueil des données des études de cas, des stages en urbanisme et en conception lumière, et des interviews de professionnels dans le domaine. Nous confronterons les enjeux définis théoriquement aux collectes de données issues du terrain. Ces données seront collectées à partir de projets réalisés avec les professionnels durant la recherche immersive. La recherche-action nous permettra de collaborer avec les professionnels pour comprendre comment ils sélectionnent, déterminent et répondent aux enjeux des projets d’éclairage. Nous verrons grâce aux entretiens semi-dirigés comment les acteurs perçoivent leurs propres activités et nous interprèterons les données à l’aide de la « théorisation ancrée » pour dégager le sens de leurs discours. Nous analyserons alors les résultats de ces données de manière interprétative afin de déterminer les points convergeant et divergent entre les enjeux théoriques définis en amont et les enjeux définis en aval par la recherche-terrain. Cette comparaison nous permettra de créer une interprétation des enjeux de la mise en lumière urbaine dans toutes leurs complexités, à la fois du point de vue théorique et pratique. Cette recherche qualitative et complexe s’appuie sur une combinaison entre une étude phénoménologique et les méthodologies proposées par la « théorisation ancrée ». Nous procéderons à une combinaison de données issues de la pratique terrain et de la perception de cette pratique par les acteurs de l’éclairage. La recherche d’un « bon éclairage » envisage donc par une nouvelle compréhension l’amélioration des outils de réflexion et des actions des professionnels. En termes de résultat nous souhaitons créer un modèle opératoire de la mise en lumière qui définirait quels sont les différents éléments constitutifs de ces projets, leurs rôles et les relations qu’ils entretiennent entre eux. Modèle qui mettra en relief les éléments qui déterminent la qualité du projet d’éclairage et qui permettra de fournir un outil de compréhension. La contribution de ce travail de recherche est alors de fournir par cette nouvelle compréhension un repère méthodologique et analytique aux professionnels de l’éclairage mais aussi de faire émerger l’importance du phénomène de mise en lumière en suscitant de nouveaux questionnements auprès des activités liées au design industriel, à l’architecture et à l’urbanisme.
Resumo:
De nos jours, les logiciels doivent continuellement évoluer et intégrer toujours plus de fonctionnalités pour ne pas devenir obsolètes. C'est pourquoi, la maintenance représente plus de 60% du coût d'un logiciel. Pour réduire les coûts de programmation, les fonctionnalités sont programmées plus rapidement, ce qui induit inévitablement une baisse de qualité. Comprendre l’évolution du logiciel est donc devenu nécessaire pour garantir un bon niveau de qualité et retarder le dépérissement du code. En analysant à la fois les données sur l’évolution du code contenues dans un système de gestion de versions et les données quantitatives que nous pouvons déduire du code, nous sommes en mesure de mieux comprendre l'évolution du logiciel. Cependant, la quantité de données générées par une telle analyse est trop importante pour être étudiées manuellement et les méthodes d’analyses automatiques sont peu précises. Dans ce mémoire, nous proposons d'analyser ces données avec une méthode semi automatique : la visualisation. Eyes Of Darwin, notre système de visualisation en 3D, utilise une métaphore avec des quartiers et des bâtiments d'une ville pour visualiser toute l'évolution du logiciel sur une seule vue. De plus, il intègre un système de réduction de l'occlusion qui transforme l'écran de l'utilisateur en une fenêtre ouverte sur la scène en 3D qu'il affiche. Pour finir, ce mémoire présente une étude exploratoire qui valide notre approche.
Resumo:
Au Canada, la proportion de la population âgée de 65 ans et plus a augmenté depuis 1980. Bien que la dénutrition ne soit pas inévitable avec le vieillissement, certains changements et facteurs physiopathologiques, environnementaux et psycho socio-économiques peuvent entraîner une détérioration des choix alimentaires et donc, de la qualité de vie des aînés [1]. Plusieurs études font le lien entre l’état nutritionnel et la morbidité ainsi qu’avec les capacités fonctionnelles [2]. Ces observations expliquent l'intérêt de la prévention et du traitement de la dénutrition afin d’optimiser la prise alimentaire et un meilleur état de santé de cette population. Objectifs :1) Explorer les barrières individuelles et socio-environnementales, réelles et perçues, qui peuvent mener à la détérioration des choix et de la qualité alimentaires et entraîner une dénutrition chez les personnes âgées vivant à domicile. 2) Examiner la distribution de ces facteurs dans la population à l’étude. 3) Étudier la relation entre ces facteurs afin de dresser un portrait plus éclairé des déterminants négatifs de l’alimentation chez les adultes âgés pour mieux comprendre les barrières à la prise alimentaire saine. Méthodologie : Il s'agit d'une analyse secondaire réalisée à partir des données recueillies auprès des participants (n=1 602), âgés entre 67 et 84 ans,de l’Étude longitudinale québécoise sur la nutrition et le vieillissement réussi (NuAge) débutée en 2003 et dont le suivi était prévu sur cinq ans [3]. Le but principal de NuAge était de déterminer le rôle de la nutrition dans l’accomplissement d’un vieillissement réussi. Les données comprennent des mesures socio-démographiques, nutritionnelles, fonctionnelles, sociales de même que biologiques et médicales. À partir d'un modèle théorique des déterminants de la prise alimentaire chez la population âgée, ces données ont été mises en lien avec la qualité alimentaire. Cette dernière a été déterminée selon l’adaptation canadienne de l’indice d’alimentation saine (C-HEI), calculé à partir des données alimentaires et nutritionnelles obtenues par le questionnaire de fréquence alimentaire administré aux participants au T1, soit à leur entrée dans l'étude. Résultats : Les barrières qui pourraient freiner la qualité alimentaire des femmes incluent un statut affectif fragile et un fonctionnement social limité. Ce qui ressort, comme étant des barrières au C-HEI chez les hommes, est un revenu perçu comme étant insuffisant pour satisfaire les besoins, le port de prothèses dentaires et le fait de manger souvent au restaurant. Étonnamment, le nombre d’attitudes positives relatives à l’alimentation et un score plus élevé de la composante mentale du SF-36 prédisent un C-HEI plus faible. La nature des réponses auto rapportées pourrait expliquer ces résultats. Conclusion : Les résultats de cette recherche permettent de mieux comprendre les barrières d’une saine alimentation au sein d’une population bien-portante. Il est souhaité que les résultats contribueront au développement d’interventions efficaces ciblant les personnes âgées pour favoriser un apport nutritionnel et un état de santé optimal.
Resumo:
Cette thèse étudie une approche intégrant la gestion de l’horaire et la conception de réseaux de services pour le transport ferroviaire de marchandises. Le transport par rail s’articule autour d’une structure à deux niveaux de consolidation où l’affectation des wagons aux blocs ainsi que des blocs aux services représentent des décisions qui complexifient grandement la gestion des opérations. Dans cette thèse, les deux processus de consolidation ainsi que l’horaire d’exploitation sont étudiés simultanément. La résolution de ce problème permet d’identifier un plan d’exploitation rentable comprenant les politiques de blocage, le routage et l’horaire des trains, de même que l’habillage ainsi que l’affectation du traffic. Afin de décrire les différentes activités ferroviaires au niveau tactique, nous étendons le réseau physique et construisons une structure de réseau espace-temps comprenant trois couches dans lequel la dimension liée au temps prend en considération les impacts temporels sur les opérations. De plus, les opérations relatives aux trains, blocs et wagons sont décrites par différentes couches. Sur la base de cette structure de réseau, nous modélisons ce problème de planification ferroviaire comme un problème de conception de réseaux de services. Le modèle proposé se formule comme un programme mathématique en variables mixtes. Ce dernie r s’avère très difficile à résoudre en raison de la grande taille des instances traitées et de sa complexité intrinsèque. Trois versions sont étudiées : le modèle simplifié (comprenant des services directs uniquement), le modèle complet (comprenant des services directs et multi-arrêts), ainsi qu’un modèle complet à très grande échelle. Plusieurs heuristiques sont développées afin d’obtenir de bonnes solutions en des temps de calcul raisonnables. Premièrement, un cas particulier avec services directs est analysé. En considérant une cara ctéristique spécifique du problème de conception de réseaux de services directs nous développons un nouvel algorithme de recherche avec tabous. Un voisinage par cycles est privilégié à cet effet. Celui-ci est basé sur la distribution du flot circulant sur les blocs selon les cycles issus du réseau résiduel. Un algorithme basé sur l’ajustement de pente est développé pour le modèle complet, et nous proposons une nouvelle méthode, appelée recherche ellipsoidale, permettant d’améliorer davantage la qualité de la solution. La recherche ellipsoidale combine les bonnes solutions admissibles générées par l’algorithme d’ajustement de pente, et regroupe les caractéristiques des bonnes solutions afin de créer un problème élite qui est résolu de facon exacte à l’aide d’un logiciel commercial. L’heuristique tire donc avantage de la vitesse de convergence de l’algorithme d’ajustement de pente et de la qualité de solution de la recherche ellipsoidale. Les tests numériques illustrent l’efficacité de l’heuristique proposée. En outre, l’algorithme représente une alternative intéressante afin de résoudre le problème simplifié. Enfin, nous étudions le modèle complet à très grande échelle. Une heuristique hybride est développée en intégrant les idées de l’algorithme précédemment décrit et la génération de colonnes. Nous proposons une nouvelle procédure d’ajustement de pente où, par rapport à l’ancienne, seule l’approximation des couts liés aux services est considérée. La nouvelle approche d’ajustement de pente sépare ainsi les décisions associées aux blocs et aux services afin de fournir une décomposition naturelle du problème. Les résultats numériques obtenus montrent que l’algorithme est en mesure d’identifier des solutions de qualité dans un contexte visant la résolution d’instances réelles.
Resumo:
Le développement du logiciel actuel doit faire face de plus en plus à la complexité de programmes gigantesques, élaborés et maintenus par de grandes équipes réparties dans divers lieux. Dans ses tâches régulières, chaque intervenant peut avoir à répondre à des questions variées en tirant des informations de sources diverses. Pour améliorer le rendement global du développement, nous proposons d'intégrer dans un IDE populaire (Eclipse) notre nouvel outil de visualisation (VERSO) qui calcule, organise, affiche et permet de naviguer dans les informations de façon cohérente, efficace et intuitive, afin de bénéficier du système visuel humain dans l'exploration de données variées. Nous proposons une structuration des informations selon trois axes : (1) le contexte (qualité, contrôle de version, bogues, etc.) détermine le type des informations ; (2) le niveau de granularité (ligne de code, méthode, classe, paquetage) dérive les informations au niveau de détails adéquat ; et (3) l'évolution extrait les informations de la version du logiciel désirée. Chaque vue du logiciel correspond à une coordonnée discrète selon ces trois axes, et nous portons une attention toute particulière à la cohérence en naviguant entre des vues adjacentes seulement, et ce, afin de diminuer la charge cognitive de recherches pour répondre aux questions des utilisateurs. Deux expériences valident l'intérêt de notre approche intégrée dans des tâches représentatives. Elles permettent de croire qu'un accès à diverses informations présentées de façon graphique et cohérente devrait grandement aider le développement du logiciel contemporain.
Resumo:
Cette thèse a pour but de documenter la réorganisation des services effectuée au programme Enfants et adolescents (PEA) du Centre de réadaptation Estrie, Sherbrooke. Une démarche de recherche-action participative (RAP) est utilisée afin de collaborer au développement, à l’implantation et à l’évaluation d’un nouveau modèle de services visant à accroître l’accessibilité et la qualité des services de réadaptation offerts aux enfants ayant une déficience physique. Spécifiquement, les objectifs sont : 1) de documenter les retombées de la réorganisation des services; 2) de réaliser une analyse critique du processus de changement. Des méthodes quantitatives et qualitatives sont utilisées afin d’atteindre ces objectifs. Tout d’abord, la Mesure des processus de soins (MPOC) documente la perception de la qualité avant (2007), pendant (2008) et après (2009) l’implantation du nouveau modèle de services. Au total, cet outil est employé auprès de 222 familles et 129 intervenants. À quatre reprises, les intervenants et les gestionnaires répondent également à un questionnaire sur leurs perceptions des forces, des faiblesses, des opportunités et des menaces au PEA. En 2008 et en 2009, des focus groups et des entrevues téléphoniques sont réalisées auprès des familles (n=5), des intervenants (n=19) et des gestionnaires (n=13) afin de documenter leurs perceptions sur le processus de changement et sur les retombées de la réorganisation des services. Quant à l’observation participante, elle permet de recueillir de l’information sur le processus de réorganisation des services tout au long de ces trois années. Enfin, les informations recueillies sont analysées à l’aide de différentes approches, dont des tests statistiques et des analyses de contenu utilisant une grille de codification inspirée de la théorie des systèmes d’actions organisées. Les résultats indiquent que davantage d’enfants reçoivent des services en 2009 en comparaison à 2007. De plus, la qualité des services s’est maintenue selon les perceptions évaluées par la MPOC (article 1). L’utilisation d’interventions de groupe contribue fort probablement à augmenter le nombre d’enfants qui reçoivent des services, mais plusieurs défis doivent être adressés afin que cette modalité d’intervention soit réellement efficiente (article 2). Les résultats font ressortir que le processus de réorganisation des services est complexe. L’évaluation des forces, des faiblesses, des opportunités et des menaces d’un programme, de même que l’implication des acteurs dans le processus de développement d’un nouveau modèle de services, favorisent l’amélioration continue de la qualité (article 3). Or, les facilitateurs et les obstacles à l’implantation du nouveau modèle de services évoluent durant la réorganisation des services. Considérant cela, il est important de poser les actions nécessaires afin de soutenir le changement tout au long du processus (article 4). En résumé, cette thèse contribue à l’avancement des connaissances en réadaptation en comblant une lacune dans les écrits scientifiques. En effet, peu de projets visant le développement et l’implantation de nouveaux modèles de services sont évalués et documentés. Pourtant, des modèles tels que celui développé par le PEA semblent prometteurs afin d’améliorer l’accessibilité, et éventuellement, la qualité des services de réadaptation chez l’enfant.
Resumo:
L’explosion du nombre de séquences permet à la phylogénomique, c’est-à-dire l’étude des liens de parenté entre espèces à partir de grands alignements multi-gènes, de prendre son essor. C’est incontestablement un moyen de pallier aux erreurs stochastiques des phylogénies simple gène, mais de nombreux problèmes demeurent malgré les progrès réalisés dans la modélisation du processus évolutif. Dans cette thèse, nous nous attachons à caractériser certains aspects du mauvais ajustement du modèle aux données, et à étudier leur impact sur l’exactitude de l’inférence. Contrairement à l’hétérotachie, la variation au cours du temps du processus de substitution en acides aminés a reçu peu d’attention jusqu’alors. Non seulement nous montrons que cette hétérogénéité est largement répandue chez les animaux, mais aussi que son existence peut nuire à la qualité de l’inférence phylogénomique. Ainsi en l’absence d’un modèle adéquat, la suppression des colonnes hétérogènes, mal gérées par le modèle, peut faire disparaître un artéfact de reconstruction. Dans un cadre phylogénomique, les techniques de séquençage utilisées impliquent souvent que tous les gènes ne sont pas présents pour toutes les espèces. La controverse sur l’impact de la quantité de cellules vides a récemment été réactualisée, mais la majorité des études sur les données manquantes sont faites sur de petits jeux de séquences simulées. Nous nous sommes donc intéressés à quantifier cet impact dans le cas d’un large alignement de données réelles. Pour un taux raisonnable de données manquantes, il appert que l’incomplétude de l’alignement affecte moins l’exactitude de l’inférence que le choix du modèle. Au contraire, l’ajout d’une séquence incomplète mais qui casse une longue branche peut restaurer, au moins partiellement, une phylogénie erronée. Comme les violations de modèle constituent toujours la limitation majeure dans l’exactitude de l’inférence phylogénétique, l’amélioration de l’échantillonnage des espèces et des gènes reste une alternative utile en l’absence d’un modèle adéquat. Nous avons donc développé un logiciel de sélection de séquences qui construit des jeux de données reproductibles, en se basant sur la quantité de données présentes, la vitesse d’évolution et les biais de composition. Lors de cette étude nous avons montré que l’expertise humaine apporte pour l’instant encore un savoir incontournable. Les différentes analyses réalisées pour cette thèse concluent à l’importance primordiale du modèle évolutif.
Resumo:
Ce mémoire s’inscrit dans le cadre d’une recherche de développement pédagogique d’objet, destinée à des enseignants du secondaire. L’objectif porte sur la conception, et la validation auprès d’un groupe d’experts, d’une grille visant l’analyse de la qualité de situations d’apprentissage et d’évaluation en lecture (GASAEL) conçues pour des élèves de niveau secondaire en difficulté d’apprentissage, notamment ceux du parcours de formation axée sur l’emploi (PFAE). La problématique expose la nécessité chez les enseignants de trouver des réponses ajustées aux besoins d’apprentissage des élèves ciblés, dans un contexte de programmes élaborés par compétences. La situation d’apprentissage et d’évaluation (SAE) est une instrumentation pertinente, mais demeure sous-utilisée. Le cadre conceptuel, guidé par le modèle de la situation pédagogique de Legendre (2005), assure l’analyse du contexte de la SAE et permet d’identifier ses caractéristiques. Ce cadre est suivi par la méthodologie de l’Analyse de la valeur pédagogique de Roque, Langevin et Riopel (1998) exposant la procédure d’analyse des fonctions du produit, au regard des besoins des utilisateurs. L’innovation de ce produit pédagogique tient en son caractère pragmatique; il propose à la fois l’analyse de la qualité des SAE, et une référence rapide à propos des concepts porteurs d’une SAE, fournis par des exemples ou des explications.
Resumo:
Cette étude de cas vise à comparer le modèle de soins implanté sur le territoire d’un centre de santé et des services sociaux (CSSS) de la région de Montréal aux modèles de soins en étapes et à examiner l’influence de facteurs contextuels sur l’implantation de ce modèle. Au total, 13 cliniciens et gestionnaires travaillant à l’interface entre la première et la deuxième ligne ont participé à une entrevue semi-structurée. Les résultats montrent que le modèle de soins hiérarchisés implanté se compare en plusieurs points aux modèles de soins en étapes. Cependant, certains éléments de ces derniers sont à intégrer afin d’améliorer l’efficience et la qualité des soins, notamment l’introduction de critères d’évaluation objectifs et la spécification des interventions démontrées efficaces à privilégier. Aussi, plusieurs facteurs influençant l’implantation d’un modèle de soins hiérarchisés sont dégagés. Parmi ceux-ci, la présence de concertation et de lieux d’apprentissage représente un élément clé. Néanmoins, certains éléments sont à considérer pour favoriser sa réussite dont l’uniformisation des critères et des mécanismes de référence, la clarification des rôles du guichet d’accès en santé mentale et l’adhésion des omnipraticiens au modèle de soins hiérarchisés. En somme, l’utilisation des cadres de référence et d’analyse peut guider les gestionnaires sur les enjeux à considérer pour favoriser l’implantation d’un modèle de soins basé sur les données probantes, ce qui, à long terme, devrait améliorer l’efficience des services offerts et leur adéquation avec les besoins populationnels.
Resumo:
Le lien entre qualité de vie et santé est complexe et représente un concept parapluie dont la définition est influencée par des éléments symboliques. Sur ce plan, si le statut socioéconomique sert de référence à un modèle de qualité de vie c’est parce que les paramètres et les critères de satisfaction de la vie sont souvent définis à partir des valeurs matérielles d’une culture située dans un contexte géopolitique et économique particulier. Dans cette recherche les données du terrain rural et les habitudes de vie des familles et de leur communauté sont mises en lien avec l’environnement et servent d’indicateurs s’opposant à certains résultats des statistiques épidémiologiques sur la santé. Ainsi, afin d’accéder à une analyse des fondements théoriques des liens entre une vie de qualité et la santé, les données empiriques récoltées dans le cadre d’une enquête heuristique ont été alliées aux concepts de satisfaction des besoins fondamentaux dans leurs rapports avec le milieu écologique et le contexte créé par l’actualisation des capitaux sociaux, culturels et économiques. Cette perspective d’analyse permit donc de brosser un tableau plus large et nuancé sur des déterminants de la santé jusqu’ici demeurés silencieux au sein des enquêtes épidémiologiques.