999 resultados para Amélioration de la performance


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nous étudions l'effet sur le marché des aliments de l'introduction sur le marché de l'énergie de biocarburants, comme substitut aux combustibles fossiles. Nous supposons une économie où cohabitent sur le marché de l'énergie un cartel pétrolier et une frange compétitive de cultivateurs qui produit de l'énergie sous forme de biocarburant. Les cultivateurs produisent également des produits agricoles qu'ils vendent sur le marché des aliments. Nous caractérisons la relation qui en résulte entre le prix de l'énergie et le prix des aliments, ainsi que le sentier d'extraction du cartel pétrolier et le sentier de prix de l'énergie. Il est démontré que le prix des aliments va croître aussi longtemps que le stock de pétrole n'est pas épuisé, et cela que la population soit croissante ou non. Il continuera à croître une fois le stock de pétrole épuisé si la population est croissante. Les effets de l'amélioration dans la productivité de la terre dans la production d'aliments ainsi que dans la production de biocarburant sont analysés.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Dans le domaine des neurosciences computationnelles, l'hypothèse a été émise que le système visuel, depuis la rétine et jusqu'au cortex visuel primaire au moins, ajuste continuellement un modèle probabiliste avec des variables latentes, à son flux de perceptions. Ni le modèle exact, ni la méthode exacte utilisée pour l'ajustement ne sont connus, mais les algorithmes existants qui permettent l'ajustement de tels modèles ont besoin de faire une estimation conditionnelle des variables latentes. Cela nous peut nous aider à comprendre pourquoi le système visuel pourrait ajuster un tel modèle; si le modèle est approprié, ces estimé conditionnels peuvent aussi former une excellente représentation, qui permettent d'analyser le contenu sémantique des images perçues. Le travail présenté ici utilise la performance en classification d'images (discrimination entre des types d'objets communs) comme base pour comparer des modèles du système visuel, et des algorithmes pour ajuster ces modèles (vus comme des densités de probabilité) à des images. Cette thèse (a) montre que des modèles basés sur les cellules complexes de l'aire visuelle V1 généralisent mieux à partir d'exemples d'entraînement étiquetés que les réseaux de neurones conventionnels, dont les unités cachées sont plus semblables aux cellules simples de V1; (b) présente une nouvelle interprétation des modèles du système visuels basés sur des cellules complexes, comme distributions de probabilités, ainsi que de nouveaux algorithmes pour les ajuster à des données; et (c) montre que ces modèles forment des représentations qui sont meilleures pour la classification d'images, après avoir été entraînés comme des modèles de probabilités. Deux innovations techniques additionnelles, qui ont rendu ce travail possible, sont également décrites : un algorithme de recherche aléatoire pour sélectionner des hyper-paramètres, et un compilateur pour des expressions mathématiques matricielles, qui peut optimiser ces expressions pour processeur central (CPU) et graphique (GPU).

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Introduction: Les troubles respiratoires du sommeil (TRS), qui représentent une préoccupation croissante pour la santé, ont des effets significatifs sur la santé, le comportement et la performance académique chez l’enfant. Les malformations craniofaciales, l’hypertrophie adéno-amygdalienne et l'obésité, représentent des facteurs de risque importants dans le développement de cette condition. Les symptômes des TRS ont été étudiés dans une étude prospective chez les enfants et adolescents durant leur traitement orthodontique dans un milieu universitaire. Cette étude a cherché à décrire la prévalence et les facteurs de risque principaux des TRS, ainsi que l'impact des différentes interventions orthodontiques sur les symptômes TRS. Matériel et méthodes: dans une étude cohorte prospective, un groupe de 168 sujets âgés de 12 à 21 ans ont été soumis, quatre ans après la prise de données initiale, à un examen craniofacial en plus d'être administré des questionnaires qui ont recueilli des données sur la situation socio-démographique, le bruxisme et les troubles d’ATM, le sommeil et le comportement diurne, et les facteurs neuropsychologiques. Résultats: l'indice de masse corporelle a été augmenté mais est demeurée dans la même catégorie aux deux moments de l'enquête. Il ya eu une augmentation du serrement des dents et des symptômes de l'ATM, une diminution de la taille des amygdales, et une augmentation de la somnolence diurne. La prévalence des TRS n'a pas changé entre l’étude initiale et l’étude de suivi. Aucune intervention orthodontique s'est avérée avoir un effet cliniquement significatif sur les voies aériennes supérieures. Conclusions: la prévalence des symptômes TRS était constante par rapport aux valeurs de base pour la population étudiée, mais a augmenté si rapportée à la population générale. Les traitements orthodontiques ne montrent aucun effet sur les TRS. Mots-clés : apnée du sommeil, craniofacial, prévalence, ronflement, traitement orthodontique, voies aériennes supérieures

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Objectif : Déterminer la fiabilité et la précision d’un prototype d’appareil non invasif de mesure de glucose dans le tissu interstitiel, le PGS (Photonic Glucose Sensor), en utilisant des clamps glycémiques multi-étagés. Méthodes : Le PGS a été évalué chez 13 sujets avec diabète de type 1. Deux PGS étaient testés par sujet, un sur chacun des triceps, pour évaluer la sensibilité, la spécificité, la reproductibilité et la précision comparativement à la technique de référence (le Beckman®). Chaque sujet était soumis à un clamp de glucose multi-étagé de 8 heures aux concentrations de 3, 5, 8 et 12 mmol/L, de 2 heures chacun. Résultats : La corrélation entre le PGS et le Beckman® était de 0,70. Pour la détection des hypoglycémies, la sensibilité était de 63,4%, la spécificité de 91,6%, la valeur prédictive positive (VPP) 71,8% et la valeur prédictive négative (VPN) 88,2%. Pour la détection de l’hyperglycémie, la sensibilité était de 64,7% et la spécificité de 92%, la VPP 70,8% et la VPN : 89,7%. La courbe ROC (Receiver Operating Characteristics) démontrait une précision de 0,86 pour l’hypoglycémie et de 0,87 pour l’hyperglycémie. La reproductibilité selon la « Clark Error Grid » était de 88% (A+B). Conclusion : La performance du PGS était comparable, sinon meilleure que les autres appareils sur le marché(Freestyle® Navigator, Medtronic Guardian® RT, Dexcom® STS-7) avec l’avantage qu’il n’y a pas d’aiguille. Il s’agit donc d’un appareil avec beaucoup de potentiel comme outil pour faciliter le monitoring au cours du traitement intensif du diabète. Mot clés : Diabète, diabète de type 1, PGS (Photonic Glucose Sensor), mesure continue de glucose, courbe ROC, « Clark Error Grid».

Relevância:

80.00% 80.00%

Publicador:

Resumo:

De nos jours, la voiture est devenue le mode de transport le plus utilisé, mais malheureusement, il est accompagné d’un certain nombre de problèmes (accidents, pollution, embouteillages, etc.), qui vont aller en s’aggravant avec l’augmentation prévue du nombre de voitures particulières, malgré les efforts très importants mis en œuvre pour tenter de les réduire ; le nombre de morts sur les routes demeure très important. Les réseaux sans fil de véhicules, appelés VANET, qui consistent de plusieurs véhicules mobiles sans infrastructure préexistante pour communiquer, font actuellement l’objet d'une attention accrue de la part des constructeurs et des chercheurs, afin d’améliorer la sécurité sur les routes ou encore les aides proposées aux conducteurs. Par exemple, ils peuvent avertir d’autres automobilistes que les routes sont glissantes ou qu’un accident vient de se produire. Dans VANET, les protocoles de diffusion (broadcast) jouent un rôle très important par rapport aux messages unicast, car ils sont conçus pour transmettre des messages de sécurité importants à tous les nœuds. Ces protocoles de diffusion ne sont pas fiables et ils souffrent de plusieurs problèmes, à savoir : (1) Tempête de diffusion (broadcast storm) ; (2) Nœud caché (hidden node) ; (3) Échec de la transmission. Ces problèmes doivent être résolus afin de fournir une diffusion fiable et rapide. L’objectif de notre recherche est de résoudre certains de ces problèmes, tout en assurant le meilleur compromis entre fiabilité, délai garanti, et débit garanti (Qualité de Service : QdS). Le travail de recherche de ce mémoire a porté sur le développement d’une nouvelle technique qui peut être utilisée pour gérer le droit d’accès aux médias (protocole de gestion des émissions), la gestion de grappe (cluster) et la communication. Ce protocole intègre l'approche de gestion centralisée des grappes stables et la transmission des données. Dans cette technique, le temps est divisé en cycles, chaque cycle est partagé entre les canaux de service et de contrôle, et divisé en deux parties. La première partie s’appuie sur TDMA (Time Division Multiple Access). La deuxième partie s’appuie sur CSMA/CA (Carrier Sense Multiple Access / Collision Avoidance) pour gérer l’accès au medium. En outre, notre protocole ajuste d’une manière adaptative le temps consommé dans la diffusion des messages de sécurité, ce qui permettra une amélioration de la capacité des canaux. Il est implanté dans la couche MAC (Medium Access Control), centralisé dans les têtes de grappes (CH, cluster-head) qui s’adaptent continuellement à la dynamique des véhicules. Ainsi, l’utilisation de ce protocole centralisé nous assure une consommation efficace d’intervalles de temps pour le nombre exact de véhicules actifs, y compris les nœuds/véhicules cachés; notre protocole assure également un délai limité pour les applications de sécurité, afin d’accéder au canal de communication, et il permet aussi de réduire le surplus (overhead) à l’aide d’une propagation dirigée de diffusion.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Plusieurs études à grande échelle ont identifié la modification ou la perte d’habitats comme menace principale à la conservation des communautés de poissons d’eau douce. Au Canada, « aucune perte nette dans la capacité productive des habitats » (NNL) est le principe directeur de la politique de gestion des habitats du ministère des Pêches et Océans. Le respect du NNL implique l’avancement des connaissances au niveau des relations entre les poissons et leurs habitats, de même que des outils pour quantifier l’impact de la modification des habitats sur les poissons. Les modèles d’utilisation de l’habitat des poissons (FHUM) sont des outils qui permettent d’améliorer nos connaissances des relations poissons – habitat, de prédire la distribution des espèces, mais aussi leurs densités, biomasses ou abondances, sur la base des caractéristiques de l’environnement. L’objectif général de mon mémoire est d’améliorer la performance des FHUM pour les rivières des basses Laurentides, en suggérant des perfectionnements au niveau de 2 aspects cruciaux de l’élaboration de tels modèles : la description précise de la communauté de poissons et l’utilisation de modèles statistiques efficaces. Dans un premier chapitre, j’évalue la performance relative de la pêcheuse électrique et de l’échantillonnage en visuel (plongée de surface) pour estimer les abondances des combinaisons d’espèces et de classes de taille des poissons en rivière. J’évalue aussi l’effet des conditions environnementales sur les différences potentielles entre les communautés observées par ces 2 méthodes d’échantillonnage. Pour ce faire, 10 sections de rivière de 20 m de longueur ont été échantillonnées à l’aide de ces 2 méthodes alors qu’elles étaient fermées par des filets de blocage. 3 plongeurs performèrent l’échantillonnage en visuel en se déplaçant de l’aval vers l’amont des sections, tout en dénombrant les espèces et classes de taille. Par la suite, nous avons fait 3 passages de pêcheuse électrique et les abondances furent estimées grâce à un modèle restreint de maximum de vraisemblance, basé sur la diminution des abondances observées. De plus grandes abondances de poissons furent observées en visuel qu’avec la pêcheuse électrique à tous les sites. La richesse spécifique observée en visuel était plus élevée (6/10) ou égale (4/10) à celle observée avec la pêcheuse électrique. Les différences entre les communautés de poissons observées à l’aide de ces 2 méthodes ne purent être reliées aux conditions environnementales. Les résultats de cette expérience sont contraires à ceux de toutes les études comparant ces 2 méthodes d’échantillonnage, lesquels suggèrent une supériorité de la pêcheuse électrique. Les conditions environnementales de notre expérience étaient distinctes de celles observées dans les autres études (absence d’arbres tombés dans l’eau, très peu de substrats grossiers), mais la différence la plus marquante était en terme de communauté de poissons observée (dominance des cyprinidés et des centrarchidés plutôt que des salmonidés). Je termine ce chapitre en suggérant que les caractéristiques comportementales favorisant l’évitement de la capture (formation de bancs) et facilitant l’observation en visuel (curiosité) sont responsables de la supériorité de la plongée de surface pour échantillonner les communautés dans les rivières des basses Laurentides. Dans un deuxième chapitre, je développe des FHUM pour des communautés de poissons de rivière ayant plusieurs espèces. Dans le but de simplifier la modélisation de telles communautés et d’améliorer notre compréhension des relations poissons – habitat, j’utilise les concepts de guilde écologique et de filtre environnemental pour explorer les relations entre les guildes formées sur la bases de différents types de traits (reproducteurs, taxonomiques, éco-morphologiques et alimentaires) et les conditions environnementales locales à l’échelle du méso-habitat. Les modèles d’habitats basés sur les guildes reproductrices ont clairement surpassé les autres modèles, parce que l’habitat de fraie reflète l’habitat de préférence en dehors de la période de reproduction. J’ai également utilisé l’approche inverse, c’est à dire définir des guildes d’utilisation de l’habitat et les mettre en relation avec les traits des espèces. Les traits reliés à l’alimentation des poissons ont semblés être les meilleurs pour expliquer l’appartenance aux groupes d’utilisation de l’habitat, mais le modèle utilisé ne représentait pas bien la relation entre les groupes. La validation de notre modèle basé sur les guildes reproductrices avec un jeu de données indépendant pourrait confirmer notre découverte, laquelle représente une manière prometteuse de modéliser les relations poissons – environnement dans des communautés de poissons complexes. En conclusion, mon mémoire suggère d’importantes améliorations aux FHUM pour les communautés de poissons des basses Laurentides, en suggérant de prendre en compte les caractéristiques biologiques des cours d’eau dans le choix d’une méthode d’échantillonnage, et également en utilisant une méthode prometteuse pour simplifier les FHUM de communautés de poissons complexes : les guildes reproductrices.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’objectif principal de la présente thèse était de déterminer les facteurs susceptibles d’influencer l’efficacité des processus de contrôle en ligne des mouvements d’atteinte manuelle. De nos jours, les mouvements d’atteinte manuelle réalisés dans un environnement virtuel (déplacer une souris d’ordinateur pour contrôler un curseur à l’écran, par exemple) sont devenus chose commune. Par comparaison aux mouvements réalisés en contexte naturel (appuyer sur le bouton de mise en marche de l’ordinateur), ceux réalisés en contexte virtuel imposent au système nerveux central des contraintes importantes parce que l’information visuelle et proprioceptive définissant la position de l’effecteur n’est pas parfaitement congruente. Par conséquent, la présente thèse s’articule autour des effets d’un contexte virtuel sur le contrôle des mouvements d’atteinte manuelle. Dans notre premier article, nous avons tenté de déterminer si des facteurs tels que (a) la quantité de pratique, (b) l’orientation du montage virtuel (aligné vs. non-aligné) ou encore (c) l’alternance d’un essai réalisé avec et sans la vision de l’effecteur pouvaient augmenter l’efficacité des processus de contrôle en ligne de mouvement réalisés en contexte virtuel. Ces facteurs n’ont pas influencé l’efficacité des processus de contrôle de mouvements réalisés en contexte virtuel, suggérant qu’il est difficile d’optimiser le contrôle des mouvements d’atteinte manuelle lorsque ceux-ci sont réalisés dans un contexte virtuel. L’un des résultats les plus surprenants de cette étude est que nous n’avons pas rapporté d’effet concernant l’orientation de l’écran sur la performance des participants, ce qui était en contradiction avec la littérature existante sur ce sujet. L’article 2 avait pour but de pousser plus en avant notre compréhension du contrôle du mouvement réalisé en contexte virtuel et naturel. Dans le deuxième article, nous avons mis en évidence les effets néfastes d’un contexte virtuel sur le contrôle en ligne des mouvements d’atteinte manuelle. Plus précisément, nous avons observé que l’utilisation d’un montage non-aligné (écran vertical/mouvement sur un plan horizontal) pour présenter l’information visuelle résultait en une importante diminution de la performance comparativement à un montage virtuel aligné et un montage naturel. Nous avons aussi observé une diminution de la performance lorsque les mouvements étaient réalisés dans un contexte virtuel aligné comparativement à un contexte naturel. La diminution de la performance notée dans les deux conditions virtuelles s’expliquait largement par une réduction de l’efficacité des processus de contrôle en ligne. Nous avons donc suggéré que l’utilisation d’une représentation virtuelle de la main introduisait de l’incertitude relative à sa position dans l’espace. Dans l’article 3, nous avons donc voulu déterminer l’origine de cette incertitude. Dans ce troisième article, deux hypothèses étaient à l’étude. La première suggérait que l’augmentation de l’incertitude rapportée dans le contexte virtuel de la précédente étude était due à une perte d’information visuelle relative à la configuration du bras. La seconde suggérait plutôt que l’incertitude provenait de l’information visuelle et proprioceptive qui n’est pas parfaitement congruente dans un contexte virtuel comparativement à un contexte naturel (le curseur n’est pas directement aligné avec le bout du doigt, par exemple). Les données n’ont pas supporté notre première hypothèse. Plutôt, il semble que l’incertitude soit causée par la dissociation de l’information visuelle et proprioceptive. Nous avons aussi démontré que l’information relative à la position de la main disponible sur la base de départ influence largement les processus de contrôle en ligne, même lorsque la vision de l’effecteur est disponible durant le mouvement. Ce résultat suggère que des boucles de feedback interne utilisent cette information afin de moduler le mouvement en cours d’exécution.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

À tout âge, l’exercice physique peut être bénéfique au fonctionnement cognitif. Étant quotidiennement confrontés à des situations d’apprentissage, l’enfant et l’adolescent constituent une population particulièrement susceptible de profiter de ces bienfaits. Cependant, il importe de préciser et d’étudier les facteurs qui influencent la relation entre l’exercice physique et la cognition. L’objectif général de cette thèse était d’examiner, à l’aide de mesures électrophysiologiques, les effets aigus et chroniques de l’exercice physique sur les mécanismes neurophysiologiques du fonctionnement cognitif de l’enfant. Une première étude a apprécié la durée des effets aigus de l’exercice physique. Les résultats de ces travaux suggèrent qu’une séance ponctuelle d’exercice physique augmente la vigilance pendant au moins 30 min. Toujours dans un contexte d’effets aigus de l’exercice, l’impact de la demande cognitive de la tâche et de l’âge ont été examinés dans une seconde étude. Les résultats ne révèlent aucune interaction avec l’âge, cependant ils indiquent une spécificité pour les processus plus complexes du traitement de l’information. Enfin, une troisième étude a évalué l’effet de l’exercice physique chronique dans le cadre d’un programme d’activités physiques de 12 semaines. Aucun changement n’a été observé quant à l’aptitude cardiovasculaire ou la performance cognitive suite au programme. Une condition physique initialement élevée des participants pourrait expliquer ce résultat. En résumé, peu importe la condition physique de l’enfant, un exercice physique aigu d’intensité moyenne est bénéfique à la vigilance et à certains aspects du traitement cognitif de l’information. Les effets observés semblent suffisamment durables pour avoir un impact positif sur l’apprentissage en classe après une récréation ou un cours d’éducation physique.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette dissertation propose un nouveau récit des expériences de William Faulkner à Hollywood afin de réévaluer la deuxième moitié de son œuvre de fiction. Dans ses premiers projets de scénarios de films, Faulkner a choisi d’adapter des œuvres de fiction qu’il avait publiées antérieurement. À la lumière de l’utilisation du genre —autant des films que des personnes— par les studios d’Hollywood pour organiser la production et le marketing des films, la fiction de Faulkner apparut soudainement comme perverse et ses représentations de la masculinité comme homoérotiques. Dans les premiers jets de Turn About et de War Birds, Faulkner s’approprie les normes du genre hollywoodien pour nier ces connotations sexuelles. Ses révisions ultérieures révèlent un recul systématique par rapport à la perversité d’Hollywood et au genre du woman’s film, au profit de la performance de la masculinité propre aux war pictures. Ses révisions réimaginent également des matériaux qui sont au cœur de son œuvre de fiction. Quand il se remet à écrire de la fiction, Faulkner répète cette approche narrative dans des nouvelles telles que “Golden Land” et “An Odor of Verbena,” deux récits qui rompent avec les pratiques et le style de ses premières fictions majeures. Les conséquences découlant de cette influence hollywoodienne—une volonté d’éradiquer toute connotation sexuelle, l’adoption authentique plutôt qu’ironique du mélodrame générique, et une rhétorique morale explicitement construite comme une négation d’Hollywood—se manifestent plus tard dans des textes aussi divers que The Reivers, Compson Appendix, ou son discours de réception du Prix Nobel. Vues sous cet angle, les dernières fictions de Faulkner deviennent une composante essentielle de son œuvre, fournissant une base nouvelle pour réexaminer la place des genres narratifs populaires, du genre et de la sexualité dans son cycle de Yoknapatawpha.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La présente thèse de doctorat porte sur les processus internes au sein des équipes de travail pluriculturelles. Cette thèse se compose de trois articles et propose, d’une part, une mesure validée des valeurs culturelles au niveau individuel en langue française et, d’autre part, une mesure du degré d’homogénéité culturelle au sein des équipes de travail (ci-après ÉT). En outre, elle se penche sur la vérification empirique des nombreux liens entre l’homogénéité culturelle et les processus internes au sein des ÉT postulés par les auteurs mais jamais vérifiés empiriquement. Le premier article a pour but de faire le point sur la documentation scientifique concernant les équipes de travail pluriculturelles. Il présente une recension de la documentation portant sur ce type d’équipe, notamment l’impact présumé de la culture sur les comportements d’équipier, et les effets de la diversité culturelle sur la performance de l’équipe et sur ses processus internes. Le deuxième article, quant à lui, a pour objectif de valider la mesure des dimensions culturelles de Hofstede (1980, 1991, 1994) sur une base individuelle et en langue française. Cette étude a été réalisée en adaptant deux questionnaires, l’un développé par Hellmann (2000) et mesurant les dimensions culturelles de distance hiérarchique, de masculinité, de contrôle de l’incertitude et de collectivisme, et le second développé par Bearden, Money et Nevins (2006) et mesurant la dimension d’orientation à long terme. L’échantillon se compose de 453 répondants tous étudiants dans des programmes de baccalauréat à l’Université de Montréal et à l’Université du Québec à Montréal. Les résultats des deux analyses factorielles exploratoires effectuées ont fait ressortir sept facteurs distincts expliquant 41.6% de la variance pour le premier questionnaire et 61.6% de la variance pour le second. La composition de l’échantillon n’a pas permis de conduire d’analyse de variance afin de vérifier s’il se trouvait des différences significatives entre les différents groupes culturels de l’échantillon à l’étude, et ce, pour chacune des dimensions culturelles. Les limites de la recherche ainsi que des suggestions de recherches futures sont proposées. Enfin, le troisième article se penche sur les liens, postulés par de nombreux auteurs mais jamais confirmés empiriquement, entre l’homogénéité culturelle dans les équipes et les processus internes de l’équipe en termes de comportements productifs et de comportements contre-productifs. Afin d’étudier cette réalité, l’instrumentation de Hofstede (1980, 1991), conçue pour capter des différences au niveau des nations, a été opérationnalisée au niveau des individus (Temimi, Savoie et Duguay, 2008) et mis en relation avec les processus internes se déroulant au sein de l’équipe (Duguay, Temimi et Savoie, 2008; Rousseau, 2003; Temimi et Savoie, 2007). Cette étude a été réalisée auprès de 67 équipes variant en termes d’homogénéité culturelle. Les résultats indiquent que le degré d’homogénéité culturelle global s’avère positivement relié aux comportements productifs de l’équipe et négativement relié aux comportements contre-productifs. De plus, le degré d’homogénéité de la dimension culturelle de féminité ressort négativement relié aux comportements contre-productifs de flânerie sociale et de domination.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Analyser le code permet de vérifier ses fonctionnalités, détecter des bogues ou améliorer sa performance. L’analyse du code peut être statique ou dynamique. Des approches combinants les deux analyses sont plus appropriées pour les applications de taille industrielle où l’utilisation individuelle de chaque approche ne peut fournir les résultats souhaités. Les approches combinées appliquent l’analyse dynamique pour déterminer les portions à problèmes dans le code et effectuent par la suite une analyse statique concentrée sur les parties identifiées. Toutefois les outils d’analyse dynamique existants génèrent des données imprécises ou incomplètes, ou aboutissent en un ralentissement inacceptable du temps d’exécution. Lors de ce travail, nous nous intéressons à la génération de graphes d’appels dynamiques complets ainsi que d’autres informations nécessaires à la détection des portions à problèmes dans le code. Pour ceci, nous faisons usage de la technique d’instrumentation dynamique du bytecode Java pour extraire l’information sur les sites d’appels, les sites de création d’objets et construire le graphe d’appel dynamique du programme. Nous démontrons qu’il est possible de profiler dynamiquement une exécution complète d’une application à temps d’exécution non triviale, et d’extraire la totalité de l’information à un coup raisonnable. Des mesures de performance de notre profileur sur trois séries de benchmarks à charges de travail diverses nous ont permis de constater que la moyenne du coût de profilage se situe entre 2.01 et 6.42. Notre outil de génération de graphes dynamiques complets, nommé dyko, constitue également une plateforme extensible pour l’ajout de nouvelles approches d’instrumentation. Nous avons testé une nouvelle technique d’instrumentation des sites de création d’objets qui consiste à adapter les modifications apportées par l’instrumentation au bytecode de chaque méthode. Nous avons aussi testé l’impact de la résolution des sites d’appels sur la performance générale du profileur.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Cette thèse présente une exploration de l’impact que des enseignants peuvent exercer sur le développement de l’intérêt d’étudiants envers leur discipline d’enseignement. Le problème visé par l’étude était le faible niveau de maîtrise de l’orthographe des collégiens du cours de mise à niveau en français et le taux d’échec important à ce cours. Spécifiquement, l’objectif de l’étude était d’évaluer un dispositif pédagogique d’interdisciplinarité ayant pour but de stimuler le développement de l’intérêt de collégiens envers leur cours de mise à niveau en français (MNF). Le dispositif a consisté en un pairage entre un cours moins apprécié des collégiens (le cours de MNF) et un cours très populaire (un cours de psychologie de la sexualité). Ces deux cours ont donc été planifiés en construisant entre eux le plus possible de liens facilement perceptibles par les étudiants. Les écrits théoriques permettaient de croire qu’un intérêt envers le cours de MNF pourrait émerger si l’on menait, dans le cours de français, des activités d’apprentissage utilisant les notions étudiées dans le cours de psychologie. De plus, la théorie du développement de l’intérêt d’Hidi et Renninger (2006) laissait anticiper un approfondissement de cet intérêt envers la matière en général (le français) et non seulement envers le cours. Par ailleurs, la littérature du champ de la motivation scolaire permettait de s’attendre à ce que cet intérêt soit lié à une plus grande perception de l’utilité du cours de MNF de la part des étudiants, ainsi qu’à un meilleur engagement et un meilleur rendement. Pour vérifier ces hypothèses, un devis quasi-expérimental avec condition témoin et suivi longitudinal a été adopté. Le groupe expérimental (GE) était composé de 27 collégiens inscrits aux deux cours : le cours de MNF et le cours de psychologie de la sexualité. Le groupe témoin (GT) était composé de 79 collégiens inscrits au cours de MNF sans être exposés à une condition d’interdisciplinarité. L’intérêt, l’utilité, l’engagement cognitif et l’engagement comportemental ont été mesurées à l’aide d’échelles de type Likert. De plus, la prise des présences en classe par les enseignants a été utilisée comme mesure supplémentaire de l’engagement comportemental. Le rendement, représenté par la performance en orthographe, a été évalué par l’administration d’une dictée avant puis après l’intervention. Les résultats d’une analyse de multivariance (MANOVA) ont révélé un intérêt envers le cours de MNF significativement plus grand après l’intervention pour le GE, comparativement au GT, tout comme une plus grande perception de l’utilité du cours et un meilleur engagement comportemental. Concernant le rendement en orthographe, le nombre d’erreurs d’orthographe grammaticale a diminué davantage entre les deux temps de mesure pour le GE comparativement au GT. Cette différence est significative. Ces résultats suggèrent de valoriser l’interdisciplinarité dans l’enseignement au collégial.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’amélioration de la qualité de l’utilisation des médicaments dans les soins primaires est devenue un enjeu crucial. Les pharmaciens communautaires se présentent comme des acteurs centraux dans l’atteinte de cet objectif, en réclamant une extension de leur rôle. L’objectif principal de cette thèse est de mieux comprendre comment les technologies de prescription informatisée (eRx) influencent la transformation du rôle des pharmaciens communautaires. Le premier article présente les résultats d’une étude de cas qui aborde la transformation du rôle des pharmaciens communautaires à partir du concept de professionnalisation. Elle propose un modèle logique des influences d’une technologie de eRx sur cette professionnalisation, élaboré à partir de la typologie de Davenport. Ce modèle logique a été validé en interviewant douze pharmaciens communautaires participant à un projet pilote typique de technologie de eRx. A partir des perceptions des pharmaciens communautaires, nous avons établi que la technologie était susceptible de soutenir la professionnalisation des pharmaciens en passant par cinq mécanismes : la capacité analytique, l’élimination des intermédiaires, l’intégration, l’automatisation et la diffusion des connaissances. Le deuxième article analyse les perturbations induites par les différentes fonctions des technologies de eRx sur la stabilité de la juridiction des pharmaciens communautaires, en se basant sur un cadre de référence adapté d’Abbott. À partir de trente-trois entrevues, avec des praticiens (médecins et pharmaciens) et des élites, cette étude de cas a permis de décrire en détail les influences des différentes fonctions sur les modalités d’action des professionnels, ainsi que les enjeux soulevés par ces possibilités. La perturbation principale est liée aux changements dans la distribution des informations, ce qui influence les activités de diagnostic et d’inférence des professionnels. La technologie peut redistribuer les informations relatives à la gestion des médicaments autant au bénéfice des médecins qu’au bénéfice des pharmaciens, ce qui suscite des tensions entre les médecins et les pharmaciens, mais aussi parmi les pharmaciens. Le troisième article présente une revue systématique visant à faire une synthèse des études ayant évalué les effets des technologies de eRx de deuxième génération sur la gestion des médicaments dans les soins primaires. Cette revue regroupe dix-neuf études menées avec des méthodes observationnelles. Les résultats rapportés révèlent que les technologies sont très hétérogènes, le plus souvent immatures, et que les effets ont été peu étudiés au-dedes perceptions des utilisateurs, qui sont mitigées. Le seul effet positif démontré est une amélioration de la qualité du profil pharmacologique accessible aux professionnels, alors que des effets négatifs ont été démontrés au niveau de l’exécution des prescriptions, tels que l’augmentation du nombre d’appels de clarification du pharmacien au prescripteur. Il semble donc que l’on en connaisse peu sur les effets des technologies de eRx de deuxième génération. Ces trois études permettent de constater que les nouvelles technologies de eRx peuvent effectivement influencer la transformation du rôle du pharmacien communautaire en perturbant les caractéristiques des prescriptions, et surtout, l’information et sa distribution. Ces perturbations génèrent des possibilités pour une extension du rôle des pharmaciens communautaires, tout en soulignant les défis intra et interprofessionnels associés à l’actualisation de ces possibilités. Dans l’ensemble, nos résultats soulignent que les perturbations associées aux technologies de eRx dépassent les éléments techniques du travail des utilisateurs, pour englober de multiples perturbations quant à la nature même du travail et du rôle des professionnels. Les décideurs et acteurs impliqués dans le déploiement des technologies de eRx auraient avantage à prendre en compte l’ensemble de ces considérations pour rapprocher les effets observés des bénéfices promis de ces technologies.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les améliorations dans les protocoles de traitement pour la majorité des cancers pédiatriques ont augmenté de façon marquée les taux de survie. Cependant, des risques élevés de multiples problèmes de santé chez les survivants sont bien documentés. En ce qui concerne spécifiquement les problèmes neuropsychologiques, les principaux facteurs de risque individuels connus à ce jour (l’âge au diagnostic, le genre du patient, l’exposition aux radiations) demeurent insuffisants pour cibler efficacement et prévenir les séquelles à long terme. Les objectifs généraux de cette thèse étaient : 1) la caractérisation des trajectoires individuelles de problèmes de comportement chez une population de patients pédiatriques atteints de leucémie lymphoblastique aiguë; 2) l’identification des principaux déterminants génétiques, médicaux et psychosociaux associés aux problèmes de comportements. Les hypothèses étaient : 1) Il existe une association entre les trajectoires individuelles de problèmes de comportement et a - des facteurs psychosociaux liés au fonctionnement familial, b - des polymorphismes dans les gènes modérateurs des effets thérapeutiques du méthotrexate et des glucocorticoïdes, c - des variables liées aux traitements oncologiques. 2) L'utilisation de modèles statistiques multi-niveaux peut permettre d’effectuer cette caractérisation des trajectoires individuelles et l’identification des facteurs de risque associés. 138 patients pédiatriques (0-18 ans) ayant reçu un diagnostic de leucémie lymphoblastique aiguë entre 1993 et 1999 au CHU Ste-Justine ont participé à une étude longitudinale d’une durée de 4 ans. Un instrument validé et standardisés, le Child Behavior Checklist, a été utilisé pour obtenir un indice de problèmes de comportement, tel que rapporté par la mère, au moment du diagnostic, puis 1, 2, 3 et 4 ans post-diagnostic. Des données génétiques, psychosociales et médicales ont aussi été collectées au cours de cette même étude longitudinale, puis ont été exploitées dans les modélisations statistiques effectuées. Les résultats obtenus suggèrent que les problèmes de comportement de type internalisés et externalisés possèdent des trajectoires et des facteurs de risque distincts. Les problèmes internalisés sont des manifestations de troubles affectifs chez le patient, tels que des symptômes dépressifs ou anxieux, par exemple. Ceux-ci sont très prévalents tôt après le diagnostic et se normalisent par la suite, indiquant des difficultés significatives, mais temporaires. Des facteurs médicaux exacerbant l'expérience de stress, soit le risque de rechute associé au diagnostic et les complications médicales affectant la durée de l'hospitalisation, ralentissent cette normalisation. Les problèmes externalisés se manifestent dans le contact avec autrui; des démonstrations d’agression ou de violence font partie des symptômes. Les problèmes externalisés sont plus stables dans le temps relativement aux problèmes internalisés. Des variables pharmacologiques et génétiques contribuent aux différences individuelles : l'administration d’un glucocorticoïde plus puissant du point de vue des effets pharmacologiques et toxicologiques, ainsi que l’homozygotie pour l’haplotype -786C844T du gène NOS3 sont liés à la modulation des scores de problèmes externalisés au fil du temps. Finalement, le niveau de stress familial perçu au diagnostic est positivement corrélé avec le niveau initial de problèmes externalisés chez le patient, tandis que peu après la fin de la période d’induction, le niveau de stress familial est en lien avec le niveau initial de problèmes internalisés. Ces résultats supportent l'idée qu'une approche holistique est essentielle pour espérer mettre en place des interventions préventives efficaces dans cette population. À long terme, ces connaissances pourraient contribuer significativement à l'amélioration de la qualité de vie des patients. Ces travaux enrichissent les connaissances actuelles en soulignant les bénéfices des suivis longitudinaux et multidisciplinaires pour comprendre la dynamique de changement opérant chez les patients. Le décloisonnement des savoirs semble devenir incontournable pour aspirer dépasser le cadre descriptif et atteindre un certain niveau de compréhension des phénomènes observés. Malgré des défis méthodologiques et logistiques évidents, ce type d’approche est non seulement souhaitable pour étudier des processus dynamiques, mais les travaux présentés dans cette thèse indiquent que cela est possible avec les moyens analytiques actuels.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La collaboration constitue une stratégie efficace pour aider les organisations et les individus à évoluer dans des environnements dynamiques et complexes, et génère de nombreux avantages cognitifs, affectifs et pécuniaires. De plus en plus, les équipes de travail sont impliquées dans des collaborations complexes, lesquelles requièrent de transiger à travers les frontières nationales, organisationnelles et disciplinaires. Bien que les collaborations complexes soient de plus en plus courantes en milieux organisationnels et étudiées par les scientifiques, peu d’études empiriques ont été réalisées sur le sujet et la documentation inhérente est disséminée dans divers silos parallèles de connaissances, donnant lieu à des modèles conceptuels divergents et incomplets. L’importance croissante de ces formes de collaboration crée l’impératif scientifique et pratique d’en acquérir une meilleure compréhension ainsi que d’identifier et d’évaluer les conditions et les facteurs qui favorisent leur succès et leur efficacité. Cette thèse vise à combler les lacunes susmentionnées et permettre un avancement des connaissances sur le sujet par l’entremise de deux articles répondant à divers objectifs de recherche. Le premier article avance une définition claire des collaborations complexes, en vue de réduire la confusion entourant ce construit. Il présente également la première revue de documentation sur les facteurs favorisant le succès des collaborations complexes, unifiant les résultats issus de divers contextes et disciplines scientifiques. Cette démarche a permis d’identifier 14 variables clés provenant de 26 études empiriques. À partir de ces données, un modèle conceptuel fondé sur des assises théoriques solides et reconnues en psychologie du travail et des organisations est proposé, offrant ainsi un canevas systémique et dynamique du phénomène ainsi qu’une orientation détaillée des pistes de recherches pertinentes. Le deuxième article part des résultats obtenus dans le premier article afin d’évaluer empiriquement les relations entre certains facteurs clés ayant un impact sur des extrants importants de collaborations complexes. L’étude multiphasique est réalisée auprès de 16 équipes de projets (N=93) interdisciplinaires et interorganisationnelles prenant part à des sessions de travail intensives visant la production de concepts novateurs en design intégré lié au développement durable. Les analyses corrélationnelles montrent des liens positifs entre l’ouverture à la diversité, les processus collaboratifs, la viabilité, la performance d’équipe et la performance de projet, ainsi que des liens négatifs entre les conflits et ces mêmes extrants. De plus, les analyses de médiation multiple révèlent qu’une plus grande ouverture à la diversité influence positivement la viabilité, la performance d’équipe et la performance de projet en favorisant les processus collaboratifs efficaces et en réduisant les conflits. Les implications théoriques et pratiques découlant de ces résultats sont discutées.