992 resultados para Choix éclairé
Resumo:
Peu d’études ont exploré l’utilisation du traitement prolongé pour les mammites cliniques et aucune ne portait sur l’utilisation du traitement prolongé à base de ceftiofur pour le traitement des mammites cliniques légères à modérées. L’objectif de cette étude était d’évaluer l’efficacité du traitement intra-mammaire prolongé à base de ceftiofur pour les mammites cliniques légères à modérées, en considérant toutes les bactéries responsables ou seulement Staphylococcus aureus (S. aureus) et les streptocoques. Des vaches laitières (n = 241) de 22 élevages du Québec et de l’Ontario ont été inclues. L’étude a été conçue comme un essai clinique à allocation aléatoire. Pour chaque cas de mammite clinique légère à modérée, 125 mg d’hydrochloride de ceftiofur (Spectramast® LC) a été administré par voie intra-mammaire une fois par jour pour 2 ou 8 jours. Le pourcentage de guérison clinique 21 jours après la fin du traitement était de 89% (n = 98/110 pour chaque groupe, p = 0,95). Les pourcentages de guérison bactériologique 21 jours après la fin du traitement pour les groupes 2 jours et 8 jours étaient 32% (n = 15/47) et 61% (n = 25/41) respectivement pour toutes les bactéries (p < 0,01); 64% (n = 9/14) et 82% (n = 9/11) respectivement pour les streptocoques (p = 0,50); et 0% (n = 0/20) et 47% (n = 9/19) pour S. aureus (p < 0,01). Il n'y avait pas de différence entre les 2 groupes pour les nouvelles infections intra-mammaires (p = 0,30). Le traitement prolongé à base de ceftiofur est un choix raisonnable pour le traitement des mammites cliniques légères à modérées, en particulier causées par S. aureus.
Resumo:
Les cartes sur ce document ont été toutes conçues par l'auteur avec la logiciel ARCGIS version 9.3.
Resumo:
L’histoire des femmes et l’histoire du genre se sont développées conjointement depuis plus d’une trentaine d’années. Pourtant, elles ne sont pas encore pleinement reconnues par les institutions universitaires, et encore moins par les institutions collégiales, les progrès historiographiques dans ces domaines étant exclus du cursus enseigné. Du moins, c’est ce que nous avons observé au niveau collégial au Québec, à la suite d’une évaluation de la trame narrative des manuels francophones et anglophones utilisés pour le cours Histoire de la civilisation occidentale. En effet, grâce à une analyse des chapitres couvrant la période moderne, soit de 1500 à 1800 environ, des manuels les plus utilisés pour l’enseignement de ce cours, nous avons pu établir que l’histoire des femmes et l’histoire du genre ne sont pas intégrées et qu’une différence existe entre la trame du manuel francophone et celle du manuel anglophone. Nous avons constaté que le seul cours d’histoire obligatoire au niveau collégial, qui tend à former des citoyens et des citoyennes éclairé(e)s ainsi qu’à transmettre une culture générale de base, exclut la moitié de la population de leurs enseignements. Aussi ce mémoire propose-t-il trois façons de remédier à cette situation.
Resumo:
En écologie, dans le cadre par exemple d’études des services fournis par les écosystèmes, les modélisations descriptive, explicative et prédictive ont toutes trois leur place distincte. Certaines situations bien précises requièrent soit l’un soit l’autre de ces types de modélisation ; le bon choix s’impose afin de pouvoir faire du modèle un usage conforme aux objectifs de l’étude. Dans le cadre de ce travail, nous explorons dans un premier temps le pouvoir explicatif de l’arbre de régression multivariable (ARM). Cette méthode de modélisation est basée sur un algorithme récursif de bipartition et une méthode de rééchantillonage permettant l’élagage du modèle final, qui est un arbre, afin d’obtenir le modèle produisant les meilleures prédictions. Cette analyse asymétrique à deux tableaux permet l’obtention de groupes homogènes d’objets du tableau réponse, les divisions entre les groupes correspondant à des points de coupure des variables du tableau explicatif marquant les changements les plus abrupts de la réponse. Nous démontrons qu’afin de calculer le pouvoir explicatif de l’ARM, on doit définir un coefficient de détermination ajusté dans lequel les degrés de liberté du modèle sont estimés à l’aide d’un algorithme. Cette estimation du coefficient de détermination de la population est pratiquement non biaisée. Puisque l’ARM sous-tend des prémisses de discontinuité alors que l’analyse canonique de redondance (ACR) modélise des gradients linéaires continus, la comparaison de leur pouvoir explicatif respectif permet entre autres de distinguer quel type de patron la réponse suit en fonction des variables explicatives. La comparaison du pouvoir explicatif entre l’ACR et l’ARM a été motivée par l’utilisation extensive de l’ACR afin d’étudier la diversité bêta. Toujours dans une optique explicative, nous définissons une nouvelle procédure appelée l’arbre de régression multivariable en cascade (ARMC) qui permet de construire un modèle tout en imposant un ordre hiérarchique aux hypothèses à l’étude. Cette nouvelle procédure permet d’entreprendre l’étude de l’effet hiérarchisé de deux jeux de variables explicatives, principal et subordonné, puis de calculer leur pouvoir explicatif. L’interprétation du modèle final se fait comme dans une MANOVA hiérarchique. On peut trouver dans les résultats de cette analyse des informations supplémentaires quant aux liens qui existent entre la réponse et les variables explicatives, par exemple des interactions entres les deux jeux explicatifs qui n’étaient pas mises en évidence par l’analyse ARM usuelle. D’autre part, on étudie le pouvoir prédictif des modèles linéaires généralisés en modélisant la biomasse de différentes espèces d’arbre tropicaux en fonction de certaines de leurs mesures allométriques. Plus particulièrement, nous examinons la capacité des structures d’erreur gaussienne et gamma à fournir les prédictions les plus précises. Nous montrons que pour une espèce en particulier, le pouvoir prédictif d’un modèle faisant usage de la structure d’erreur gamma est supérieur. Cette étude s’insère dans un cadre pratique et se veut un exemple pour les gestionnaires voulant estimer précisément la capture du carbone par des plantations d’arbres tropicaux. Nos conclusions pourraient faire partie intégrante d’un programme de réduction des émissions de carbone par les changements d’utilisation des terres.
Resumo:
Question : Cette thèse comporte deux articles portant sur l’étude d’expressions faciales émotionnelles. Le processus de développement d’une nouvelle banque de stimuli émotionnels fait l’objet du premier article, alors que le deuxième article utilise cette banque pour étudier l’effet de l’anxiété de trait sur la reconnaissance des expressions statiques. Méthodes : Un total de 1088 clips émotionnels (34 acteurs X 8 émotions X 4 exemplaire) ont été alignés spatialement et temporellement de sorte que les yeux et le nez de chaque acteur occupent le même endroit dans toutes les vidéos. Les vidéos sont toutes d’une durée de 500ms et contiennent l’Apex de l’expression. La banque d’expressions statiques fut créée à partir de la dernière image des clips. Les stimuli ont été soumis à un processus de validation rigoureux. Dans la deuxième étude, les expressions statiques sont utilisées conjointement avec la méthode Bubbles dans le but d’étudier la reconnaissance des émotions chez des participants anxieux. Résultats : Dans la première étude, les meilleurs stimuli ont été sélectionnés [2 (statique & dynamique) X 8 (expressions) X 10 (acteurs)] et forment la banque d’expressions STOIC. Dans la deuxième étude, il est démontré que les individus présentant de l'anxiété de trait utilisent préférentiellement les basses fréquences spatiales de la région buccale du visage et ont une meilleure reconnaissance des expressions de peur. Discussion : La banque d’expressions faciales STOIC comporte des caractéristiques uniques qui font qu’elle se démarque des autres. Elle peut être téléchargée gratuitement, elle contient des vidéos naturelles et tous les stimuli ont été alignés, ce qui fait d’elle un outil de choix pour la communauté scientifique et les cliniciens. Les stimuli statiques de STOIC furent utilisés pour franchir une première étape dans la recherche sur la perception des émotions chez des individus présentant de l’anxiété de trait. Nous croyons que l’utilisation des basses fréquences est à la base des meilleures performances de ces individus, et que l’utilisation de ce type d’information visuelle désambigüise les expressions de peur et de surprise. Nous pensons également que c’est la névrose (chevauchement entre l'anxiété et la dépression), et non l’anxiété même qui est associée à de meilleures performances en reconnaissance d’expressions faciales de la peur. L’utilisation d’instruments mesurant ce concept devrait être envisagée dans de futures études.
Resumo:
Objectif : L’objectif principal de cette thèse est d’examiner les déterminants de l’utilisation des services de soins pour des raisons de santé mentale dans le sud-ouest de Montréal. Données et méthodes : L’étude utilise les données de la première phase du projet portant sur « le développement d’une zone circonscrite d’études épidémiologiques en psychiatrie dans le sud-ouest de Montréal ». Les données ont été collectées entre mai 2007 et août 2008 auprès d’un échantillon de 2434 personnes sélectionnées au hasard dans tout le territoire de l’étude. De cet échantillon, nous avons sélectionné un sous-échantillon de personnes ayant eu au moins un diagnostic de santé mentale au cours de la dernière année. 423 personnes ont rencontrées ce critère et constituent l’échantillon pour les analyses de la présente thèse. Le modèle comportemental d’Andersen a servi de cadre pour le choix des variables à analyser. Parce que l’approche socio-spatiale a été privilégiée pour modéliser les déterminants de l’utilisation des services, les analyses ont été effectuées à l’aide de quatre logiciels distincts à savoir : SPSS, AMOS, ArcGIS et MlWin. Résultats : Les résultats montrent que 53,66% de notre échantillon ont utilisés au moins un service de santé pour des raisons de santé mentale. On constate néanmoins que les déterminants de l’utilisation des services en santé mentale sont à la fois complexes et spatialement inégalement réparties. En ce qui concerne les caractéristiques sociodémographiques et cliniques, les femmes et ceux qui perçoivent la stigmatisation envers les personnes ayant un problème de santé mentale utilisent plus les services. Le nombre de diagnostics de santé mentale est aussi associé à l’utilisation des services. L’augmentation du nombre de diagnostics entraîne une augmentation de l’utilisation des services (=0,38; p<0,001). D’autres variables comme l’âge, le statut matrimonial, la taille du ménage, le soutien social et la qualité de vie influencent indirectement l’utilisation des services. À titre illustratif toute augmentation de l’âge entraîne une augmentation du soutien social de (=0,69; p<0,001) qui à son tour fait diminuer la détresse psychiatrique (= -0,09 (p<0,05). Or, toute augmentation d’une unité de détresse psychiatrique entraîne une augmentation de l’utilisation des services (=0,58 (p<0,001). Sur le plan spatiale, il existe une corrélation positive entre l’utilisation des services et la défavorisation matérielle, la défavorisation sociale et le nombre d’immigrants récents sur un territoire. Par contre, la corrélation entre la prévalence de la santé mentale et l’utilisation des services est négative. Les analyses plus poussées indiquent que le contexte de résidence explique 12,26 % (p<0,05) de la variation totale de l’utilisation des services. De plus, lorsqu’on contrôle pour les caractéristiques individuelles, vivre dans un environnement stable augmente l’utilisation des services (O.R=1,24; p<0,05) tandis que les contextes défavorisés du point de vue socioéconomique ont un effet néfaste sur l’utilisation (O.R=0,71; p<0,05). Conclusion : Les résultats de l’étude suggèrent que si on veut optimiser l’utilisation des services en santé mentale, il est important d’agir prioritairement au niveau de la collectivité. Plus spécifiquement, il faudrait mener des campagnes de sensibilisation auprès de la population pour combattre la stigmatisation des personnes ayant un problème de santé mentale. Sur le plan de la planification des soins de santé, on devrait augmenter l’offre des services dans les territoires défavorisés pour en faciliter l’accès aux habitants.
Resumo:
Plusieurs études à grande échelle ont identifié la modification ou la perte d’habitats comme menace principale à la conservation des communautés de poissons d’eau douce. Au Canada, « aucune perte nette dans la capacité productive des habitats » (NNL) est le principe directeur de la politique de gestion des habitats du ministère des Pêches et Océans. Le respect du NNL implique l’avancement des connaissances au niveau des relations entre les poissons et leurs habitats, de même que des outils pour quantifier l’impact de la modification des habitats sur les poissons. Les modèles d’utilisation de l’habitat des poissons (FHUM) sont des outils qui permettent d’améliorer nos connaissances des relations poissons – habitat, de prédire la distribution des espèces, mais aussi leurs densités, biomasses ou abondances, sur la base des caractéristiques de l’environnement. L’objectif général de mon mémoire est d’améliorer la performance des FHUM pour les rivières des basses Laurentides, en suggérant des perfectionnements au niveau de 2 aspects cruciaux de l’élaboration de tels modèles : la description précise de la communauté de poissons et l’utilisation de modèles statistiques efficaces. Dans un premier chapitre, j’évalue la performance relative de la pêcheuse électrique et de l’échantillonnage en visuel (plongée de surface) pour estimer les abondances des combinaisons d’espèces et de classes de taille des poissons en rivière. J’évalue aussi l’effet des conditions environnementales sur les différences potentielles entre les communautés observées par ces 2 méthodes d’échantillonnage. Pour ce faire, 10 sections de rivière de 20 m de longueur ont été échantillonnées à l’aide de ces 2 méthodes alors qu’elles étaient fermées par des filets de blocage. 3 plongeurs performèrent l’échantillonnage en visuel en se déplaçant de l’aval vers l’amont des sections, tout en dénombrant les espèces et classes de taille. Par la suite, nous avons fait 3 passages de pêcheuse électrique et les abondances furent estimées grâce à un modèle restreint de maximum de vraisemblance, basé sur la diminution des abondances observées. De plus grandes abondances de poissons furent observées en visuel qu’avec la pêcheuse électrique à tous les sites. La richesse spécifique observée en visuel était plus élevée (6/10) ou égale (4/10) à celle observée avec la pêcheuse électrique. Les différences entre les communautés de poissons observées à l’aide de ces 2 méthodes ne purent être reliées aux conditions environnementales. Les résultats de cette expérience sont contraires à ceux de toutes les études comparant ces 2 méthodes d’échantillonnage, lesquels suggèrent une supériorité de la pêcheuse électrique. Les conditions environnementales de notre expérience étaient distinctes de celles observées dans les autres études (absence d’arbres tombés dans l’eau, très peu de substrats grossiers), mais la différence la plus marquante était en terme de communauté de poissons observée (dominance des cyprinidés et des centrarchidés plutôt que des salmonidés). Je termine ce chapitre en suggérant que les caractéristiques comportementales favorisant l’évitement de la capture (formation de bancs) et facilitant l’observation en visuel (curiosité) sont responsables de la supériorité de la plongée de surface pour échantillonner les communautés dans les rivières des basses Laurentides. Dans un deuxième chapitre, je développe des FHUM pour des communautés de poissons de rivière ayant plusieurs espèces. Dans le but de simplifier la modélisation de telles communautés et d’améliorer notre compréhension des relations poissons – habitat, j’utilise les concepts de guilde écologique et de filtre environnemental pour explorer les relations entre les guildes formées sur la bases de différents types de traits (reproducteurs, taxonomiques, éco-morphologiques et alimentaires) et les conditions environnementales locales à l’échelle du méso-habitat. Les modèles d’habitats basés sur les guildes reproductrices ont clairement surpassé les autres modèles, parce que l’habitat de fraie reflète l’habitat de préférence en dehors de la période de reproduction. J’ai également utilisé l’approche inverse, c’est à dire définir des guildes d’utilisation de l’habitat et les mettre en relation avec les traits des espèces. Les traits reliés à l’alimentation des poissons ont semblés être les meilleurs pour expliquer l’appartenance aux groupes d’utilisation de l’habitat, mais le modèle utilisé ne représentait pas bien la relation entre les groupes. La validation de notre modèle basé sur les guildes reproductrices avec un jeu de données indépendant pourrait confirmer notre découverte, laquelle représente une manière prometteuse de modéliser les relations poissons – environnement dans des communautés de poissons complexes. En conclusion, mon mémoire suggère d’importantes améliorations aux FHUM pour les communautés de poissons des basses Laurentides, en suggérant de prendre en compte les caractéristiques biologiques des cours d’eau dans le choix d’une méthode d’échantillonnage, et également en utilisant une méthode prometteuse pour simplifier les FHUM de communautés de poissons complexes : les guildes reproductrices.
Resumo:
Objectif. Étudier les comportements alimentaires des enfants utilisateurs de boîte à lunch tels que décrits par les mères, en s’inspirant des descripteurs de comportements alimentaires de Jean-Pierre Poulain. Méthodes. Des entrevues individuelles et de groupes eurent lieu avec 18 mères. Une analyse de données qualitatives a été réalisée en utilisant les dimensions de Poulain comme cadre de référence. Une considération additionnelle fut intégrée dans l’analyse, celle de la dimension matérielle de la boîte à lunch. Résultats. Dimension spatiale : Les repas ont lieu dans des classes ou dans de grandes salles communes. Dimension temporelle : Le moment et la durée de la consommation du repas varient selon différents facteurs. Le moment de préparation de la boîte est aussi d’intérêt. Environnement social : Les pairs et les médias ont une grande influence dans les comportements liés à la boîte à lunch. Logique de choix : La mère est le principal décideur et acteur à l’égard du contenu. Structure de la prise : Les mères précisent des contenus associés aux repas de la veille ou des mets froids. Des desserts et des à-côtés accompagnent le repas principal. L’étude de la dimension matérielle de la boîte révèle que la facilité d’entretien est le principal critère de choix des boîtes alors que l’apparence visuelle est celui de l’enfant. L’écologie devient de plus en plus une priorité. Conclusion. Cette nouvelle approche pour l’étude des comportements alimentaires du jeune utilisateur de boîte à lunch fournit aux intervenants une autre perspective selon laquelle étudier cette activité quotidienne et/ou élaborer des projets promotionnels en santé publique.
Resumo:
Les projets interdisciplinaires constituent rarement le terrain des études sur le processus de conception en design. Les théories générales du design, en tentant de définir ce qui est commun à toutes les disciplines du design, ont davantage étudié les cas typiques que les cas atypiques. Or, nous croyons qu’il existe dans les projets interdisciplinaires une négociation argumentative et une ouverture vers l’autre, propice à l’analyse du processus de conception en design. Pour réaliser l’étude de ce processus, la stratégie empruntée a été la «recherche-projet» qui propose une participation active sur le terrain. À l’intérieur de cette stratégie méthodologique, nous avons réalisé l’étude de cas d’un projet hybride, une signalétique identitaire destinée à marquer les écocentres montréalais et orienter leurs usagers. Comme plusieurs autres pratiques du design, la complexité des projets interdisciplinaires demande l’apport de plusieurs acteurs dans le processus. Ces personnes conçoivent le projet à travers des représentations visuelles et des échanges verbaux, nous avons choisi de faire porter notre étude principalement sur le second. Pour ce faire, nous avons choisi comme cadre théorique le Traité de l’argumentation de Chaïm Perelman et Lucie Olbrechts-Tyteca en nous intéressant plus spécifiquement aux concepts d’«accord» et d’«auditoire». Parce que le véhicule de l’action en design est la notion de «projet», l’Anthropologie du projet de Jean-Pierre Boutinet sera notre guide à travers cette conduite. L’objet de recherche de ce mémoire sera donc le processus de conception en design qui sera étudié à travers le regard de l’argumentation. L’argumentation s'est révélée la clé du problème que posent les jugements de valeur, commune à toutes les disciplines du design. Qu’est-ce qu’un «bon» projet réalisé? Est-il possible de répondre à cette question, sans tomber dans un cadre argumentatif, sans devoir révéler les arguments qui nous permettent de croire vraisemblable une telle proposition? C’est en mettant en lien la théorie du projet en design et la théorie de l’argumentation que nous avons éclairé la pratique du designer, sa relation à ses collègues et ultimement avec lui-même. L’argumentation s’est avérée un outil permettant la construction de la réalité dans le projet interdisciplinaire.
Resumo:
Cette thèse s'articule autour de trois essais portant sur des questions internationales en économie des ressources naturelles. Le premier essai examine la production et l'échange des ressources non-renouvelables dans un modèle spatial et souligne le rôle de la superficie des pays et du coût des transports dans la détermination du sens de l'échange. Le deuxième essai considère le tarif d'extraction de la rente de rareté liée aux ressources naturelles non-renouvelables avec le modèle spatial développé dans premier essai. Le cadre spatial (plus général) permet de représenter des pays qui sont à la fois importateurs et producteurs de la ressource, ce qui n'est pas possible dans les modèles traditionnels de commerce international où les pays sont traités comme des points (sans dimension). Le troisième essai aborde la question des droits de propriétés sur les zones maritimes et examine l'allocation d'une population de pêcheurs entre les activités productives et non-productives dans une communauté côtière. Le premier chapitre propose un modèle spatial de commerce international des ressources non-renouvelables. Le cadre spatial considère explicitement la différence de taille géographique (superficie) entre les pays et permet ainsi de tenir compte du fait que les gisements naturels et leurs utilisateurs soient dispersés dans l'espace, même à l'intérieur d'un pays. En utilisant un modèle spatial à la Hotelling, nous examinons l'évolution dans le temps du sens de l'échange entre deux pays (ou régions) qui diffèrent du point de vue de leur technologie de production, de leur superficie et de leur dotation en gisement d'une ressource naturelle non-renouvelable. Le chapitre met en évidence le rôle de la taille géographique dans la détermination du sens de l'échange, à côté des explications traditionnelles que sont l'avantage comparatif et les dotations des facteurs. Notre analyse est fondamentalement différente des autres contributions dans la littérature sur le commerce international des ressources naturelles parce qu'elle souligne l'importance de la taille géographique et du coût de transport par rapport à d'autres facteurs dans la détermination des flux de ressource à l'équilibre. Le coût unitaire de transport joue un rôle capital pour déterminer si la différence de superficie entre les pays influence le sens de l'échange à l'équilibre plus que les autres facteurs. Le chapitre discute aussi du caractère régional des échanges qui a été observé pour certaines ressources telles que le minerai de fer et la bauxite. Le chapitre deux aborde la question de la répartition de la rente de rareté liée aux ressources naturelles non-renouvelables entre les pays producteurs et les pays consommateurs. Cette question a été abordée dans la littérature sous une hypothèse quelque peu restrictive. En effet, dans la plupart des travaux portant sur ce sujet le pays importateur est automatiquement considéré comme dépourvu de gisement et donc non producteur de la ressource. Pourtant la réalité est qu'il existe des ressources pour lesquelles un pays est à la fois producteur et importateur. Le cadre d'analyse de ce second essai est le modèle spatial développé dans le premier essai, qui permet justement qu'un pays puisse être à la fois importateur et producteur de la ressource. Le pays importateur détermine alors simultanément le tarif optimal et le taux d'extraction de son propre stock. Nous montrons que le tarif optimal croît au taux d'intérêt et de ce fait, ne crée aucune distorsion sur le sentier d'extraction de la ressource. Le tarif optimal permet de récupérer toute la rente lorsque le pays exportateur ne consomme pas la ressource. Néanmoins, la possibilité pour le pays exportateur de consommer une partie de son stock limite la capacité du pays importateur à récupérer la rente chez le pays exportateur. La présence de gisements de la ressource dans le pays importateur réduit la rente du pays exportateur et de ce fait renforce la capacité du pays importateur à récupérer la rente chez le pays exportateur. Le tarif initial est une fonction décroissante du stock de ressource dans le pays importateur. Cet essai aborde également la question de la cohérence dynamique du tarif obtenu avec la stratégie en boucle ouverte. Le troisième chapitre examine un problème d'allocation de l'effort entre les activités productives (par exemple la pêche) et les activités non productives (par exemple la piraterie maritime) dans une population de pêcheurs. La répartition de la population entre les activités de pêche et la piraterie est déterminée de façon endogène comme une conséquence du choix d'occupation. Nous établissons l'existence d'une multiplicité d'équilibres et mettons en évidence la possibilité d'une trappe de piraterie, c'est-à-dire un équilibre stable où une partie de la population est engagée dans les actes de piraterie. Le modèle permet d'expliquer l'augmentation significative des attaques de piraterie dans le Golfe d'Aden au cours des dernières années. Le chapitre discute aussi des différents mécanismes pour combattre la piraterie et souligne le rôle crucial des droits de propriété.
Resumo:
Cette thèse s’articule autour de trois chapitres indépendants qui s’inscrivent dans les champs de la macroéconomie, de l’économie monétaire et de la finance internationale. Dans le premier chapitre, je construis un modèle néo-keynesien d’équilibre général sous incertitude pour examiner les implications de la production domestique des ménages pour la politique monétaire. Le modèle proposé permet de reconcilier deux faits empiriques majeurs: la forte sensibilité du produit intérieur brut aux chocs monétaires (obtenue à partir des modèles VAR), et le faible degré de rigidité nominale observé dans les micro-données. Le deuxième chapitre étudie le role de la transformation structurelle (réallocation de la main d’oeuvre entre secteurs) sur la volatilité de la production aggregée dans un panel de pays. Le troisième chapitre quant à lui met en exergue l’importance de la cartographie des échanges commerciaux pour le choix entre un régime de change fixe et l’arrimage à un panier de devises. "Household Production, Services and Monetary Policy" (Chapitre 1) part de l’observation selon laquelle les ménages peuvent produire à domicile des substituts aux services marchands, contrairement aux biens non durables qu’ils acquièrent presque exclusivement sur le marché. Dans ce contexte, ils procèdent à d’importants arbitrages entre produire les services à domicile ou les acquerir sur le marché, dépendamment des changements dans leur revenu. Pour examiner les implications de tels arbitrages (qui s’avèrent être importants dans les micro-données) le secteur domestique est introduit dans un modèle néo-keyenesien d’équilibre général sous incertitude à deux secteurs (le secteur des biens non durables et le secteur des services) autrement standard. Je montre que les firmes du secteur des services sont moins enclin à changer leurs prix du fait que les ménages ont l’option de produire soit même des services substituts. Ceci se traduit par la présence d’un terme endogène supplémentaire qui déplace la courbe de Phillips dans ce secteur. Ce terme croit avec le degré de substituabilité qui existe entre les services produits à domicile et ceux acquis sur le marché. Cet accroissement de la rigidité nominale amplifie la sensibilité de la production réelle aux chocs monétaires, notamment dans le secteur des services, ce qui est compatible avec l’évidence VAR selon laquelle les services de consommation sont plus sensibles aux variations de taux d’intérêt que les biens non durables. "Structural Transformation and the Volatility of Aggregate Output: A Cross-country Analysis" (Chapitre 2) est basée sur l’évidence empirique d’une relation négative entre la part de la main d’oeuvre allouée au secteur des services et la volatilité de la production aggrégée, même lorsque je contrôle pour les facteurs tels que le développement du secteur financier. Ce resultat aggregé est la conséquence des développements sectoriels: la productivité de la main d’oeuvre est beaucoup plus volatile dans l’agriculture et les industries manufacturières que dans les services. La production aggregée deviendrait donc mécaniquement moins volatile au fur et à mesure que la main d’oeuvre se déplace de l’agriculture et de la manufacture vers les services. Pour évaluer cette hypothèse, je calibre un modèle de transformation structurelle à l’économie américaine, que j’utilise ensuite pour générer l’allocation sectorielle de la main d’oeuvre dans l’agriculture, l’industrie et les services pour les autres pays de l’OCDE. Dans une analyse contre-factuelle, le modèle est utlisé pour restreindre la mobilité de la main d’oeuvre entre secteurs de façon endogène. Les calculs montrent alors que le déplacement de la main d’oeuvre vers le secteur des services réduit en effet la volatilité de la production aggregée. "Exchange Rate Volatility under Alternative Peg Regimes: Do Trade Patterns Matter?" (Chapitre 3) est une contribution à la litterature économique qui s’interesse au choix entre divers regimes de change. J’utilise les données mensuelles de taux de change bilatéraux et de commerce extérieur entre 1980 et 2010 pour les pays membre de l’Union Economique et Monétaire Ouest Africaine (UEMOA). La monnaie de ces pays (le franc CFA) est arrimée au franc Francais depuis le milieu des années 40 et à l’euro depuis son introduction en 1999. Au moment de l’arrimage initial, la France était le principal partenaire commercial des pays de l’UEMOA. Depuis lors, et plus encore au cours des dix dernières années, la cartographie des échanges de l’union a significativement changé en faveur des pays du groupe des BICs, notamment la Chine. Je montre dans ce chapitre que l’arrimage à un panier de devises aurait induit une volatilité moins pronnoncée du taux de change effectif nominal du franc CFA au cours de la décennie écoulée, comparé à la parité fixe actuelle. Ce chapitre, cependant, n’aborde pas la question de taux de change optimal pour les pays de l’UEMOA, un aspect qui serait intéressant pour une recherche future.
Resumo:
La présente recherche collaborative vise à étudier les pratiques de lecture à haute voix d’enseignantes expertes et leur influence sur le développement de l’habileté des élèves du préscolaire à faire des inférences. Plus précisément, nous décrivons les interventions, lors des lectures à haute voix, de quatre enseignantes expertes que nous avons formées pour travailler la compréhension inférentielle et les comparons à celles de deux enseignantes expertes non formées (objectif 1). Puis, nous examinons l’influence de leurs pratiques de lecture à haute voix sur le développement de l’habileté à faire des inférences de leurs élèves (n=92) (objectif 2). Enfin, nous nous intéressons, à titre exploratoire, au potentiel de la recherche collaborative comme voie de développement professionnel des enseignants (objectif 3). Afin d’atteindre nos objectifs, nous avons observé les enseignantes à quatre reprises, lors de lectures d’albums de littérature de jeunesse. Les données obtenues à partir de ces pratiques observées ont été complétées par celles issues des pratiques déclarées des enseignantes pour toute la durée de la recherche (neuf semaines). De plus, nous avons évalué l’habileté à réaliser des inférences des élèves de ces six enseignantes à deux reprises, au début et à la fin de la recherche. Finalement, les enseignantes ont rempli deux questionnaires écrits sur l’impact de cette recherche sur leurs pratiques, l’un à la fin de la recherche et l’autre deux ans après celle-ci. Nos résultats indiquent que si toutes les enseignantes travaillaient les inférences, il existe cependant des différences notables dans leur façon de mener ce travail. Trois des enseignantes formées (enseignantes 1, 2 et 3) ont majoritairement privilégié la co-élaboration du sens des épisodes implicites et se sont montrées très efficaces pour soutenir leurs élèves dans ce travail de construction du sens. L’autre enseignante formée (enseignante 4), en raison d’une appropriation difficile du contenu de la formation, n’est pas parvenue à offrir à ses élèves un étayage adéquat, malgré ses nombreuses tentatives pour les amener à faire des inférences. Les enseignantes non formées (enseignantes 5 et 6) ont, quant à elles, misé plus fréquemment sur la transmission du sens des épisodes implicites et ont également soutenu moins efficacement leurs élèves dans l’élaboration du sens. Ces différences dans la façon de travailler les inférences se sont répercutées sur la progression des élèves entre le début et la fin de la recherche. Ceux des enseignantes 1, 2 et 3 obtiennent des résultats significativement supérieurs à ceux des trois autres enseignantes. Ainsi, il ne suffit pas de travailler les inférences lors des lectures à haute voix pour assurer la progression des élèves. D’autres facteurs revêtent aussi une grande importance : le choix d’oeuvres de qualité, l’engagement des élèves dans les discussions pour co-élaborer le sens et l’étayage adéquat de l’enseignant. Enfin, il semblerait que l’activité réflexive suscitée lors d’une participation à une recherche collaborative et le soutien offert par l’étudiante-chercheuse aient donné aux enseignantes la possibilité d’apporter des changements durables dans leurs pratiques. En ce sens, la recherche collaborative paraît être une voie prometteuse pour contribuer au développement professionnel des enseignants.
Resumo:
Ce mémoire est un des segments d'une recherche de plus grande envergure sur le service Info-Santé, et qui se déroule au Centre de Santé et de Services sociaux de Laval.
Resumo:
Les nanoparticules polymériques biodégradable (NPs) sont apparues ces dernières années comme des systèmes prometteurs pour le ciblage et la libération contrôlée de médicaments. La première partie de cette étude visait à développer des NPs biodégradables préparées à partir de copolymères fonctionnalisés de l’acide lactique (poly (D,L)lactide ou PLA). Les polymères ont été étudiés comme systèmes de libération de médicaments dans le but d'améliorer les performances des NPs de PLA conventionnelles. L'effet de la fonctionnalisation du PLA par insertion de groupements chimiques dans la chaîne du polymère sur les propriétés physico-chimiques des NPs a été étudié. En outre, l'effet de l'architecture du polymère (mode d'organisation des chaînes de polymère dans le copolymère obtenu) sur divers aspects de l’administration de médicament a également été étudié. Pour atteindre ces objectifs, divers copolymères à base de PLA ont été synthétisés. Plus précisément il s’agit de 1) copolymères du poly (éthylène glycol) (PEG) greffées sur la chaîne de PLA à 2.5% et 7% mol. / mol. de monomères d'acide lactique (PEG2.5%-g-PLA et PEG7%-g-PLA, respectivement), 2) des groupements d’acide palmitique greffés sur le squelette de PLA à une densité de greffage de 2,5% (palmitique acid2.5%-g-PLA), 3) de copolymère « multibloc » de PLA et de PEG, (PLA-PEG-PLA)n. Dans la deuxième partie, l'effet des différentes densités de greffage sur les propriétés des NPs de PEG-g-PLA (propriétés physico-chimiques et biologiques) a été étudié pour déterminer la densité optimale de greffage PEG nécessaire pour développer la furtivité (« long circulating NPs »). Enfin, les copolymères de PLA fonctionnalisé avec du PEG ayant montré les résultats les plus satisfaisants en regard des divers aspects d’administration de médicaments, (tels que taille et de distribution de taille, charge de surface, chargement de drogue, libération contrôlée de médicaments) ont été sélectionnés pour l'encapsulation de l'itraconazole (ITZ). Le but est dans ce cas d’améliorer sa solubilité dans l'eau, sa biodisponibilité et donc son activité antifongique. Les NPs ont d'abord été préparées à partir de copolymères fonctionnalisés de PLA, puis ensuite analysés pour leurs paramètres physico-chimiques majeurs tels que l'efficacité d'encapsulation, la taille et distribution de taille, la charge de surface, les propriétés thermiques, la chimie de surface, le pourcentage de poly (alcool vinylique) (PVA) adsorbé à la surface, et le profil de libération de médicament. L'analyse de la chimie de surface par la spectroscopie de photoélectrons rayon X (XPS) et la microscopie à force atomique (AFM) ont été utilisés pour étudier l'organisation des chaînes de copolymère dans la formulation des NPs. De manière générale, les copolymères de PLA fonctionnalisés avec le PEG ont montré une amélioration du comportement de libération de médicaments en termes de taille et distribution de taille étroite, d’amélioration de l'efficacité de chargement, de diminution de l'adsorption des protéines plasmatiques sur leurs surfaces, de diminution de l’internalisation par les cellules de type macrophages, et enfin une meilleure activité antifongique des NPs chargées avec ITZ. En ce qui concerne l'analyse de la chimie de surface, l'imagerie de phase en AFM et les résultats de l’XPS ont montré la possibilité de la présence de davantage de chaînes de PEG à la surface des NPs faites de PEG-g-PLA que de NPS faites à partie de (PLA-PEG-PLA)n. Nos résultats démontrent que les propriétés des NPs peuvent être modifiées à la fois par le choix approprié de la composition en polymère mais aussi par l'architecture de ceux-ci. Les résultats suggèrent également que les copolymères de PEG-g-PLA pourraient être utilisés efficacement pour préparer des transporteurs nanométriques améliorant les propriétés de certains médicaments,notamment la solubilité, la stabilité et la biodisponibilité.
Resumo:
L'ensemble de mon travail a été réalisé grâce a l'utilisation de logiciel libre.