937 resultados para ANALYTIC ULTRACENTRIFUGATION
Resumo:
This meta-analytic study sought to determine if cross-national curricula are aligned with burgeoning digital learning environments in order to help policy makers develop curriculum that incorporates 21st-century skills instruction. The study juxtaposed cross- national curricula in Ontario (Canada), Australia, and Finland against Jenkins’s (2009) framework of 11 crucial 21st-century skills that include: play, performance, simulation, appropriation, multitasking, distributed cognition, collective intelligence, judgment, transmedia navigation, networking, and negotiation. Results from qualitative data collection and analysis revealed that Finland implements all of Jenkins’s 21st-century skills. Recommendations are made to implement sound 21st-century skills in other jurisdictions.
Resumo:
A brand-harm crisis not only affects the scandalized brand, but may also influence competing brands. Thus, marketers of competing brands need to develop response strategies for reducing negative spillover effects. This research takes a competitor’s perspective and introduces two types of response strategies used to convey a sense of denial: sensegiving and sensehiding. It also investigates how the effects of response strategies are contingent upon brand relatedness and individual thinking styles. The results from three experimental studies show that using a sensegiving strategy reduces negative spillover effects more than using a sensehiding strategy. Additionally, the studies suggest that the observed difference in the effects of response strategy tends to be greater when the level of brand relatedness is high than when it is low. However, individual thinking styles (holistic vs. analytic) seem to have little impact on consumers’ responses to the two denial strategies. This research contributes to the brand-harm crisis literature and provides novel insights into a competitor’s response to potential negative spillover effects.
Resumo:
It is well known that standard asymptotic theory is not valid or is extremely unreliable in models with identification problems or weak instruments [Dufour (1997, Econometrica), Staiger and Stock (1997, Econometrica), Wang and Zivot (1998, Econometrica), Stock and Wright (2000, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. One possible way out consists here in using a variant of the Anderson-Rubin (1949, Ann. Math. Stat.) procedure. The latter, however, allows one to build exact tests and confidence sets only for the full vector of the coefficients of the endogenous explanatory variables in a structural equation, which in general does not allow for individual coefficients. This problem may in principle be overcome by using projection techniques [Dufour (1997, Econometrica), Dufour and Jasiak (2001, International Economic Review)]. AR-types are emphasized because they are robust to both weak instruments and instrument exclusion. However, these techniques can be implemented only by using costly numerical techniques. In this paper, we provide a complete analytic solution to the problem of building projection-based confidence sets from Anderson-Rubin-type confidence sets. The latter involves the geometric properties of “quadrics” and can be viewed as an extension of usual confidence intervals and ellipsoids. Only least squares techniques are required for building the confidence intervals. We also study by simulation how “conservative” projection-based confidence sets are. Finally, we illustrate the methods proposed by applying them to three different examples: the relationship between trade and growth in a cross-section of countries, returns to education, and a study of production functions in the U.S. economy.
Resumo:
Objectifs : Ce mémoire propose de répertorier par une revue systématique les instruments de mesure clinique des conduites addictives établies et émergentes; de les comparer au moyen d’une grille d’analyse afin de de déterminer si ces conduites sont cohésives au plan conceptuel. Méthode : La stratégie analytique employée s’est déroulée en trois étapes : 1) Via les moteurs de recherche Pubmed, Psychinfo, HAPI et Embase, nous avons cherché, pour l’ensemble des conduites addictives, les questionnaires ayant fait l’objet d’une étude de validation interne au plan psychométrique. 2) Une grille d’analyse a été développée et validée, couvrant 21 paramètres tirés de 4 catégories conceptuelles : les critères diagnostiques de dépendance (DSM-IVTR), le tempérament (Cloninger et Zuckerman), le processus de production du handicap social (Fougeyrollas) et une grille d’analyse cognitivo-comportementale (Beck). 3) tous les instruments ont été analysés et comparés au moyen de cette grille qui a été développée est validée par un accord inter-juge élevé. Résultats : Nous avons répertorié 191 questionnaires répartis sur 21 conduites addictives. On constate que les conduites les plus prévalentes sont également celles pour lesquelles on retrouve le plus grand nombre de questionnaires. Les catégories que les questionnaires évaluent le plus sont celles des critères de la dépendance et l’analyse cognitivo-comportementale, les catégories beaucoup moins bien représentées étant celles du tempérament et du processus de production du handicap social. On note des tendances semblables pour les paramètres entre les questionnaires portant sur la toxicomanie et ceux portant sur les addictions sans drogues. Conclusion : Ce mémoire confirme une cohésion clinique dans la mesure des addictions, tel que déterminé par une grille validée appliquée sur un ensemble exhaustif de questionnaires répertoriés par une revue systématique.
Resumo:
Ce mémoire porte sur l’expérience de la maternité des Ouagalaises et son évolution. Il s’intéresse au déroulement de la première grossesse, de l’accouchement et de l’entrée en maternité de deux générations de femmes. Privilégiant une approche holistico-inductive en méthodologie qualitative, notre recherche s’est appuyée sur 31 entretiens semi-directifs avec des Ouagalaises, sur 15 d’heures d’observation participante à la maternité ainsi que sur 10 d’entretiens semi-directifs avec des sages-femmes. Les résultats de l’analyse montrent que le savoir de la maternité se transmet toujours de génération en génération, et qu’il demeure encore fortement encadré par les aînées. Toutefois, les transformations en cours dans le système de santé et dans la société burkinabè ne sont pas sans incidence dans la capitale. Les jeunes femmes étant plus renseignées en matière de santé reproductive, elles ont davantage reconnu les signes de la grossesse et le début des douleurs de l’accouchement. Les accompagnantes n’ayant plus accès à la salle d’accouchement et le pouvoir des sages-femmes s’agrandissant, l’expérience de l’accouchement se modifie. Bien que les vieilles femmes n’aient plus le même contrôle sur les parturientes durant l’accouchement, leur influence est toutefois toujours très importante pendant la période post-partum. Les femmes de la jeune génération n’étant généralement pas encore mariées ou installées dans leur propre maison au moment de la grossesse, la promiscuité avec leur belle-mère à l’issue de l’accouchement augmente et le pouvoir de cette dernière est plus important qu’il ne l’était à l’époque de la génération précédente.
Resumo:
INTRODUCTION : Les soins de première ligne au Québec vivent depuis quelques années une réorganisation importante. Les GMF, les cliniques réseaux, les CSSS, les réseaux locaux de service, ne sont que quelques exemples des nouveaux modes d’organisation qui voient le jour actuellement. La collaboration interprofessionnelle se trouve au cœur de ces changements. MÉTHODOLOGIE : Il s’agit d’une étude de cas unique, effectuée dans un GMF de deuxième vague. Les données ont été recueillies par des entrevues semi-dirigées auprès du médecin responsable du GMF, des médecins et des infirmières du GMF, et du cadre responsable des infirmières au CSSS. Les entrevues se sont déroulées jusqu’à saturation empirique. Des documents concernant les outils cliniques et les outils de communication ont aussi été consultés. RÉSULTATS : À travers un processus itératif touchant les éléments interactionnels et organisationnels, par l’évolution vers une culture différente, des ajustements mutuels ont pu être réalisés et les pratiques cliniques se sont réellement modifiées au sein du GMF étudié. Les participants ont souligné une amélioration de leurs résultats cliniques. Ils constatent que les patients ont une meilleure accessibilité, mais l’effet sur la charge de travail et sur la capacité de suivre plus de patients est évaluée de façon variable. CONCLUSION : Le modèle conceptuel proposé permet d’observer empiriquement les dimensions qui font ressortir la valeur ajoutée du développement de la collaboration interprofessionnelle au sein des GMF, ainsi que son impact sur les pratiques professionnelles.
Resumo:
Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps. Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac. Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations. Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps. Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins
Resumo:
Notre recherche a pour but de déterminer comment les genres textuels peuvent être exploités dans le design des environnements numériques de travail afin de faciliter l’accomplissement des pratiques textuelles de cadres et de secrétaires dans une municipalité et une administration fédérale canadiennes. À cet effet, le premier objectif consiste à évaluer l’aptitude des environnements numériques de travail à supporter les pratiques textuelles (lecture, écriture et manipulation des textes) de ces employés. Le deuxième objectif est de décrire les rôles des genres textuels au cours des pratiques textuelles. Avec l’exemple du courriel, le troisième objectif vise à examiner comment le genre peut être exploité dans une perspective d’assistance à la réalisation des pratiques textuelles dans les environnements numériques de travail. Cette recherche de nature qualitative comporte une méthodologie en deux étapes. La première étape consiste en un examen minutieux des pratiques textuelles, des difficultés rencontrées au cours de celles-ci, du rôle du genre dans les environnements numériques de travail, ainsi que des indices sollicités au cours de la gestion du courriel. Trois modes de collecte des données qualitatives sont utilisés auprès de 17 cadres et de 17 secrétaires issus de deux administrations publiques : l’entrevue semi-dirigée, le journal de bord et l’enquête cognitive. Les résultats sont examinés à l’aide de stratégies d’analyse de contenu qualitative. La deuxième phase comprend la mise au point d’une chaîne de traitement du courriel, visant à étayer notre réflexion sur le genre textuel et son exploitation dans la conception des environnements numériques de travail. Un corpus de 1703 messages est élaboré à partir d’un échantillon remis par deux cadres gouvernementaux. Les résultats permettent d’abord de dresser un portrait général des pratiques de lecture, d’écriture et de manipulation des textes communes et spécifiques aux cadres et aux secrétaires. L’importance du courriel, qui constitue environ 40% des systèmes notés dans les journaux de bord, est soulignée. Les difficultés rencontrées dans les environnements numériques de travail sont également décrites. Dans un deuxième temps, les rôles du genre au cours des pratiques textuelles sont examinés en fonction d’une matrice tenant à la fois compte de ses dimensions individuelles et collectives, ainsi que de ses trois principales facettes ; la forme, le contenu et la fonction. Ensuite, nous présentons un cadre d’analyse des indices affectant la gestion du courriel qui synthétise le processus d’interprétation des messages par le destinataire. Une typologie des patrons de catégorisation des cadres est également définie, puis employée dans une expérimentation statistique visant la description et la catégorisation automatique du courriel. Au terme de ce processus, on observe des comportements linguistiques marqués en fonction des catégories du courriel. Il s’avère également que la catégorisation automatique basée sur le lexique des messages est beaucoup plus performante que la catégorisation non lexicale. À l’issue de cette recherche, nous suggérons d’enrichir le paradigme traditionnel relevant de l’interaction humain-ordinateur par une sémiotique du genre dans les environnements numériques de travail. L’étude propose également une réflexion sur l’appartenance du courriel à un genre, en ayant recours aux concepts théoriques d’hypergenre, de genre et de sous-genre. Le succès de la catégorisation automatique du courriel en fonction de facettes tributaires du genre (le contenu, la forme et la fonction) offre des perspectives intéressantes sur l’application de ce concept au design des environnements numériques de travail en vue de faciliter l’accomplissement des pratiques textuelles par les employés.
Resumo:
In this paper, I argue that intersectionality, the prevailing way of conceptualizing the relation between axes or systems of oppression (race, class, gender), illicitly imports the very model it purports to overcome: that is, the unitary model of identity. I first define “intersectionality” and distinguish between three senses that are frequently conflated. Then I subject the model to an analytic critique, revealing its hidden presuppositions about identity. Finally, I suggest that solidarity serves as a better norm for feminist practice than inclusion of “difference,” which seems to be the norm underlying many intersectional accounts.
Resumo:
Soit p un polynôme d'une variable complexe z. On peut trouver plusieurs inégalités reliant le module maximum de p et une combinaison de ses coefficients. Dans ce mémoire, nous étudierons principalement les preuves connues de l'inégalité de Visser. Nous montrerons aussi quelques généralisations de cette inégalité. Finalement, nous obtiendrons quelques applications de l'inégalité de Visser à l'inégalité de Chebyshev.
Resumo:
En dépit de toute l'histoire philosophique et théologique qui a relié l'éthique à l'économie, l'éthique des affaires comme champ de recherche est véritablement né aux États-Unis à la fin des années 1960. Nous avons identifié trois périodes dans l'évolution de l'éthique des affaires aux États-Unis: (1) les prolégomènes d'un intérêt porté à l'éthique dans le milieu des affaires américain (1961-1976); (2) l'effervescence d'une préoccupation éthique dans les grandes entreprises américaines (1977-1990); (3) l'instrumentalisation de l'éthique supportée par l'appareil gouvernemental (1991-2002). À travers ces trois périodes, nous ferons ressortir l'apport des recherches les plus marquantes en éthique des affaires, qu'elles aient adopté une perspective descriptive, normative ou analytique.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
Réalisées aux échelles internationales et nationales, les études de vulnérabilité aux changements et à la variabilité climatiques sont peu pertinentes dans un processus de prise de décisions à des échelles géographiques plus petites qui représentent les lieux d’implantation des stratégies de réponses envisagées. Les études de vulnérabilité aux changements et à la variabilité climatiques à des échelles géographiques relativement petites dans le secteur agricole sont généralement rares, voire inexistantes au Canada, notamment au Québec. Dans le souci de combler ce vide et de favoriser un processus décisionnel plus éclairé à l’échelle de la ferme, cette étude cherchait principalement à dresser un portrait de l’évolution de la vulnérabilité des fermes productrices de maïs-grain des régions de Montérégie-Ouest et du Lac-St-Jean-Est aux changements et à la variabilité climatiques dans un contexte de multiples sources de pression. Une méthodologie générale constituée d'une évaluation de la vulnérabilité globale à partir d’une combinaison de profils de vulnérabilité aux conditions climatiques et socio-économiques a été adoptée. Pour la période de référence (1985-2005), les profils de vulnérabilité ont été dressés à l’aide d’analyses des coefficients de variation des séries temporelles de rendements et de superficies en maïs-grain. Au moyen de méthodes ethnographiques associées à une technique d’analyse multicritère, le Processus d’analyse hiérarchique (PAH), des scénarios d’indicateurs de capacité adaptative du secteur agricole susmentionné ont été développés pour la période de référence. Ceux-ci ont ensuite servi de point de départ dans l’élaboration des indicateurs de capacité de réponses des producteurs agricoles pour la période future 2010-2039. Pour celle-ci, les deux profils de vulnérabilité sont issus d’une simplification du cadre théorique de « Intergovernmental Panel on Climate Change » (IPCC) relatif aux principales composantes du concept de vulnérabilité. Pour la dimension « sensibilité » du secteur des fermes productrices de maïs-grain des deux régions agricoles aux conditions climatiques, une série de données de rendements a été simulée pour la période future. Ces simulations ont été réalisées à l’aide d’un couplage de cinq scénarios climatiques et du modèle de culture CERES-Maize de « Decision Support System for Agrotechnology Transfer » (DSSAT), version 4.0.2.0. En ce qui concerne l’évaluation de la « capacité adaptative » au cours de la période future, la construction des scénarios d’indicateurs de cette composante a été effectuée selon l’influence potentielle des grandes orientations économiques et environnementales considérées dans l’élaboration des lignes directrices des deux familles d’émissions de gaz à effet de serre (GES) A2 et A1B. L’application de la démarche méthodologique préalablement mentionnée a conduit aux principaux résultats suivants. Au cours de la période de référence, la région agricole du Lac-St-Jean-Est semblait être plus vulnérable aux conditions climatiques que celle de Montérégie-Ouest. En effet, le coefficient de variation des rendements du maïs-grain pour la région du Lac-St-Jean-Est était évalué à 0,35; tandis que celui pour la région de Montérégie-Ouest n’était que de 0,23. Toutefois, par rapport aux conditions socio-économiques, la région de Montérégie-Ouest affichait une vulnérabilité plus élevée que celle du Lac-St-Jean-Est. Les valeurs des coefficients de variation pour les superficies en maïs-grain au cours de la période de référence pour la Montérégie-Ouest et le Lac-St-Jean-Est étaient de 0,66 et 0,48, respectivement. Au cours de la période future 2010-2039, la région du Lac-St-Jean-Est serait, dans l’ensemble, toujours plus vulnérable aux conditions climatiques que celle de Montérégie-Ouest. Les valeurs moyennes des coefficients de variation pour les rendements agricoles anticipés fluctuent entre 0,21 et 0,25 pour la région de Montérégie-Ouest et entre 0,31 et 0,50 pour la région du Lac-St-Jean-Est. Néanmoins, en matière de vulnérabilité future aux conditions socio-économiques, la position relative des deux régions serait fonction du scénario de capacité adaptative considéré. Avec les orientations économiques et environnementales considérées dans l’élaboration des lignes directrices de la famille d’émission de GES A2, les indicateurs de capacité adaptative du secteur à l’étude seraient respectivement de 0,13 et 0,08 pour la Montérégie-Ouest et le Lac-St-Jean-Est. D’autre part, en considérant les lignes directrices de la famille d’émission de GES A1B, la région agricole du Lac-St-Jean-Est aurait une capacité adaptative légèrement supérieure (0,07) à celle de la Montérégie-Ouest (0,06). De façon générale, au cours de la période future, la région du Lac-St-Jean-Est devrait posséder une vulnérabilité globale plus élevée que la région de Montérégie-Ouest. Cette situation s’expliquerait principalement par une plus grande vulnérabilité de la région du Lac-St-Jean-Est aux conditions climatiques. Les résultats de cette étude doivent être appréciés dans le contexte des postulats considérés, de la méthodologie suivie et des spécificités des deux régions agricoles examinées. Essentiellement, avec l’adoption d’une démarche méthodologique simple, cette étude a révélé les caractéristiques « dynamique et relative » du concept de vulnérabilité, l’importance de l’échelle géographique et de la prise en compte d’autres sources de pression et surtout de la considération d’une approche contraire à celle du « agriculteur réfractaire aux changements » dans les travaux d’évaluation de ce concept dans le secteur agricole. Finalement, elle a aussi présenté plusieurs pistes de recherche susceptibles de contribuer à une meilleure évaluation de la vulnérabilité des agriculteurs aux changements climatiques dans un contexte de multiples sources de pression.
Resumo:
Les fichiers qui accompagnent le document incluent une archive .jar du zoom-éditeur (qui peut être lancé via un browser) et des exemples de z-textes réalisés avec ce logiciel.
Resumo:
Cette thèse traite de la classification analytique du déploiement de systèmes différentiels linéaires ayant une singularité irrégulière. Elle est composée de deux articles sur le sujet: le premier présente des résultats obtenus lors de l'étude de la confluence de l'équation hypergéométrique et peut être considéré comme un cas particulier du second; le deuxième contient les théorèmes et résultats principaux. Dans les deux articles, nous considérons la confluence de deux points singuliers réguliers en un point singulier irrégulier et nous étudions les conséquences de la divergence des solutions au point singulier irrégulier sur le comportement des solutions du système déployé. Pour ce faire, nous recouvrons un voisinage de l'origine (de manière ramifiée) dans l'espace du paramètre de déploiement $\epsilon$. La monodromie d'une base de solutions bien choisie est directement reliée aux matrices de Stokes déployées. Ces dernières donnent une interprétation géométrique aux matrices de Stokes, incluant le lien (existant au moins pour les cas génériques) entre la divergence des solutions à $\epsilon=0$ et la présence de solutions logarithmiques autour des points singuliers réguliers lors de la résonance. La monodromie d'intégrales premières de systèmes de Riccati correspondants est aussi interprétée en fonction des éléments des matrices de Stokes déployées. De plus, dans le second article, nous donnons le système complet d'invariants analytiques pour le déploiement de systèmes différentiels linéaires $x^2y'=A(x)y$ ayant une singularité irrégulière de rang de Poincaré $1$ à l'origine au-dessus d'un voisinage fixé $\mathbb{D}_r$ dans la variable $x$. Ce système est constitué d'une partie formelle, donnée par des polynômes, et d'une partie analytique, donnée par une classe d'équivalence de matrices de Stokes déployées. Pour chaque valeur du paramètre $\epsilon$ dans un secteur pointé à l'origine d'ouverture plus grande que $2\pi$, nous recouvrons l'espace de la variable, $\mathbb{D}_r$, avec deux secteurs et, au-dessus de chacun, nous choisissons une base de solutions du système déployé. Cette base sert à définir les matrices de Stokes déployées. Finalement, nous prouvons un théorème de réalisation des invariants qui satisfont une condition nécessaire et suffisante, identifiant ainsi l'ensemble des modules.