242 resultados para Disponibilité
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
L’effet d’encombrement, qui nous empêche d’identifier correctement un stimulus visuel lorsqu’il est entouré de flanqueurs, est omniprésent à travers une grande variété de classes de stimuli. L’excentricité du stimulus cible ainsi que la distance cible-flanqueur constituent des facteurs fondamentaux qui modulent l’effet d’encombrement. La similarité cible-flanqueur semble également contribuer à l’ampleur de l’effet d’encombrement, selon des données obtenues avec des stimuli non-linguistiques. La présente étude a examiné ces trois facteurs en conjonction avec le contenu en fréquences spatiales des stimuli, dans une tâche d’identification de lettres. Nous avons présenté des images filtrées de lettres à des sujets non-dyslexiques exempts de troubles neurologiques, tout en manipulant l’excentricité de la cible ainsi que la similarité cible-flanqueurs (selon des matrices de confusion pré-établies). Quatre types de filtrage de fréquences spatiales ont été utilisés : passe-bas, passe-haut, à large bande et mixte (i.e. élimination des fréquences moyennes, connues comme étant optimales pour l’identification de lettres). Ces conditions étaient appariées en termes d’énergie de contraste. Les sujets devaient identifier la lettre cible le plus rapidement possible en évitant de commettre une erreur. Les résultats démontrent que la similarité cible-flanqueur amplifie l’effet d’encombrement, i.e. l’effet conjoint de distance et d’excentricité. Ceci étend les connaissances sur l’impact de la similarité sur l’encombrement à l’identification visuelle de stimuli linguistiques. De plus, la magnitude de l’effet d’encombrement est plus grande avec le filtre passe-bas, suivit du filtre mixte, du filtre passe-haut et du filtre à large bande, avec différences significatives entre les conditions consécutives. Nous concluons que : 1- les fréquences spatiales moyennes offrent une protection optimale contre l’encombrement en identification de lettres; 2- lorsque les fréquences spatiales moyennes sont absentes du stimulus, les hautes fréquences protègent contre l’encombrement alors que les basses fréquences l’amplifient, probablement par l’entremise de leur impact opposé quant la disponibilité de l’information sur les caractéristiques distinctives des stimul.
Resumo:
Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques. Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse. Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables. Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence. La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles.
Resumo:
Malgré l’intérêt accru du public et de la recherche durant les deux dernières décennies pour le phénomène des jeunes de la rue, certains aspects de leurs réalités sont encore peu examinés et mal connus. L’un de ces aspects concerne la parentalité. Pour mieux comprendre les besoins des jeunes en situation de rue qui sont parents ou en voie de l’être et comprendre dans quelle mesure un service s’adressant spécifiquement à eux arrive à y répondre, cette étude a cherché à décrire et comprendre l’expérience d’utilisation du Service à la famille de l’organisme Dans la rue, telle que vécue par des jeunes qui s’y sont adressés. Plus précisément, les objectifs étaient de : situer le Service à la famille dans la démarche de recherche d’aide des jeunes; comprendre ce qui amène un jeune à utiliser le Service à la famille et les activités qui y sont offertes; décrire l’expérience d’utilisation du service; connaître la perception qu’en ont les jeunes; et estimer leur appréciation du service. Pour ce faire, des entrevues semi-dirigées par téléphone ont eu lieu avec neuf jeunes ayant eu un suivi au Service à la famille, au cours desquelles certains thèmes ont été explorés : la recherche d’aide en lien avec la situation parentale, l’expérience d’utilisation des services et des activités du Service à la famille, le portrait de celui-ci, et la satisfaction à son égard. Au moment de l’entrevue, tous les jeunes étaient parents d’au moins un enfant et la majorité d’entre eux avait fait appel au Service à la famille la première fois durant la grossesse pour de l’aide sous diverses formes en rapport à celle-ci. Des besoins de divers ordres ont amené les jeunes à faire appel au Service à la famille. Ceux-ci pouvaient être comblés, mais pas nécessairement toujours, par le biais des rencontres avec les intervenantes du Service à la famille et par la participation aux activités de groupe offertes par la ressource et, par ailleurs, pouvaient concorder avec les objectifs d’intervention explicites du service. Dans l’ensemble, les entrevues suggèrent que les jeunes perçoivent le Service à la famille et, plus précisément, les intervenantes qui y travaillent, d’un œil favorable. Les interviewés formulent en effet une appréciation positive sur un bon nombre d’éléments se rapportant à leur expérience d’utilisation de la ressource. Des jeunes perçoivent néanmoins des limites dans la capacité du Service à la famille à fournir l’aide attendue, notamment des restrictions budgétaires et une surcharge de travail des intervenantes liée à une forte demande de services. Même si les jeunes n’ont pas nécessairement demandé de l’aide de la ressource dans l’optique de prévenir la violence familiale et la négligence, mandat premier du Service à la famille, une bonne part d’entre eux reconnaissent avoir reçu de l’aide utile à cet égard de la part des intervenantes, notamment lorsqu’ils ont rapporté avoir vécu des relations amoureuses teintées de violence conjugale. Ils reconnaissent également différentes façons par le biais desquelles les intervenantes les auraient encouragés à être bien et à prendre soin d’eux-mêmes afin de pouvoir bien s’occuper de leur(s) enfant(s). Tous les jeunes interviewés ont exprimé une satisfaction à l’égard du suivi reçu au Service à la famille et ils ont affirmé qu’ils le recommanderaient à d’autres personnes. L’approche d’intervention préconisée par la ressource est considérée comme un point fort dans la réponse aux besoins des jeunes. Cette approche aurait permis aux jeunes devenus parents d’être aidés en fonction de ce dont ils avaient besoin à un moment précis. L’un des aspects de l’utilisation du service qui gagneraient à être améliorés, aux yeux des jeunes, est l’accessibilité; l’aide dont les interviewés considéraient avoir besoin n’ayant pas toujours été à leur disposition alors qu’ils l’avaient demandée. Devant la perception d’un manque de disponibilité des intervenantes, des jeunes proposent des pistes d’amélioration qui permettraient à l’aide dispensée par le Service à la famille d’être plus accessible aux jeunes quand ils considèrent en avoir besoin.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la bibliothèque de musique de l'Université de Montréal (http://www.bib.umontreal.ca/MU).
Resumo:
L'attaque de retransmission sélective est une menace sérieuse dans les réseaux de capteurs sans fil (WSN), en particulier dans les systèmes de surveillance. Les noeuds peuvent supprimer de manière malicieuse certains paquets de données sensibles, ce qui risque de détruire la valeur des données assemblées dans le réseau et de diminuer la disponibilité des services des capteurs. Nous présentons un système de sécurité léger basé sur l'envoi de faux rapports pour identifier les attaques de retransmission sélective après avoir montré les inconvénients des systèmes existants. Le grand avantage de notre approche est que la station de base attend une séquence de faux paquets à un moment précis sans avoir communiqué avec les noeuds du réseau. Par conséquent, elle sera capable de détecter une perte de paquets. L'analyse théorique montre que le système proposé peut identifier ce type d'attaque et peut alors améliorer la robustesse du réseau dans des conditions d'un bon compromis entre la fiabilité de la sécurité et le coût de transmission. Notre système peut atteindre un taux de réussite élevé d‟identification face à un grand nombre de noeuds malicieux, tandis que le coût de transmission peut être contrôlé dans des limites raisonnables.
Resumo:
Le surpoids (embonpoint et obésité) chez l’enfant est un problème préoccupant qui prend de plus en plus d’ampleur. Le rôle du parent dans cette problématique est prédominant, puisqu’il assure la disponibilité des aliments, choisit les mets présentés, joue le rôle de modèle dans l’acte alimentaire et interagit avec l’enfant durant les prises alimentaires pour guider son comportement alimentaire. Le parent offre et façonne l’environnement dans lequel évolue l’enfant. Cette thèse explore le rôle de la mère dans cet environnement. Le parent utilise diverses pratiques alimentaires pour guider l’alimentation de l’enfant. Certaines sont douces, comme encourager positivement l’enfant à essayer un aliment (ex. Goûtes-y, moi je trouve ça très bon!) et d’autres plus coercitives (ex. Tu ne sors pas de table sans avoir terminé ton assiette). Les interactions parent-enfant lors de la prise alimentaire sont susceptibles d’avoir différentes conséquences sur l’alimentation de l’enfant, modifiant possiblement les apports alimentaires, les préférences, la néophobie et le statut pondéral. Les interactions parent-enfant en général, donc hors du contexte précis de l’alimentation, peuvent aussi influencer les comportements alimentaires de l’enfant. L’objectif général de cette thèse est d’explorer les relations entre les interactions parent-enfant en général, aussi nommées « styles parentaux » (SP), les interactions parent-enfant dans le contexte alimentaire, portant le nom de «styles parentaux alimentaires» (SPA), les stratégies alimentaires utilisées par les parents pour guider l’alimentation de l’enfant, nommées « pratiques alimentaires parentales » (PAP), les comportements alimentaires de l’enfant et le statut pondéral de ce dernier. Cette thèse comprend 4 objectifs spécifiques. D’abord, d’examiner les relations entre les SP, les SPA et les PAP. Dans un deuxième temps, les relations entre les SPA, le comportement alimentaire de l’enfant (préférence et fréquence de consommation) et le statut pondéral de l’enfant seront explorées. Puis, l’existence de relations entre l’usage de PAP et le comportement alimentaire de l’enfant sera évaluée. Finalement, les relations entre les attitudes de la mère à l’égard de son poids et de celui de son enfant et du comportement néophobique de l’enfant seront explorées. Cent vingt-deux mères d’enfants d’âge préscolaire, de 3 à 5 ans, ont été recrutées par des milieux de garde de l’île de Montréal et ont complété et retourné un questionnaire auto-administré portant sur le style parental, style parental alimentaire, les PAP, les fréquences de consommation de l’enfant, les préférences de l’enfant pour certains aliments et groupe d’aliments, la néophobie de l’enfant, le poids et la taille de l’enfant, le régime actuel de la mère, la perception du poids de l’enfant, la préoccupation face au poids de l’enfant ainsi que la description du profil familial. Les SP, les SPA et les PAP montrent des corrélations. Les SPA, plus particulièrement les deux échelles qui les composent (exigence et sensibilité) montrent des corrélations avec la consommation et la préférence pour certains aliments. Des différences sont aussi notées entre les différents SPA et le statut pondéral de l’enfant et certains comportements alimentaires. La présente thèse suggère une implication de trois concepts, soient les SP, les SPA et les PAP, dans la dynamique alimentaire de la dyade mère-enfant. Des relations importantes entre les SPA et les préférences alimentaires sont suggérées. Les futures recherches dans ce domaine devront évaluer l’impact relatif des PAP, des SP et des SPA sur le comportement alimentaire (consommation et préférence) et le poids de l’enfant. Une intervention efficace visant des changements de comportements alimentaires auprès des familles devra adresser à la fois les PAP, mais aussi les SP et les SPA.
Resumo:
L’intensification des pratiques agricoles a été identifiée comme cause majeure du déclin de la biodiversité. Plusieurs études ont documenté l’impact de la fragmentation du paysage naturel et de l’agriculture intensive sur la diversité des espèces, mais très peu ont quantifié le lien entre la structure du paysage et les interactions trophiques, ainsi que les mécanismes d’adaptation des organismes. J’ai étudié un modèle biologique à trois niveaux trophiques composé d’un oiseau hôte, l’hirondelle bicolore Tachycineta bicolor, de mouches ectoparasites du genre Protocalliphora et de guêpes parasitoïdes du genre Nasonia, au travers d’un gradient d’intensification agricole dans le sud du Québec. Le premier objectif était de déterminer l’abondance des espèces de mouches ectoparasites et de leurs guêpes parasitoïdes qui colonisent les nids d’hirondelles dans la zone d’étude. La prévalence de nids infectés par Protocalliphora spp. était de 70,8% en 2008 et 34,6% en 2009. Le pourcentage de nids comprenant des pupes de Protocalliphora parasitées par Nasonia spp. était de 85,3% en 2008 et 67,2% en 2009. Trois espèces de Protocalliphora ont été observées (P. sialia, P. bennetti et P. metallica) ainsi que deux espèces de Nasonia (N. vitripennis et N. giraulti). Il s’agit d’une première mention de P. bennetti et de N. giraulti dans la province de Québec. Mon deuxième objectif était d’évaluer l’impact de l’intensification agricole et de la structure du paysage sur les relations tri-trophiques entre les organismes à l’étude. Les résultats révèlent que les réponses à la structure du paysage de l’hirondelle, de l’ectoparasite et de l’hyperparasite dépendantent de l’échelle spatiale. L’échelle spatiale fonctionnelle à laquelle les espèces répondent le plus varie selon le paramètre du paysage modélisé. Les analyses démontrent que l’intensification des pratiques agricoles entraîne une diminution des populations d’oiseaux, d’ectoparasites et d’hyperparasites. De plus, les populations de Protocalliphora et de Nasonia sont menacées en paysage intensif puisque la dégradation du paysage associée à l’intensification des pratiques agricoles agit directement sur leurs populations et indirectement sur les populations de leurs hôtes. Mon troisième objectif était de caractériser les mécanismes comportementaux permettant aux guêpes de composer avec la variabilité de la structure du paysage et de la qualité des hôtes. Nos résultats révèlent que les femelles Nasonia ajustent la taille de leur ponte en fonction de la taille de la pupe hôte et de l’incidence d’hyperparasitisme. Le seul facteur ayant une influence déterminante sur le ratio sexuel est la proportion de paysage dédié à l’agriculture intensive. Aucune relation n’a été observée entre la structure du paysage et la taille des filles et des fils produits par les femelles Nasonia fondatrices. Ce phénomène est attribué aux comportements d’ajustement de la taille de la ponte et du ratio sexuel. En ajustant ces derniers, minimisant ainsi la compétition entre les membres de leur progéniture, les femelles fondatrices sont capables de maximiser la relation entre la disponibilité des ressources et la valeur sélective de leur progéniture. En conclusion, ce travail souligne l’importance de considérer le contexte spatial des interactions trophiques, puisqu’elles influencent la biodiversité locale et le fonctionnement de l’écosystème.
Resumo:
Les difficultés croissantes de l’enseignement supérieur en matière d’accessibilité aux formations et de disponibilité de filières de qualité, dans les pays en voie de développement de l’Afrique de l’Ouest notamment, conjuguées avec le développement vertigineux des technologies de l’information et de la communication (TIC), suscitent un grand espoir de faire de la formation à distance une solution alternative crédible des formations présentielles (OCDE, 2006). Or, si la littérature s’accorde à reconnaitre aux TIC et l’interactivité qu’elles procurent des facteurs favorisant l’apprentissage (Karsenti, 2006), la réalité du terrain éducatif lui impose de reconnaitre que non seulement la révolution de la formation ouverte et à distance (FOAD) n’est pas encore d’actualité (OCDE, 2006), mais qu’elle ne le sera que si, pour faire face à la distance transactionnelle, plus accrue en formation à distance, l’apprenant ne se contente plus d’apprendre, mais d’apprendre à apprendre, ce qui exige de lui des compétences d’autonomie. Or, malgré des décennies d’intérêt et d’investissement de la recherche, le développement de l’autonomie sur le terrain reste toujours marginal, les débats philosophiques ayant pris le pas sur la quête de solutions pratiques (Albero ,2003). La question de savoir comment les éducateurs de la FOAD utilisent les solutions existantes, censées favoriser l’autonomie de l’apprenant, telles certaines formes de tutorat et de travail de groupes, n’est pas sans intérêt, puisqu’elle permet de mieux comprendre le terrain cible et sa part de responsabilité dans cet insuccès de l’autonomie. S’inscrivant en droite ligne des travaux d’Albero (2003), la présente étude organise les principes d’autonomie suivant un cadre conceptuel privilégiant l’action et le développement, selon une dimension dynamique symbolisant l’importance du soutien à accorder à l’apprenant, une dimension topologique indiquant la nécessité pour ce soutien de prendre en compte les différents aspects sur lesquels l’apprenant peut exercer son autonomie et une dimension chronologique exprimant l’importance du désétayage. De façon pratique, cette étude, démarrée en 2009 dans le contexte de la FOAD du 2IE (Institut International des Ingénieurs de l’Eau et de l’Environnement), sis à Ouagadougou au Burkina Faso, s’organise en trois articles : le premier tente de comprendre si les conditions d’efficacité de la FOAD, selon les apprenants, formulent un besoin d’apprentissage en autonomie; le second tente de comprendre, à partir des propos des tuteurs, si l’encadrement des apprenants respecte les principes d’autonomie; enfin, le troisième article s’est penché, sur la base des intentions exprimées par les concepteurs, sur le respect des principes d’autonomie par les cours. L’éloignement des apprenants et l’objectif de comprendre leurs perceptions de la FOAD, nous ont fait préférer une approche de recherche de type mixte, à la fois qualitative pour mieux comprendre leur perception (Karsenti & Savoie-Zajc, 2004) et quantitative, pour tenir compte de leur éloignement. Pour la perception des éducateurs, nous avons opté pour une approche qualitative/descriptive plus appropriée dès que l’étude vise la compréhension du phénomène social abordé (Karsenti & Savoie-Zajc, 2004). Des résultats obtenus, la perception des 62 apprenants sur les 170 initialement invités par courriel à répondre au questionnaire, semble confirmer l’autonomie de l’apprenant comme une condition de leur réussite en FOAD. La demande des apprenants pour un soutien accru, malgré l’effort actuellement consenti par l’encadrement, effort reconnu par les apprenants eux-mêmes et qu’attestent les 10 tuteurs interviewés sur une quarantaine au 2IE, devrait, toutefois, inviter à la réflexion, puisque ne s’opposant pas réellement à un apprentissage en hétéronomie. À l’analyse, il apparait que l’insatisfaction des apprenants s’expliquerait par la non-prise en compte des différents aspects susceptibles d’influencer leur apprentissage. De plus, en nous référant aux entretiens avec les 11 concepteurs de cours sur un total de 30, il apparait que, bien que conscients de la nécessité d’adapter les cours au contexte de la FOAD, ni la modularité des contenus, ni la flexibilité de la structure des cours ne semblent être prises en compte. Au final, l’étude révèle l’urgence de lutter contre les habitudes acquises en formation présentielle et la nécessité d’employer des pédagogues professionnels formés pour une pédagogie d’autonomisation. Encore faudrait-il que l’autonomie soit véritablement consacrée par la littérature comme une praxis pour signifier qu’elle n’a d’autre fin qu’elle-même, et non comme une poiesis, pour dire que l’autonomie vise une production et cesserait dès que son objectif est atteint.
Resumo:
Au cours des dernières années, il est devenu évident que les sociétés des pays industrialisés sont à haut risque de maladies métaboliques. Une alimentation riche en énergie (lipide/glucide), combinée à une sédentarité accrue, est un facteur environnemental contribuant à l'augmentation de la prévalence de maladies reliées spécifiquement à des troubles endocriniens comme l'obésité et le diabète. Le traitement de ces désordres métaboliques doit donc passer par la connaissance et la compréhension des mécanismes moléculaires qui contrôlent ces désordres et le développement de traitements ciblés vers les facteurs responsables. Le tissu adipeux est une glande endocrine qui sécrète des substances, regroupées sous le terme d'adipokines, qui contrôlent l'homéostasie énergétique. L'augmentation de la masse adipeuse est responsable du développement de dérégulation hormonale qui mène à des dysfonctions physiologiques et métaboliques. Pour contrecarrer le développement démesuré du tissu adipeux, la signalisation insulinique ainsi que l’apport énergétique, responsables de la différenciation adipocytaire, doivent être inhibés. In vivo, la leptine, adipokine dont la concentration est corrélée à la masse adipeuse, présente des actions pro ou anti-insuliniques dans l’organisme pour réguler ce phénomène. Elle favorise l’effet inhibiteur de l’insuline sur la synthèse hépatique de glucose alors qu’elle s’oppose à son action sur l’expression des enzymes glucokinase et phosphoénol-pyruvate carboxykinase. La leptine influence aussi le taux circulant de triglycérides en diminuant sa concentration plasmatique. D'autre part, l'adiponectine, adipokine insulino- sensibilisante, voit sa sécrétion diminuée avec la prise de poids. La sensibilité à l'insuline est ainsi diminuée au fur et à mesure que le débalancement de ces deux adipokines s'accentue. La résistance à l'insuline s'installe alors pour s'opposer au stockage énergétique et à la prise illimitée de poids et la glycémie augmente. L'augmentation du glucose sanguin stimule la sécrétion d'insuline au niveau des cellules pancréatiques. C'est le diabète caractérisé par une hyperglycémie et une résistance à l'insuline. Le diabète, une des premières causes de mortalité dans le monde, est plus répandu sous sa forme non insulinodépendante (diabète de type 2, DT2) liée à l'obésité. Récemment, différents facteurs de transcription ont été identifiés comme régulateurs de l'expression d'une panoplie de gènes impliqués dans le métabolisme glucidique et lipidique. Parmi eux, les récepteurs des inducteurs de la prolifération des peroxysomes (PPAR, Peroxisome Proliferator-Activated Receptor), appartenant à la famille des récepteurs nucléaires. Les PPAR ont été démontrés comme ayant un rôle central dans le contrôle de la transcription des gènes codants pour des protéines impliquées dans le métabolisme : les adipokines. PPARg, en plus de son implication dans le contrôle de l'homéostasie glucidique et lipidique, est reconnu comme étant un facteur de transcription pivot régulant l'adipogenèse du fait de son expression majeure dans le tissu adipeux. D'autre part, il est bien établi maintenant que l'obésité et le diabète sont des facteurs contribuant au développement du processus inflammatoire vasculaire caractéristique de l’athérosclérose. En effet, les cellules endothéliales et musculaires lisses, principales composantes de la média de l’artère, sont très sensibles aux altérations métaboliques. Une diminution de la sensibilité à l’insuline entraine une réduction de la disponibilité du glucose et l’utilisation des acides gras comme alternatif par ces cellules. Ceci induit l’accumulation des acides gras oxydés dans l’intima et leur filtration dans la média pour former un core lipidique. Bien que l’induction de la dysfonction endothéliale soit impliquée très précocement, certaines études pointent l’accumulation lipidique dans les cellules musculaires lisses vasculaires (CML) et leur dysfonction comme déclencheurs de l’athérosclérose. Ce travail visait donc, dans un premier temps, à développer un modèle d'altérations métaboliques liées à la modulation de l'activité du tissu adipeux via une alimentation riche en lipides. Dans un second temps, cette étude tentait d'évaluer l’impact des adipocytes de souris sur les CML vasculaires et sur la modulation de leurs fonctions dans ce modèle d'altérations métaboliques et DT2 liés à l'alimentation et à l'obésité. Ainsi, par le biais de deux diètes pauvres en cholestérol à profil lipidique différent, nous avons développé un modèle murin présentant divers stades d'altérations du métabolisme allant jusqu'au DT2 en lien avec l'obésité chez les mâles et chez les femelles. D’autre part, des signes de cardiomyopathie ainsi qu’une modulation du taux des adipokines sont reliés à ces mêmes diètes. Parallèlement, l’activité de PPAR!2 est modulée chez les souris sous diètes enrichies en gras. Ensuite, nous avons démontré que les adipocytes, provenant de souris alimentées avec une diète enrichie en gras, modulaient la migration et la prolifération des CML comparativement au groupe contrôle. Ces modulations dépendaient en grande partie de la nature de la diète consommée, mais également du sexe de la souris. Par ailleurs, les altérations fonctionnelles des CML, couplées à des modulations géniques, sont associées aux changements du profil de sécrétion des adipokines mesurées chez les adipocytes. L’ensemble de ces travaux suggère une action directe de la nature de la stimulation du tissu adipeux blanc dans la modulation du profil de sécrétion des adipokines et l'induction du DT2 in vivo. Ces altérations de la physiologie adipocytaire se reflètent in vitro où le tissu adipeux contribue aux altérations physiopathologiques des CML liées au DT2. Ainsi, cette étude est l'une des premières à établir un lien direct entre les modulations adipocytaires et les effets de leurs sécrétions sur la physiologie des CML. Ces observations peuvent être exploitées cliniquement dans un développement futur d’outils thérapeutiques visant à prévenir et à traiter les troubles métaboliques et le DT2, en ciblant le tissu adipeux comme entité métabolique et endocrine.
Resumo:
L’activité catalytique du cytochrome P450 dépend de la disponibilité d’électrons produits par la NADPH P450 réductase (NPR). Notre étude a pour but de déterminer comment l’expression de la NPR est modulée chez le lapin. Afin de comprendre comment l’expression de la NPR est modulée, des hépatocytes de lapins témoins ont été incubés pendant 2, 4, 24 et 48 heures en présence de plusieurs activateurs de facteurs de transcription connus du cytochrome P450. De plus, des lapins ayant reçu une injection sous-cutanée de térébenthine afin de produire une réaction inflammatoire aseptique sont sacrifiés 48 heures plus tard dans le but d’étudier les effets de l’inflammation sur l’expression de la NPR. La rosiglitazone, le fénofibrate, l’acétate de plomb et le chlorure de cobalt (des inducteurs des PPAR, PPAR, AP-1 et HIF-1), après 48 heures d’incubation, n’ont provoqué aucun changement d’expression ou d’activité de la NPR. Après 48 heures d’incubation, la dexaméthasone (Dexa) a augmenté la quantité d’ARNm (QT-PCR), l’expression et l’activité de la NPR (p<0,05), en plus d’augmenter l’ARNm des récepteurs nucléaires CAR (récepteur constitutif à l’androstane) et PXR (récepteur X prégnane) (p<0.05). Le phénobarbital (PB) a augmenté seulement l’activité de la NPR (p<0.05). Par contre, après 48 heures d’incubation, la combinaison PB et Dexa a augmenté la quantité d’ARNm, ainsi que l’expression et l’activité de la NPR (p<0.05). La combinaison de PB et Dexa a induit une augmentation d’ARNm des récepteurs nucléaires CAR, PXR et RXR (récepteur X du rétinoïde) plus précocement, soit après 2 heures d’incubation (p<0.05). Le PD098059 (PD), un bloqueur de l’activation de MAPK1 (mitogen-activated protein kinase), et l’acide okadaïque (OA), un inhibiteur de la protéine phosphatase 2A (PP2A), ont bloqué l'augmentation d'expression et d'activité de la NPR induite par le PB après 48 heures d’incubation. La réaction inflammatoire aseptique a diminué l’expression et l’activité de la NPR après 48 heures d’incubation (p<0.05). On conclue que la dexaméthasone et le phénobarbital sont des inducteurs potentiels de la NPR et que les voies de signalisation de CAR, PXR et RXR semblent être impliquées dans le contrôle de cette induction. Des études supplémentaires devront être complétées afin de confirmer ces résultats préliminaires.
Resumo:
Les taux de mortalité maternelle et néonatale restent importants dans les pays en développement. L’ampleur de ces phénomènes est liée à une constellation de facteurs. Mais une part importante des issues défavorables de la grossesse et de la naissance est attribuable à des causes évitables et des comportements modifiables. Les interventions éducatives prénatales ont été élaborées dans le but d’adresser les facteurs affectant la demande de soins maternels et néonatals efficaces. Les stratégies éducatives ciblant les femmes enceintes incluent les conseils individuels, les sessions de groupes et la combinaison des deux stratégies. Ces stratégies visent à améliorer les connaissances sur les questions de santé maternelle et néonatale et à favoriser l’utilisation adéquate de soins qualifiés et les pratiques hygiéniques à domicile. L’Organisation Mondiale de la Santé (OMS) a diffusé dans les pays en développement des guides de pratiques en soins maternels et néonatals incluant les conseils de préparation à la naissance, lors des visites prénatales de routine. Toutefois, peu de données sont disponibles quant à l’efficacité et l’implantation effective de l’éducation prénatale dans les dits pays. Cette thèse cherche à mieux comprendre l’impact des programmes d’éducation prénatale implantés dans deux contextes à risques maternels et néonatals élevés au Burkina Faso. Rédigée sous forme d’articles, la thèse propose trois objectifs spécifiques : 1) examiner l’efficacité théorique des programmes d’éducation prénatale pour réduire la mortalité maternelle et néonatale dans les pays en développement; 2) évaluer l’association entre différents facteurs organisationnels et l’exposition des femmes aux conseils de préparation à la naissance qui font habituellement partie intégrante des programmes d’éducation prénatale implantés dans les services prénatals de routine; et 3) déterminer l’impact de recevoir des conseils de préparation à la naissance sur la probabilité d’accouchement institutionnel. Pour répondre au premier objectif, une méta-analyse de données issues d’essais randomisés a été effectuée. Concernant les réponses aux deux autres objectifs, les données d’une étude de cohorte rétrospective ont été utilisées. Cette étude observationnelle, conçue spécialement pour la thèse, a été menée dans deux districts à risques maternels et néonatals élevés (Dori et Koupela) du Burkina Faso. Les résultats observés à travers les trois investigations sont utiles pour l’avancement des connaissances et la pratique. La méta-analyse révèle que les interventions éducatives expérimentales sont associées à une réduction de 24% de la mortalité néonatale. Cette réduction atteint 30% dans les milieux à très forte mortalité néonatale. En situation de routine, divers facteurs organisationnels peuvent limiter ou faciliter la transmission des conseils éducatifs aux femmes usagères de soins prénatals. Au, Burkina Faso, les données analysées indiquent des fortes disparités entre les deux districts à l’étude. Les femmes du district de Koupela étaient significativement plus exposées aux conseils que celles de Dori. Au delà de cette disparité régionale, deux autres facteurs organisationnels sont fortement associés à l’exposition des femmes aux conseils de préparation à la naissance lors des visites prénatales de routine. Il s’agit de la disponibilité de supports de communication imagés dans l’établissement et le volume réduit de consultations par jour (moins de 20 consultations en moyenne versus 20 ou plus) augurant de moindres charges de travail pour le personnel. Enfin, les conseils reçus par les femmes sur les signes de complications obstétricales et sur les coûts des soins sont significativement associés à une probabilité plus élevée d’accoucher en institution; et ce, seulement dans le district de Dori où le taux d’accouchements institutionnels était relativement faible. En conclusion, l’éducation prénatale est bénéfique pour la sante maternelle et néonatale. Cependant, l’implantation et les effets sont hétérogènes selon les milieux. D’autres études expérimentales et observationnelles sont requises pour renforcer les évidences et investiguer plus en profondeur les facteurs de réussite afin de mieux orienter l’intervention. Les expérimentations futures devraient mesurer des issues de grossesses relatives à la mère (l’assistance qualifiée, les soins postpartum et la mortalité maternelle). Des études de cohorte prospectives avec des grands échantillons représentatifs permettraient de documenter de façon plus valide les événements et les expositions aux interventions durant la grossesse, l’accouchement et le postpartum.
Resumo:
Ce travail financé par l'ACDI a été réalisé au Laboratoire TRANSNUT de l'Université de Montréal (Canada)en collaboration avec le Laboratoire National de Santé Publique (Burkina Faso) et HKI-Burkina Faso.
Resumo:
Le diabète est une maladie chronique de l’homéostasie du glucose caractérisée par une hyperglycémie non contrôlée qui est le résultat d’une défaillance de la sécrétion d’insuline en combinaison ou non avec une altération de l’action de l’insuline. La surnutrition et le manque d’activité physique chez des individus qui ont des prédispositions génétiques donnent lieu à la résistance à l’insuline. Pendant cette période dite de compensation où la concentration d’acides gras plasmatiques est élevée, l’hyperinsulinémie compense pleinement pour la résistance à l’insuline des tissus cibles et la glycémie est normale. Le métabolisme du glucose par la cellule pancréatique bêta entraîne la sécrétion d’insuline. Selon le modèle classique de la sécrétion d’insuline induite par le glucose, l’augmentation du ratio ATP/ADP résultant de la glycolyse et de l’oxydation du glucose, induit la fermeture des canaux KATP-dépendant modifiant ainsi le potentiel membranaire suivi d’un influx de Ca2+. Cet influx de Ca2+ permet l’exocytose des granules de sécrétion contenant l’insuline. Plusieurs nutriments comme les acides gras sont capables de potentialiser la sécrétion d’insuline. Cependant, le modèle classique ne permet pas d’expliquer cette potentialisation de la sécrétion d’insuline par les acides gras. Pour expliquer l’effet potentialisateur des acides gras, notre laboratoire a proposé un modèle complémentaire où le malonyl-CoA dérivé du métabolisme anaplérotique du glucose inhibe la carnitine palmitoyltransférase-1, l’enzyme qui constitue l’étape limitante de l’oxydation des acides gras favorisant ainsi leur estérification et donc la formation de dérivés lipidiques signalétiques. Le modèle anaplérotique/lipidique de la sécrétion d'insuline induite par le glucose prédit que le malonyl-CoA dérivé du métabolisme du glucose inhibe la bêta-oxydation des acides gras et augmente la disponibilité des acyl-CoA ou des acides gras non-estérifiés. Les molécules lipidiques agissant comme facteurs de couplage du métabolisme des acides gras à l'exocytose d'insuline sont encore inconnus. Des travaux réalisés par notre laboratoire ont démontré qu’en augmentant la répartition des acides gras vers la bêta-oxydation, la sécrétion d’insuline induite par le glucose était réduite suggérant qu’un des dérivés de l’estérification des acides gras est important pour la potentialisation sur la sécrétion d’insuline. En effet, à des concentrations élevées de glucose, les acides gras peuvent être estérifiés d’abord en acide lysophosphatidique (LPA), en acide phosphatidique (PA) et en diacylglycérol (DAG) et subséquemment en triglycérides (TG). La présente étude a établi l’importance relative du processus d’estérification des acides gras dans la production de facteurs potentialisant la sécrétion d’insuline. Nous avions émis l’hypothèse que des molécules dérivées des processus d’estérification des acides gras (ex : l’acide lysophosphatidique (LPA) et le diacylglycerol (DAG)) agissent comme signaux métaboliques et sont responsables de la modulation de la sécrétion d’insuline en présence d’acides gras. Afin de vérifier celle-ci, nous avons modifié le niveau d’expression des enzymes clés contrôlant le processus d’estérification par des approches de biologie moléculaire afin de changer la répartition des acides gras dans la cellule bêta. L’expression des différents isoformes de la glycérol-3-phosphate acyltransférase (GPAT), qui catalyse la première étape d’estérification des acides gras a été augmenté et inhibé. Les effets de la modulation de l’expression des isoenzymes de GPAT sur les processus d’estérifications, sur la bêta-oxydation et sur la sécrétion d’insuline induite par le glucose ont été étudiés. Les différentes approches que nous avons utilisées ont changé les niveaux de DAG et de TG sans toutefois altérer la sécrétion d’insuline induite par le glucose. Ainsi, les résultats de cette étude n’ont pas associé de rôle pour l’estérification de novo des acides gras dans leur potentialisation de la sécrétion d’insuline. Cependant, l’estérification des acides gras fait partie intégrante d’un cycle de TG/acides gras avec sa contrepartie lipolytique. D’ailleurs, des études parallèles à la mienne menées par des collègues du laboratoire ont démontré un rôle pour la lipolyse et un cycle TG/acides gras dans la potentialisation de la sécrétion d’insuline par les acides gras. Parallèlement à nos études des mécanismes de la sécrétion d’insuline impliquant les acides gras, notre laboratoire s’intéresse aussi aux effets négatifs des acides gras sur la cellule bêta. La glucolipotoxicité, résultant d’une exposition chronique aux acides gras saturés en présence d’une concentration élevée de glucose, est d’un intérêt particulier vu la prépondérance de l’obésité. L’isoforme microsomal de GPAT a aussi utilisé comme outil moléculaire dans le contexte de la glucolipotoxicité afin d’étudier le rôle de la synthèse de novo de lipides complexes dans le contexte de décompensation où la fonction des cellules bêta diminue. La surexpression de l’isoforme microsomal de la GPAT, menant à l’augmentation de l’estérification des acides gras et à une diminution de la bêta-oxydation, nous permet de conclure que cette modification métabolique est instrumentale dans la glucolipotoxicité.
Resumo:
L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.