805 resultados para Répartition de poids
Resumo:
La diversification des résultats de recherche (DRR) vise à sélectionner divers documents à partir des résultats de recherche afin de couvrir autant d’intentions que possible. Dans les approches existantes, on suppose que les résultats initiaux sont suffisamment diversifiés et couvrent bien les aspects de la requête. Or, on observe souvent que les résultats initiaux n’arrivent pas à couvrir certains aspects. Dans cette thèse, nous proposons une nouvelle approche de DRR qui consiste à diversifier l’expansion de requête (DER) afin d’avoir une meilleure couverture des aspects. Les termes d’expansion sont sélectionnés à partir d’une ou de plusieurs ressource(s) suivant le principe de pertinence marginale maximale. Dans notre première contribution, nous proposons une méthode pour DER au niveau des termes où la similarité entre les termes est mesurée superficiellement à l’aide des ressources. Quand plusieurs ressources sont utilisées pour DER, elles ont été uniformément combinées dans la littérature, ce qui permet d’ignorer la contribution individuelle de chaque ressource par rapport à la requête. Dans la seconde contribution de cette thèse, nous proposons une nouvelle méthode de pondération de ressources selon la requête. Notre méthode utilise un ensemble de caractéristiques qui sont intégrées à un modèle de régression linéaire, et génère à partir de chaque ressource un nombre de termes d’expansion proportionnellement au poids de cette ressource. Les méthodes proposées pour DER se concentrent sur l’élimination de la redondance entre les termes d’expansion sans se soucier si les termes sélectionnés couvrent effectivement les différents aspects de la requête. Pour pallier à cet inconvénient, nous introduisons dans la troisième contribution de cette thèse une nouvelle méthode pour DER au niveau des aspects. Notre méthode est entraînée de façon supervisée selon le principe que les termes reliés doivent correspondre au même aspect. Cette méthode permet de sélectionner des termes d’expansion à un niveau sémantique latent afin de couvrir autant que possible différents aspects de la requête. De plus, cette méthode autorise l’intégration de plusieurs ressources afin de suggérer des termes d’expansion, et supporte l’intégration de plusieurs contraintes telles que la contrainte de dispersion. Nous évaluons nos méthodes à l’aide des données de ClueWeb09B et de trois collections de requêtes de TRECWeb track et montrons l’utilité de nos approches par rapport aux méthodes existantes.
Resumo:
L’objectif de cette étude est de réaliser une analyse comparative de la pauvreté et de la structure de consommation des ménages des capitales des Etats membres de l’Union Economique et Monétaire Ouest Africaine (UEMOA) à partir des données des enquêtes dépenses des ménages (EDM) réalisées en 2008 dans ces agglomérations. En s’appuyant sur l’approche monétaire de la pauvreté mise en oeuvre par la méthode du coût des besoins essentiels, il ressort que plus d’un ménage sur 10, soit 10,5% de l’ensemble de la population étudiée vit sous le seuil de pauvreté estimé à 277450 F CFA de dépenses annuelles par unité de consommation. Le test de dominance stochastique de 1er ordre confirme que l’ampleur du phénomène est en moyenne plus importante dans les villes sahéliennes (Bamako, Niamey, Ouagadougou) que dans les grandes villes côtières (Abidjan, Dakar, Lomé). Par ailleurs, l’analyse économétrique révèle que la taille du ménage et le capital humain du chef de ménage sont des déterminants importants du niveau de vie monétaire des ménages. En effet, tandis que le risque de pauvreté est plus élevé chez les ménages de grande taille, le niveau de vie d’un ménage est d’autant plus élevé que le niveau d’instruction du chef est important. En outre, on observe que dans les agglomérations où le taux de pauvreté est le plus élevé, les ménages accordent un poids plus élevé aux dépenses alimentaires. Enfin, l’estimation des élasticités dépenses totales de la demande à l’aide d’une régression linéaire suggère qu’en moyenne, les besoins de consommation insatisfaits par les ménages portent sur les services (les transports, la communication, la santé, l’éducation et les loisirs).
Resumo:
Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.
Resumo:
La présente thèse porte sur les acteurs au sein des organisations non gouvernementales locales (ONG) qui, dans la configuration actuelle de l’aide internationale au développement, jouent un rôle de relais ou d’intermédiaires entre donateurs internationaux et populations bénéficiaires en Afrique subsaharienne. En analysant les trajectoires professionnelles de 32 femmes et hommes « leaders » dans des ONG de Cotonou (Bénin) et de Lomé (Togo), la thèse se propose d’appréhender les processus sociaux à travers lesquels ces individus deviennent intermédiaires dans les activités de développement. La recherche s’inscrit dans une approche théorique construite à la rencontre entre la perspective orientée vers l’acteur en socioanthropologie du développement, la sociologie de l’individuation et le paradigme des parcours de vie. La thèse prend également une posture comparative en contrastant, d’une part, les trajectoires professionnelles des intermédiaires du Bénin et du Togo, deux pays ayant connu entre les années 1990 et début 2000 des « destinées » opposées en ce qui a trait à leurs rapports avec les bailleurs de fonds étrangers. D’autre part, l’analyse compare deux générations d’intermédiaires et contraste l’expérience des intermédiaires féminins et masculins. L’analyse montre qu’en premier lieu, les conférences nationales en 1990 au Bénin et en 1991 au Togo ont constitué un tournant important dans les trajectoires professionnelles des intermédiaires dans les deux pays, créant subséquemment, d’un côté, un contexte favorable aux intermédiaires du Bénin, et de l’autre, un environnement délétère pour ceux du Togo. Toutefois, au cours des dix dernières années, ces différences de conditions de travail se sont beaucoup atténuées et les défis relevés par les intermédiaires dans les deux pays sont à nouveau similaires; les contextes actuels sont caractérisés par un soutien étatique au minima, un champ d’activités très concurrentiel et politisé, une professionnalisation du champ, et une forte dépendance vis-à-vis des bailleurs de fonds extérieurs. En second lieu, l’analyse des récits de vie a permis de ressortir quatre types de profils des intermédiaires au moment où ils intègrent le champ des ONG : les « reconvertis », les « nouveaux diplômés des années 1990 », les « carriéristes », et les « activistes ». La comparaison générationnelle suggère en outre que les deux premiers types décrivent mieux les intermédiaires ayant commencé leurs activités avant les années 2000, alors que les « carriéristes » sont pour l’essentiel des intermédiaires de la jeune génération qui intègre le domaine de l’intermédiation après 2000. Aussi, la recherche montre que pour entrer, mais surtout « durer », dans le champ des ONG ces individus utilisent divers réseaux politiques et associatifs et savent « manœuvrer », notamment en choisissant une « thématique porteuse », en veillant à maintenir une constante « visibilité » ou en ayant recours à des formations continues pour acquérir ou consolider des compétences recherchées par les bailleurs de fonds. Par ailleurs, l’analyse des trajectoires professionnelles féminines a révélé qu’alors que le poids des responsabilités familiales a fait que les « pionnières » de l’intermédiation sont entrées de façon tardive dans une profession dominée par les hommes, et se sont toutes focalisées sur des thématiques liées directement aux droits des femmes, les parcours de leurs cadettes sont bien différents. Ces dernières ne travaillent pas dans le traditionnel domaine du « genre », et même si elles reconnaissent aussi leurs difficultés à concilier responsabilités professionnelles et devoir familial, elles ne sont pas prêtes à mettre de côté leur carrière et ont une perception très différente de leurs aînées des rôles genrés au sein de la famille.
Resumo:
Dans ce mémoire, nous examinons certaines propriétés des représentations distribuées de mots et nous proposons une technique pour élargir le vocabulaire des systèmes de traduction automatique neurale. En premier lieu, nous considérons un problème de résolution d'analogies bien connu et examinons l'effet de poids adaptés à la position, le choix de la fonction de combinaison et l'impact de l'apprentissage supervisé. Nous enchaînons en montrant que des représentations distribuées simples basées sur la traduction peuvent atteindre ou dépasser l'état de l'art sur le test de détection de synonymes TOEFL et sur le récent étalon-or SimLex-999. Finalament, motivé par d'impressionnants résultats obtenus avec des représentations distribuées issues de systèmes de traduction neurale à petit vocabulaire (30 000 mots), nous présentons une approche compatible à l'utilisation de cartes graphiques pour augmenter la taille du vocabulaire par plus d'un ordre de magnitude. Bien qu'originalement développée seulement pour obtenir les représentations distribuées, nous montrons que cette technique fonctionne plutôt bien sur des tâches de traduction, en particulier de l'anglais vers le français (WMT'14).
Resumo:
Cette recherche exploratoire a pour objet d’étude la mise en œuvre des interventions d’activation pour l’emploi auprès des prestataires de l’assistance sociale en situation de grande vulnérabilité au Québec. Elle cherche à décrire les pratiques mises en œuvre par des intervenants de la première ligne (« street-level ») au sein des organismes communautaires œuvrant en employabilité, dans le cadre des mesures et programmes de l’agence Emploi- Québec, dans un contexte de contractualisation et partenariat entre le gouvernement et le secteur à but non lucratif. Le mémoire cherche à identifier les processus qui peuvent influencer les pratiques de la première ligne de services lors de l’interaction avec les destinataires du système intégré d’aide financière de dernier recours et d’aide à l’emploi, de même qu’à comprendre les rapports de force en présence lors de la mise en œuvre des interventions. L’on veut répondre aux deux questions suivantes : Quel est le poids relatif du cadre institutionnel du système d’activation et du pouvoir discrétionnaire des intervenants de la première ligne travaillant directement avec les prestataires les plus vulnérables, au sein des organismes communautaires en employabilité? Plus précisément, comment ces deux types de processus interagissent-ils entre eux, pour produire la politique telle que mise en œuvre? On se base sur des approches théoriques sur la mise en œuvre des politiques inspirées des perspectives de « street level bureaucracy » (Lipsky, 1971, 1980; Smith et Lipsky, 1993 ; Hupe & Hill, 2007 ; Brodkin, 2007, 2011, 2012, 2015; Rice, 2012), du néo-institutionnalisme discursif (Schmidt, 2008, 2010) et de l’Ethnographie institutionnelle (Smith, 1999, 2006; Campbell & Gregor, 2008). On considère que la mise en œuvre de la politique d’activation entraîne non seulement une « appropriation » du cadre institutionnel et systémique par les intervenants de première ligne, mais aussi une co-construction de la politique dans un contexte de gouvernance spécifique. La stratégie de recherche est qualitative et s’inspire de l’approche de l’ethnographie institutionnelle en sociologie, qui propose une méthodologie pour retracer les effets des institutions sur les travailleurs dans leur vie quotidienne (Smith, 2005, 1999, 1987; Campbell and Gregor, 2008). Elle comprend : i) des entretiens avec des intervenants communautaires qui fournissent des services d’aide et d’accompagnement pour l’intégration en emploi portant sur certains dossiers de prestataires du système; ii) des entretiens avec des coordinatrices d’organismes communautaires œuvrant en employabilité, et iii) une collecte et une analyse de la documentation institutionnelle et du cadre de réglementation pour la mise en œuvre du système d’activation. L'analyse aborde le discours institutionnel d'une part et, d'autre part, le discours des répondants du secteur communautaire en employabilité concernant leurs interventions auprès des prestataires dans le cadre des programmes et mesures d’E-Q, et leurs « explications » des pratiques quotidiennes.
Resumo:
Dans le sillage de la récession mondiale de 2008-09, plusieurs questions ont été soulevées dans la littérature économique sur les effets à court et à long terme de la politique budgétaire sur l’activité économique par rapport à son signe, sa taille et sa durée. Ceux-ci ont des implications importantes pour mieux comprendre les canaux de transmission et l’efficacité des politiques budgétaires, avec la politique monétaire étant poursuivi, ainsi que pour leurs retombées économiques. Cette thèse fait partie de ce regain d’intérêt de la littérature d’examiner comment les changements dans la politique budgétaire affectent l’activité économique. Elle repose alors sur trois essais: les effets macroéconomiques des chocs de dépenses publiques et des recettes fiscales, les résultats macroéconomiques de l’interaction entre les politiques budgétaire et monétaire et le lien entre la politique budgétaire et la répartition des revenus. Le premier chapitre examine les effets des chocs de politique budgétaire (chocs de dépenses publiques et chocs de recettes fiscales) sur l’économie canadienne au cours de la période 1970-2010, en s’appuyant sur la méthode d’identification des restrictions de signe développée par Mountford et Uhlig [2009]. En réponse à la récession mondiale, les autorités fiscales dans les économies avancées, dont le Canada ont généralement mis en oeuvre une approche en deux phases pour la politique budgétaire. Tout d’abord, ils ont introduit des plans de relance sans précédent pour relancer leurs économies. Par exemple, les mesures de relance au Canada, introduites à travers le Plan d’action économique du Canada, ont été projetées à 3.2 pour cent du PIB dans le budget fédéral de 2009 tandis que l’ "American Recovery and Reinvestment Act"(ARRA) a été estimé à 7 pour cent du PIB. Par la suite, ils ont mis en place des plans d’ajustement en vue de réduire la dette publique et en assurer la soutenabilité à long terme. Dans ce contexte, évaluer les effets multiplicateurs de la politique budgétaire est important en vue d’informer sur l'efficacité de telles mesures dans la relance ou non de l'activité économique. Les résultats montrent que les multiplicateurs d'impôt varient entre 0.2 et 0.5, tandis que les multiplicateurs de dépenses varient entre 0.2 et 1.1. Les multiplicateurs des dépenses ont tendance à être plus grand que les multiplicateurs des recettes fiscales au cours des deux dernières décennies. Comme implications de politique économique, ces résultats tendent à suggérer que les ajustements budgétaires par le biais de grandes réductions de dépenses publiques pourraient être plus dommageable pour l'économie que des ajustements budgétaires par la hausse des impôts. Le deuxième chapitre, co-écrit avec Constant Lonkeng Ngouana, estime les effets multiplicateurs des dépenses publiques aux Etats-Unis en fonction du cycle de la politique monétaire. Les chocs de dépenses publiques sont identifiés comme étant des erreurs de prévision du taux de croissance des dépenses publiques à partir des données d'Enquêtes des prévisionnistes professionnels et des informations contenues dans le "Greenbook". L'état de la politique monétaire est déduite à partir de la déviation du taux des fonds fédéraux du taux cible de la Réserve Fédérale, en faisant recours à une fonction lisse de transition. L'application de la méthode des «projections locales» aux données trimestrielles américaines au cours de la période 1965-2012 suggère que les effets multiplicateurs des dépenses fédérales sont sensiblement plus élevées quand la politique monétaire est accommodante que lorsqu'elle ne l'est pas. Les résultats suggèrent aussi que les dépenses fédérales peuvent stimuler ou non la consommation privée, dépendamment du degré d’accommodation de la politique monétaire. Ce dernier résultat réconcilie ainsi, sur la base d’un cadre unifié des résultats autrement contradictoires à première vue dans la littérature. Ces résultats ont d'importantes implications de politique économique. Ils suggèrent globalement que la politique budgétaire est plus efficace lorsqu'on en a le plus besoin (par exemple, lorsque le taux de chômage est élevé), si elle est soutenue par la politique monétaire. Ils ont également des implications pour la normalisation des conditions monétaires dans les pays avancés: la sortie des politiques monétaires non-conventionnelles conduirait à des multiplicateurs de dépenses fédérales beaucoup plus faibles qu'autrement, même si le niveau de chômage restait élevé. Ceci renforce la nécessité d'une calibration prudente du calendrier de sortie des politiques monétaires non-conventionnelles. Le troisième chapitre examine l'impact des mesures d'expansion et de contraction budgétaire sur la distribution des revenus dans un panel de 18 pays d'Amérique latine au cours de la période 1990-2010, avec un accent sur les deniers 40 pour cent. Il explore alors comment ces mesures fiscales ainsi que leur composition affectent la croissance des revenus des dernier 40 pour cent, la croissance de leur part de revenu ainsi que la croissance économique. Les mesures d'expansion et de contraction budgétaire sont identifiées par des périodes au cours desquels il existe une variation significative du déficit primaire corrigé des variations conjoncturelles en pourcentage du PIB. Les résultats montrent qu'en moyenne l'expansion budgétaire par la hausse des dépenses publiques est plus favorable à la croissance des revenus des moins bien-nantis que celle par la baisse des impôts. Ce résultat est principalement soutenu par la hausse des dépenses gouvernementales de consommation courante, les transferts et subventions. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. Cependant, l'expansion budgétaire pourrait soit n'avoir aucun effet sur la croissance économique ou entraver cette dernière à travers la hausse des dépenses en capital. Les résultats relatifs à la contraction budgétaire sont quelque peu mitigés. Parfois, les mesures de contraction budgétaire sont associées à une baisse de la croissance des revenus des moins bien nantis et à une hausse des inégalités, parfois l'impact de ces mesures est non significatif. Par ailleurs, aucune des mesures n’affecte de manière significative la croissance du PIB. Comme implications de politique économique, les pays avec une certaine marge de manœuvre budgétaire pourraient entamer ou continuer à mettre en œuvre des programmes de "filets de sauvetage"--par exemple les programmes de transfert monétaire conditionnel--permettant aux segments vulnérables de la population de faire face à des chocs négatifs et aussi d'améliorer leur conditions de vie. Avec un potentiel de stimuler l'emploi peu qualifié, une relance budgétaire sage par les dépenses publique courantes pourrait également jouer un rôle important pour la réduction des inégalités. Aussi, pour éviter que les dépenses en capital freinent la croissance économique, les projets d'investissements publics efficients devraient être prioritaires dans le processus d'élaboration des politiques. Ce qui passe par la mise en œuvre des projets d'investissement avec une productivité plus élevée capable de générer la croissance économique nécessaire pour réduire les inégalités.
Resumo:
Depuis plusieurs décennies, des études empiriques réalisées sur plusieurs pays développés ou en émergence ont montré que la baisse de la taille de la famille favorise l’investissement dans l’éducation des enfants, expliquant qu’un nombre élevé d’enfants a un effet d’amenuisement des ressources familiales. Les retombées positives de la baisse de la fécondité sur l’éducation sont largement étudiées et connues. En dépit des résultats controversés des premières études portant sur les pays de l’Afrique de l’Ouest, les récentes études empiriques tendent à confirmer l’effet positif de la baisse de la taille de la famille dans le contexte africain, du moins en milieu urbain. Par contre, jusqu’à présent, très peu d’études semblent intéressées à analyser la répartition de ces retombées entre les enfants, et encore moins à comprendre comment ces dernières affecteraient la structure des inégalités éducatives existantes. Notre étude s’intéresse à explorer la potentielle dimension démographique des inégalités socioéconomiques, notamment les inégalités éducatives dans le contexte de la baisse de la fécondité. Elle vise à apporter des évidences empiriques sur le lien entre la réduction de la taille de la famille et les inégalités éducatives au sein des ménages dans le contexte d’Ouagadougou, Capitale du Burkina Faso, qui connait depuis quelques décennies la chute de la fécondité. Elle analyse aussi l’effet de cette réduction sur la transmission intergénérationnelle des désavantages éducatifs. Pour ce faire, nous proposons un cadre conceptuel pour comprendre les mécanismes par lesquels la relation entre la réduction de la taille de la famille et les inégalités éducatives se tisse. Ce cadre conceptuel s’appuie sur une recension des écrits de divers auteurs à ce sujet. Par la suite, nous procédons à des analyses empiriques permettant de tester ces liens en utilisant les données du projet Demtrend collectées. Les résultats empiriques sont présentés sous forme d’articles scientifiques. Les conclusions du premier article indiquent que la relation entre le nombre d’enfants de la famille et l’éducation varie selon le contexte socioéconomique. En effet, pour les générations qui ont grandi dans un contexte socioéconomique colonial et postcolonial, où le mode de production était essentiellement agricole et l’éducation formelle n’était pas encore valorisée sur le marché du travail, la relation est très faible et positive. Par contre, pour les récentes générations, nous avons observé que la relation devient négative et fortement significative. De plus, les résultats de cet article suggèrent aussi que la famille d’origine des femmes a une incidence significative sur leur comportement de fécondité. Les femmes dont la mère avait un niveau de scolarité élevé (et étaient de statut socioéconomique aisé) ont moins d’enfants comparativement à celles dont leurs parents avaient un faible niveau de scolarité (et pauvres). En retour, leurs enfants sont aussi les plus éduqués. Ce qui sous-tend à un éventuel effet de levier de la réduction de la taille de la famille dans le processus de transmission intergénérationnelle des désavantages éducatifs. Le second article fait une comparaison entre les ménages de grande taille et ceux de petite taille en matière d’inégalités éducatives entre les enfants au sein des ménages familiaux, en considérant le sexe, l’ordre de naissance et les termes d’interaction entre ces deux variables. Les résultats de cet article montrent que généralement les enfants des familles de petite taille sont plus scolarisés et atteignent un niveau d’éducation plus élevé que ceux des grandes familles. Toutefois, les filles ainées des petites familles s’avèrent moins éduquées que leurs pairs. Ce déficit persiste après avoir considéré seulement les ménages familiaux monogames ou encore après le contrôle de la composition de la fratrie. L’émancipation des femmes sur le marché du travail résultant de la réduction de la taille de la famille et la faible contribution des pères dans les activités domestiques expliqueraient en partie cette situation. Malheureusement, nous n’avons pas pu contrôler l’activité économique des mères dans les analyses. Finalement, dans le cadre du troisième et dernier article, nous avons examiné l’effet d’avoir été confié par le passé sur les inégalités éducatives au sein de la fratrie, en comparant ceux qui ont été confiés aux autres membres de leur fratrie qui n’ont jamais été confiés. Dans cet article, nous avons considéré l’aspect hétérogène du confiage en le différenciant selon le sexe, la relation de la mère avec le chef du ménage d’accueil et l’âge auquel l’enfant a été confié. Les résultats montrent qu’avoir été confié dans le passé influence négativement le parcours scolaire des enfants. Cependant, cet effet négatif reste fort et significatif que pour les filles qui ont été confiées après leurs 10 ans d’âge. Un profil qui correspond à la demande de main-d’œuvre en milieu urbain pour l’accomplissement des tâches domestiques, surtout dans le contexte de la baisse de la taille de la famille et l’émancipation des femmes sur le marché du travail.
Resumo:
Le problème grandissant de l’antibiorésistance remet en question plusieurs pratiques reliées à l’utilisation des antibiotiques, dont l’usage à grande échelle pour des fins de promotion de la croissance chez les animaux de consommation. Depuis 2006, le retrait des antibiotiques dans les élevages de poulets de chair en Europe a été associé à la résurgence d’entérite nécrotique, une maladie intestinale causée par la bactérie Clostridium perfringens. Alors que la pathogénie de la maladie semblait bien comprise, le retrait des antibiotiques a montré que peu de solutions de remplacement sont disponibles afin de prévenir cette maladie. Très peu d’études se sont intéressées à mieux caractériser la dynamique des populations de C. perfringens dans les élevages avicoles et l’effet que pouvait avoir le retrait des antibiotiques sur l’évolution de ces populations. La présente étude a évalué l’impact du remplacement des antibiotiques promoteurs de croissance et des anticoccidiens pendant une période de 14 mois, dans huit élevages commerciaux de poulets de chair au Québec. Un protocole d’élevage alternatif, combinant des stratégies telles que des produits à base d’huiles essentielles, des acides organiques et inorganique, une vaccination contre la coccidiose ainsi qu’une amélioration des conditions de démarrage des poussins, a été utilisé en remplacement des antimicrobiens. Les performances zootechniques, la santé digestive ainsi que l’occurrence d’entérite nécrotique pour les lots de poulets soumis au protocole d’élevage alternatif ont été comparées avec celles de lots de poulets de chair recevant une ration conventionnelle. Des analyses moléculaires basées sur la PCR et le PFGE ont été utilisées afin de documenter l’impact de la mise en place du protocole d’élevage alternatif sur les populations de C. perfringens. Les résultats obtenus montrent qu’aucune différence entre les groupes soumis aux deux types de protocoles n'est observée en ce qui a trait à la viabilité en élevage, à l'âge d'abattage et aux taux de condamnations à l'abattoir. Toutefois, les lots soumis au traitement alternatif ont eu des performances moindres pour le poids moyen à l'abattage, le gain moyen quotidien et la conversion alimentaire. Un peu plus de 27% des lots soumis au protocole alternatif ont connu un épisode d’entérite nécrotique clinique. Les analyses ont aussi montré que l’un ou l’autre des protocoles ne semble pas exercer d’influence particulière sur la dynamique temporelle des populations de C. perfringens. Pour les lots soumis au protocole d’élevage alternatif, une forte diversité génétique pour C. perfringens a été liée à un risque augmenté de vivre un épisode d’entérite nécrotique. À l’opposé, les lots alternatifs ayant vécu des épisodes récurrents de la maladie ont montré une diminution significative de la diversité génétique, ainsi qu’une augmentation marquée du nombre de souches de C. perfringens transportant plusieurs gènes de virulence. La présente étude a permis de mieux documenter, d’un point de vue économique et scientifique, la production de poulets de chair élevés sans antibiotiques ni anticoccidiens au Québec. Cette étude est la seule du genre s’étant intéressée à la caractérisation et à la comparaison dans le temps des flores de C. perfringens retrouvées dans les deux types d’élevages. Elle a révélé que la production à grande échelle de poulets de chair élevés sans antibiotiques ni anticoccidiens est possible au Québec, mais que celle-ci présente des impacts sur les performances zootechniques des oiseaux, sur leur santé digestive et sur la dynamique des populations de C. perfringens. Mots-clés : poulets de chair, antibiotiques, huiles essentielles, acides organiques, vaccination coccidiose, performances zootechniques, santé digestive, entérite nécrotique, Clostridium perfringens, dynamique populationnelle
Resumo:
Parmi les lignées des Caesalpinioideae (dans la famille des Leguminosae), l’un des groupes importants au sein duquel les relations phylogénétiques demeurent nébuleuses est le « groupe Caesalpinia », un clade de plus de 205 espèces, réparties présentement entre 14 à 21 genres. La complexité taxonomique du groupe Caesalpinia provient du fait qu’on n’arrive pas à résoudre les questions de délimitations génériques de Caesalpinia sensu lato (s.l.), un regroupement de 150 espèces qui sont provisoirement classées en huit genres. Afin d’arriver à une classification générique stable, des analyses phylogénétiques de cinq loci chloroplastiques et de la région nucléaire ITS ont été effectuées sur une matrice comportant un échantillonnage taxonomique du groupe sans précédent (~84% des espèces du groupe) et couvrant la quasi-totalité de la variation morphologique et géographique du groupe Caesalpinia. Ces analyses ont permis de déterminer que plusieurs genres du groupe Caesalpinia, tels que présentement définis, sont polyphylétiques ou paraphylétiques. Nous considérons que 26 clades bien résolus représentent des genres, et une nouvelle classification générique du groupe Caesalpinia est proposée : elle inclut une clé des genres, une description des 26 genres et des espèces acceptées au sein de ces groupes. Cette nouvelle classification maintient l’inclusion de douze genres (Balsamocarpon, Cordeauxia, Guilandina, Haematoxylum, Hoffmanseggia, Lophocarpinia, Mezoneuron, Pomaria, Pterolobium, Stenodrepanum, Stuhlmannia, Zuccagnia) et en abolit deux (Stahlia et Poincianella). Elle propose aussi de réinstaurer deux genres (Biancaea et Denisophytum), de reconnaître cinq nouveaux genres (Arquita, Gelrebia, Hererolandia, Hultholia et Paubrasilia), et d’amender la description de sept genres (Caesalpinia, Cenostigma, Coulteria, Erythrostemon, Libidibia, Moullava, Tara). Les résultats indiquent qu’il y aurait possiblement aussi une 27e lignée qui correspondrait au genre Ticanto, mais un échantillonage taxonomique plus important serait nécéssaire pour éclaircir ce problème. Les espèces du groupe Caesalpinia ont une répartition pantropicale qui correspond presque parfaitement aux aires du biome succulent, mais se retrouvent aussi dans les déserts, les prairies, les savanes et les forêts tropicales humides. À l’échelle planétaire, le biome succulent consiste en une série d’habitats arides ou semi-arides hautement fragmentés et caractérisés par l’absence de feu, et abrite souvent des espèces végétales grasses, comme les Cactacées dans les néo-tropiques et les Euphorbiacées en Afrique. L’histoire biogéographique du groupe Caesalpinia a été reconstruite afin de mieux comprendre l’évolution de la flore au sein de ce biome succulent. Ce portrait biogéographique a été obtenu grâce à des analyses de datations moléculaires et des changements de taux de diversification, à une reconstruction des aires ancestrales utilisant le modèle de dispersion-extinction-cladogenèse, et à la reconstruction de l’évolution des biomes et du port des plantes sur la phylogénie du groupe Caesalpinia. Ces analyses démontrent que les disjonctions trans-continentales entre espèces sœurs qui appartiennent au même biome sont plus fréquentes que le nombre total de changements de biomes à travers la phylogénie, suggérant qu’il y a une forte conservation de niches, et qu’il est plus facile de bouger que de changer et d’évoluer au sein d’un biome différent. Par ailleurs, contrairement à nos hypothèses initiales, aucun changement de taux de diversification n’est détecté dans la phylogénie, même lorsque les espèces évoluent dans des biomes différents ou qu’il y a changement de port de la plante, et qu’elle se transforme, par exemple, en liane ou herbacée. Nous suggérons que même lorsqu’ils habitent des biomes très différents, tels que les savanes ou les forêts tropicales humides, les membres du groupe Caesalpinia se retrouvent néanmoins dans des conditions écologiques locales qui rappellent celles du biome succulent. Finalement, bien que la diversité des espèces du biome succulent ne se compare pas à celle retrouvée dans les forêts tropicales humides, ce milieu se distingue par un haut taux d’espèces endémiques, réparties dans des aires disjointes. Cette diversité spécifique est probablement sous-estimée et mérite d’être évaluée attentivement, comme en témoigne la découverte de plusieurs nouvelles espèces d’arbres et arbustes de légumineuses dans la dernière décennie. Le dernier objectif de cette thèse consiste à examiner les limites au niveau spécifique du complexe C. trichocarpa, un arbuste des Andes ayant une population disjointe au Pérou qui représente potentiellement une nouvelle espèce. Des analyses morphologiques et moléculaires sur les populations présentes à travers les Andes permettent de conclure que les populations au Pérou représentent une nouvelle espèce, qui est génétiquement distincte et comporte des caractéristiques morphologiques subtiles permettant de la distinguer des populations retrouvées en Argentine et en Bolivie. Nous décrivons cette nouvelle espèce, Arquita grandiflora, dans le cadre d’une révision taxonomique du genre Arquita, un clade de cinq espèces retrouvées exclusivement dans les vallées andines.
Resumo:
RÉSUMÉ Suite à une centaine de publications sur la réduction de la PIO post-exercice, il est connu que parmi un grand nombre de programme d'exercices de différentes durées et intensités, les effets hypotenseurs de l'exercice sur la PIO sont atténués chez les sujets en bonne condition physique. Le mécanisme proposé est l'augmentation potentielle de l'efficacité du système parasympathique avec l'activité physique. Le principal objectif de cette thèse est d'identifier les facteurs contribuants à la réduction de la PIO post-exercice et d'élucider les différents mécanismes possibles. L'étude 1, une méta-analyse, a été menée afin de quantifier les contributions relatives de l'intensité et de la durée de l'effet de l'exercice sur la PIO et la mesure dans laquelle ces variables affectent les sujets sédentaires et normalement actifs. La tendance ressortant des résultats est que la diminution de la PIO suite à de l'exercice aérobie est plus élevée chez les sujets sédentaires que les sujets en bonne condition physique. (ES = -4.198 mm Hg et -2.340 mm Hg, respectivement). L'absence d'un contrôle des liquides ingérés avant l'activité physique est à souligné dans cette étude. L'hyperosmolarité (un effet secondaire de la déshydratation) est l'un des mécanismes proposés influant l'effet hypotenseur de l'exercice. L'étude 2 comparait la réduction de la PIO dans deux conditions, soit hypohydraté et hyperhydraté, avant, pendant et après un effort de 90 minutes sur un ergocycle. Après une diminution initiale pour les deux conditions, la PIO revient aux valeurs de départ pour la condition hypohydratée malgré une perte de poids significative et elle augmente pour la condition hyperhydratée (résultat du protocole d'hydratation). Étant donné le niveau élevé de participants en bonne condition physique dans l'étude 2, la troisième étude a été conçue afin de etude la relation entre la PIO et la condition physique. À l'aide d'analyses corrélationnelles il a été possible d'observer la relation entre le test de vo2max et la moyenne des mesures de PIO prises sur un intervalle de huit semaines. Une relation significative n'existait que pour les participants se situant dans la portion supérieure du continuum de la condition physique. Conclusion: Les résultats de la présente étude suggèrent que l'effet hypotenseur de l'exercice sur la PIO est probablement une réponse homéostatique à la dérégulation de l'humeur aqueuse causée par l'initiation de l'exercice et le protocole d'ingestion de fluides pré-exercice.
Resumo:
Certaines stratégies alimentaires sont actuellement considérées pour remplacer l’usage des antimicrobiens dans les fermes porcines. Les objectifs de cette étude étaient d'évaluer l'effet de la granulométrie et de la texture des aliments sur les concentrations d'acides gras volatils intestinaux, la composition des populations pathogènes et commensales d’E. coli et sur les performances de croissance des porcs. Des porcs d'engraissement (n= 840) ont reçu l'une des six diètes suivantes: moulée texturée 500, 750 et 1250 µm et moulée cubée 500, 750 et 1250 µm. Le gain de poids a été mesuré à chaque changement de formulation de moulée. À l'abattoir, les contenus du caecum et du côlon de 165 porcs ont été échantillonnés pour le dénombrement des E. coli par PCR quantitatif (qPCR) et pour la quantification des AGV. Le gène yccT a été utilisé pour dénombrer les E. coli totaux. Une diminution du taux de conversion alimentaire a été associée avec la moulée cubée et/ou la moulée de 500 µm. Les concentrations d’acide propionique et butyrique, et ce tant au niveau du caecum que du côlon, étaient plus élevées chez les porcs recevant de la moulée texturée que chez ceux recevant de la moulée cubée. Du point de vue de la granulométrie, les concentrations caecales et du côlon d’acide butyrique étaient plus élevées chez les porcs alimentés avec de la moulée de 1250 µm que chez ceux recevant de la moulée de 500 µm. D'autre part, les niveaux intestinaux d’E. coli totaux étaient plus élevés pour les porcs nourris avec de la moulée cubée que pour ceux ayant reçu de la moulée texturée. Les résultats ont montré que la moulée texturée est associée à des performances de croissance plus faibles mais à des changements intestinaux favorables.
Resumo:
Les moteurs de recherche font partie de notre vie quotidienne. Actuellement, plus d’un tiers de la population mondiale utilise l’Internet. Les moteurs de recherche leur permettent de trouver rapidement les informations ou les produits qu'ils veulent. La recherche d'information (IR) est le fondement de moteurs de recherche modernes. Les approches traditionnelles de recherche d'information supposent que les termes d'indexation sont indépendants. Pourtant, les termes qui apparaissent dans le même contexte sont souvent dépendants. L’absence de la prise en compte de ces dépendances est une des causes de l’introduction de bruit dans le résultat (résultat non pertinents). Certaines études ont proposé d’intégrer certains types de dépendance, tels que la proximité, la cooccurrence, la contiguïté et de la dépendance grammaticale. Dans la plupart des cas, les modèles de dépendance sont construits séparément et ensuite combinés avec le modèle traditionnel de mots avec une importance constante. Par conséquent, ils ne peuvent pas capturer correctement la dépendance variable et la force de dépendance. Par exemple, la dépendance entre les mots adjacents "Black Friday" est plus importante que celle entre les mots "road constructions". Dans cette thèse, nous étudions différentes approches pour capturer les relations des termes et de leurs forces de dépendance. Nous avons proposé des méthodes suivantes: ─ Nous réexaminons l'approche de combinaison en utilisant différentes unités d'indexation pour la RI monolingue en chinois et la RI translinguistique entre anglais et chinois. En plus d’utiliser des mots, nous étudions la possibilité d'utiliser bi-gramme et uni-gramme comme unité de traduction pour le chinois. Plusieurs modèles de traduction sont construits pour traduire des mots anglais en uni-grammes, bi-grammes et mots chinois avec un corpus parallèle. Une requête en anglais est ensuite traduite de plusieurs façons, et un score classement est produit avec chaque traduction. Le score final de classement combine tous ces types de traduction. Nous considérons la dépendance entre les termes en utilisant la théorie d’évidence de Dempster-Shafer. Une occurrence d'un fragment de texte (de plusieurs mots) dans un document est considérée comme représentant l'ensemble de tous les termes constituants. La probabilité est assignée à un tel ensemble de termes plutôt qu’a chaque terme individuel. Au moment d’évaluation de requête, cette probabilité est redistribuée aux termes de la requête si ces derniers sont différents. Cette approche nous permet d'intégrer les relations de dépendance entre les termes. Nous proposons un modèle discriminant pour intégrer les différentes types de dépendance selon leur force et leur utilité pour la RI. Notamment, nous considérons la dépendance de contiguïté et de cooccurrence à de différentes distances, c’est-à-dire les bi-grammes et les paires de termes dans une fenêtre de 2, 4, 8 et 16 mots. Le poids d’un bi-gramme ou d’une paire de termes dépendants est déterminé selon un ensemble des caractères, en utilisant la régression SVM. Toutes les méthodes proposées sont évaluées sur plusieurs collections en anglais et/ou chinois, et les résultats expérimentaux montrent que ces méthodes produisent des améliorations substantielles sur l'état de l'art.
Resumo:
L’objectif de ce mémoire est d’acquérir une connaissance détaillée sur l’évolution spatiale de la température de surface du sol (GST) au mont Jacques-Cartier et sur la réponse thermique de son îlot de pergélisol alpin aux changements climatiques passés et futurs. L’étude est basée sur un ensemble de mesures de température (GST, sous-sol) et de neige, ainsi que des modèles spatiaux de distribution potentielle de la GST et des simulations numériques du régime thermique du sol. Les résultats montrent que la distribution de la GST sur le plateau est principalement corrélée avec la répartition du couvert nival. Au-dessus de la limite de la végétation, le plateau est caractérisé par un couvert de neige peu épais et discontinu en hiver en raison de la topographie du site et l’action des forts vents. La GST est alors couplée avec les températures de l’air amenant des conditions froides en surface. Dans les îlots de krummholz et les dépressions topographiques sur les versants SE sous le vent, la neige soufflée du plateau s’accumule en un couvert très épais induisant des conditions de surface beaucoup plus chaude que sur le plateau dû à l’effet isolant de la neige. En raison de la quasi-absence de neige en hiver et de la nature du substrat, la réponse du pergélisol du sommet du mont Jacques-Cartier au signal climatique est très rapide. De 1978 à 2014, la température du sol a augmenté à toutes les profondeurs au niveau du forage suivant la même tendance que les températures de l’air. Si la tendance au réchauffement se poursuit telle que prévue par les simulations climatiques produites par le consortium Ouranos, le pergélisol pourrait disparaître d’ici à 2040-2050.
Resumo:
En Amérique du Nord, les pratiques actuelles de conception de l’industrie de la construction suscitent de nombreux et importants problèmes, tant au niveau environnemental, que social et économique. Certaines tendances conceptuelles, telles que l’industrialisation de la construction, le bâtiment vert, l’approche diachronique et la rationalisation spatiale proposent des moyens afin de répondre à cette problématique. La conception synchronique, qui ne se base encore que sur des besoins immédiats, produit des bâtiments statiques qui ne peuvent accommoder l’évolution des besoins. En plus de la phase d’usage qui se révèle la plus coûteuse en termes de consommation d’énergie, d’eau, de matériaux et de génération de déchets, le bâtiment statique est amené à subir de nombreuses rénovations, profondément délétères pour l’environnement et la situation économique des ménages. Dans une perspective d’opérationnalisation du développement durable, la problématique de recherche concerne la considération de la phase d’usage dans le processus conceptuel de l’habitation. Dans l’optique de favoriser une conception plutôt diachronique, 55 projets de rénovation résidentiels ont été analysés et comparés afin de décrire la nature et l’intensité des interventions effectuées. L’examen des plans avant/après rénovation a permis de quantifier le niveau d’intensité des interventions et ainsi, mettre en relief certaines tendances et récurrences des pratiques actuelles. Dans le but de valider si le bâtiment vert est en mesure de répondre aux enjeux environnementaux contemporains de l’habitation, les contenus de trois programmes de certification utilisés en Amérique du Nord, à savoir BOMA-BESt®, LEED®, et Living Building ChallengeTM, sont analysés. Une classification des stratégies proposées montre la répartition des préoccupations envers le bâtiment, les systèmes et l’usager. Une analyse permet de mettre en relief que les considérations semblent, de façon générale, cohérentes avec les impacts associés à l’habitation. Un examen plus ciblé sur la teneur et les objectifs des stratégies considérant l’usager permet l’émergence de deux ensembles thématiques : les cinq sources potentielles d’impacts (énergie, eau, matériaux, déchets et environnement intérieur), ainsi que les quatre thèmes reliés aux objectifs et aux finalités des stratégies (entretien et surveillance; sensibilisation et formation; modélisation et mesurage; comportement et habitude). La discussion a permis d’émettre des pistes d’écoconception pour permettre à l’habitation d’accommoder l’évolution des besoins des occupants, à savoir la « démontabilité », l’aptitude à l’évolution et l’accessibilité. Des recommandations, telles que la nécessité de mieux prendre en compte l’usager comme facteur d’influence des impacts occasionnés par la phase d’usage, sont ensuite proposées. D’autres suggestions appellent à une concrétisation de la performance en suscitant l’implication, l’engagement, la responsabilisation et l’autonomisation des occupants. Enfin, il semble que certaines modifications des programmes de certification et de la législation en vigueur pourraient favoriser l’émergence d’une vision nouvelle concernant la nécessaire réduction de la superficie habitable. Toutes ces opportunités d’amélioration ont le potentiel de mener ce secteur vers une démarche plus globale et systémique, tout en bonifiant de façon majeure les implications environnementales, économiques et sociales de l’habitation.