23 resultados para Risques attribuables
Resumo:
Résumé: L’Institut pour l'étude de la neige et des avalanches en Suisse (SLF) a développé SNOWPACK, un modèle thermodynamique multi-couches de neige permettant de simuler les propriétés géophysiques du manteau neigeux (densité, température, taille de grain, teneur en eau, etc.) à partir desquelles un indice de stabilité est calculé. Il a été démontré qu’un ajustement de la microstructure serait nécessaire pour une implantation au Canada. L'objectif principal de la présente étude est de permettre au modèle SNOWPACK de modéliser de manière plus réaliste la taille de grain de neige et ainsi obtenir une prédiction plus précise de la stabilité du manteau neigeux à l’aide de l’indice basé sur la taille de grain, le Structural Stability Index (SSI). Pour ce faire, l’erreur modélisée (biais) par le modèle a été analysée à l’aide de données précises sur le terrain de la taille de grain à l’aide de l’instrument IRIS (InfraRed Integrated Sphere). Les données ont été recueillies durant l’hiver 2014 à deux sites différents au Canada : parc National des Glaciers, en Colombie-Britannique ainsi qu’au parc National de Jasper. Le site de Fidelity était généralement soumis à un métamorphisme à l'équilibre tandis que celui de Jasper à un métamorphisme cinétique plus prononcé. Sur chacun des sites, la stratigraphie des profils de densités ainsi des profils de taille de grain (IRIS) ont été complétés. Les profils de Fidelity ont été complétés avec des mesures de micropénétromètre (SMP). L’analyse des profils de densité a démontré une bonne concordance avec les densités modélisées (R[indice supérieur 2]=0.76) et donc la résistance simulée pour le SSI a été jugée adéquate. Les couches d’instabilités prédites par SNOWPACK ont été identifiées à l’aide de la variation de la résistance dans les mesures de SMP. L’analyse de la taille de grain optique a révélé une surestimation systématique du modèle ce qui est en accord avec la littérature. L’erreur de taille de grain optique dans un environnement à l’équilibre était assez constante tandis que l’erreur en milieux cinétique était plus variable. Finalement, une approche orientée sur le type de climat représenterait le meilleur moyen pour effectuer une correction de la taille de grain pour une évaluation de la stabilité au Canada.
Resumo:
Les villes d’Afrique subsaharienne devront faire face à de grands phénomènes complexes dans les prochaines décennies : une forte croissance démographique, une demande alimentaire croissante, des impacts des changements climatiques, une augmentation des problématiques environnementales dues aux activités humaines en développement. Les difficultés de gestion de ces grands phénomènes s’ajouteront aux problématiques économiques, politiques, alimentaires, législatives, sanitaires et sociales déjà omniprésentes à différentes échelles dans les villes d’Afrique subsaharienne. L’ensemble de ces défis et ces contraintes nuit au développement des activités agricoles urbaines et périurbaines qui ont peu d’options à leur disposition pour bâtir des systèmes efficaces et productifs dans ces milieux denses et perturbés. Les préoccupations de durabilité et de santé peuvent alors souvent se trouver au bas de la liste de priorité des producteurs. L’agriculture maraîchère urbaine et périurbaine peut cependant offrir plusieurs bénéfices importants pour les citoyens et la gestion écologiques des villes. Elle participe d’une part à l’approvisionnement en aliments frais localement produits pour les citoyens urbains de diverses classes sociales. Elle a des impacts positifs sur la sécurité alimentaire et nutritionnelle ainsi que sur les conditions économiques des ménages à faible revenu. La proximité des marchés et des services urbains offrent aussi des avantages intéressants pour les producteurs qui peuvent écouler leur marchandise hautement périssable sur les marchés urbains et s’approvisionner en intrants dans les commerces et les industries urbaines. Les activités agricoles urbaines et périurbaines présentent cependant des risques pour la santé et la qualité de l’environnement urbain et périurbain puisqu’elles utilisent parfois de grandes quantités d’intrants synthétiques ou des sources de fertilisation inappropriée pour la culture des fruits et légumes. Les dernières décennies de domination d’agriculture conventionnelle nous ont permis d’apprendre que les pratiques tels que l’usage abondant d’intrants chimiques et synthétiques, le lourd travail des sols, l’utilisation d’une faible diversité de cultivars à haut rendement et les techniques d’irrigation inadaptée aux conditions locales engendrent des impacts négatifs importants sur le plan environnemental et écologique. Aujourd’hui, de nombreuses solutions de rechange sont proposées pour remplacer le modèle agricole conventionnel mondial. L’agroécologie fait partie de ces solutions de rechange et propose une vision plus intégrative de l’agriculture. Elle propose une vision des systèmes alimentaires en entier plutôt que des paramètres agricoles qui permettent d’augmenter la production alimentaire. Cet essai explore la possibilité de pratiquer une agriculture urbaine et périurbaine basée selon les principes de cette vision agroécologique dans les villes d’Afrique subsaharienne. Cet essai explore aussi de façon complémentaire l’opportunité que représente cette avenue pour répondre aux besoins alimentaires des villes d’Afrique subsaharienne. Les pratiques agroécologiques proposées et décrites offrent des possibilités différentes de travailler sur les principaux éléments agricoles d’une exploitation urbaine ou périurbaine (e.g. travail du sol, fertilisation, irrigation, protection des cultures, organisation des cultures et du paysage). Les pratiques agroécologiques présentent des possibilités variables de transformer les agroécosystèmes urbains en systèmes durables, équitables, socialement et culturellement sensibles ainsi qu’économiquement viables. Pour évaluer si les pratiques agroécologiques ont un bon potentiel d’application dans un lieu donné, il faut regarder si elles offrent la possibilité de répondre aux besoins et aux contraintes du type de production agricole concerné, des acteurs impliqués et des caractéristiques agroécologiques et environnementales du site d’exploitation. Si ces éléments ne sont pas tenus en compte, les agroécosystèmes ne pourront pas tirer profit au maximum des avantages que représente l’approche agroécologique. L’implication des autorités nationales et internationales, ainsi que des investissements dans le domaine de la recherche et du développement sont essentiels pour arriver à une plus grande adoption de pratiques agroécologiques dans les milieux urbains et périurbains.
Resumo:
Les conséquences associées aux changements climatiques peuvent déjà être perçues dans différents secteurs socio-économiques. Tel est le cas des zones côtières. Afin d’assurer la pérennité des populations dans les régions insulaires, différentes mesures d’adaptation côtières peuvent être utilisées. Or, ces mesures peuvent parfois manquer de vision à long terme et d’intégration de l’autre type de réaction aux changements climatiques soit l’atténuation. La difficulté à relier adaptation et atténuation est présente dans plusieurs secteurs, dont les zones côtières. La situation dans les territoires Québécois maritimes (plus précisément les côtes de la Côte-Nord, du Bas- Saint-Laurent et de la Gaspésie-Îles-de-la-Madeleine) est semblable à celle observée ailleurs, mais demeure unique étant donné la composition de ses côtes, l’évolution démographique de ces municipalités et son économie fortement basée sur le tourisme et l’industrie des pêches. Les principaux enjeux retrouvés dans ces territoires sont associés au tourisme, à l’industrie de la pêche, à la densité humaine et aux infrastructures qui en découlent ou au milieu naturel. Ces enjeux présentent différentes vulnérabilités face au changement climatique côtier auxquelles les municipalités doivent s’adapter. Les mesures d’adaptation côtières implantées au Québec peuvent être divisées en deux grandes catégories : les mesures techniques et les mesures règlementaires et politiques. Or, afin de s’adapter adéquatement les municipalités doivent faire preuve de multidisciplinarité et combiner les différentes techniques disponibles, ceci peut présenter une difficulté notable. La situation canadienne à l’extérieur du Québec est similaire pour les territoires Atlantiques Canadiens. Du côté du Pacifique, les types de menaces surviennent dans des proportions différentes à celles de l’Est. De façon générale, les provinces les plus à risques de la hausse du niveau des mers sont aussi celles qui utilisent principalement des mesures de protection d’urgence, optant pour une vision à court terme, ceci incluant le Québec. Le cadre législatif encadrant les territoires côtiers québécois du Golfe est complexe. En effet, il s’agit d’une combinaison de lois et règlements fédéraux et provinciaux qui s’entrecoupent, étant donné l’entrecroisement des compétences gouvernemental dans ce secteur. Ceci peut compliquer d’avantages le travail des municipalités québécoises. Afin de faciliter l’implantation de mesures d’adaptation considérant l’atténuation, les municipalités côtières québécoises pourraient développer un cadre d’évaluation des différentes mesures.
Resumo:
Abstract : Adverse drug reactions (ADRs) are undesirable effects caused after administration of a single dose or prolonged administration of drug or result from the combination of two or more drugs. Idiosyncratic drug reaction (IDR) is an adverse reaction that does not occur in most patients treated with a drug and does not involve the therapeutic effect of the drug. IDRs are unpredictable and often life-threatening. Idiosyncratic reaction is dependent on drug chemical characteristics or individual immunological response. IDRs are a major problem for drug development because they are usually not detected during clinical trials. In this study we focused on IDRs of Nevirapine (NVP), which is a non-nucleoside reverse transcriptase inhibitor used for the treatment of Human Immunodeficiency Virus (HIV) infections. The use of NVP is limited by a relatively high incidence of skin rash. NVP also causes a rash in female Brown Norway (BN) rats, which we use as animal model for this study. Our hypothesis is that idiosyncratic skin reactions associated with NVP treatment are due to post-translational modifications of proteins (e.g., glutathionylation) detectable by MS. The main objective of this study was to identify the proteins that are targeted by a reactive metabolite of Nevirapine in the skin. The specific objectives derived from the general objective were as follow: 1) To implement the click chemistry approach to detect proteins modified by a reactive NVP-Alkyne (NVP-ALK) metabolite. The purpose of using NVP-ALK was to couple it with Biotin using cycloaddition Click Chemistry reaction. 2) To detect protein modification using Western blotting and Mass Spectrometry techniques, which is important to understand the mechanism of NVP induced toxicity. 3) To identify the proteins using MASCOT search engine for protein identification, by comparing obtained spectrum from Mass Spectrometry with theoretical spectrum to find a matching peptide sequence. 4) To test if the drug or drug metabolites can cause harmful effects, as the induction of oxidative stress in cells (via protein glutathionylation). Oxidative stress causes cell damage that mediates signals, which likely induces the immune response. The results showed that Nevirapine is metabolized to a reactive metabolite, which causes protein modification. The extracted protein from the treated BN rats matched 10% of keratin, which implies that keratin was the protein targeted by the NVP-ALK.
Resumo:
Abstract : Images acquired from unmanned aerial vehicles (UAVs) can provide data with unprecedented spatial and temporal resolution for three-dimensional (3D) modeling. Solutions developed for this purpose are mainly operating based on photogrammetry concepts, namely UAV-Photogrammetry Systems (UAV-PS). Such systems are used in applications where both geospatial and visual information of the environment is required. These applications include, but are not limited to, natural resource management such as precision agriculture, military and police-related services such as traffic-law enforcement, precision engineering such as infrastructure inspection, and health services such as epidemic emergency management. UAV-photogrammetry systems can be differentiated based on their spatial characteristics in terms of accuracy and resolution. That is some applications, such as precision engineering, require high-resolution and high-accuracy information of the environment (e.g. 3D modeling with less than one centimeter accuracy and resolution). In other applications, lower levels of accuracy might be sufficient, (e.g. wildlife management needing few decimeters of resolution). However, even in those applications, the specific characteristics of UAV-PSs should be well considered in the steps of both system development and application in order to yield satisfying results. In this regard, this thesis presents a comprehensive review of the applications of unmanned aerial imagery, where the objective was to determine the challenges that remote-sensing applications of UAV systems currently face. This review also allowed recognizing the specific characteristics and requirements of UAV-PSs, which are mostly ignored or not thoroughly assessed in recent studies. Accordingly, the focus of the first part of this thesis is on exploring the methodological and experimental aspects of implementing a UAV-PS. The developed system was extensively evaluated for precise modeling of an open-pit gravel mine and performing volumetric-change measurements. This application was selected for two main reasons. Firstly, this case study provided a challenging environment for 3D modeling, in terms of scale changes, terrain relief variations as well as structure and texture diversities. Secondly, open-pit-mine monitoring demands high levels of accuracy, which justifies our efforts to improve the developed UAV-PS to its maximum capacities. The hardware of the system consisted of an electric-powered helicopter, a high-resolution digital camera, and an inertial navigation system. The software of the system included the in-house programs specifically designed for camera calibration, platform calibration, system integration, onboard data acquisition, flight planning and ground control point (GCP) detection. The detailed features of the system are discussed in the thesis, and solutions are proposed in order to enhance the system and its photogrammetric outputs. The accuracy of the results was evaluated under various mapping conditions, including direct georeferencing and indirect georeferencing with different numbers, distributions and types of ground control points. Additionally, the effects of imaging configuration and network stability on modeling accuracy were assessed. The second part of this thesis concentrates on improving the techniques of sparse and dense reconstruction. The proposed solutions are alternatives to traditional aerial photogrammetry techniques, properly adapted to specific characteristics of unmanned, low-altitude imagery. Firstly, a method was developed for robust sparse matching and epipolar-geometry estimation. The main achievement of this method was its capacity to handle a very high percentage of outliers (errors among corresponding points) with remarkable computational efficiency (compared to the state-of-the-art techniques). Secondly, a block bundle adjustment (BBA) strategy was proposed based on the integration of intrinsic camera calibration parameters as pseudo-observations to Gauss-Helmert model. The principal advantage of this strategy was controlling the adverse effect of unstable imaging networks and noisy image observations on the accuracy of self-calibration. The sparse implementation of this strategy was also performed, which allowed its application to data sets containing a lot of tie points. Finally, the concepts of intrinsic curves were revisited for dense stereo matching. The proposed technique could achieve a high level of accuracy and efficiency by searching only through a small fraction of the whole disparity search space as well as internally handling occlusions and matching ambiguities. These photogrammetric solutions were extensively tested using synthetic data, close-range images and the images acquired from the gravel-pit mine. Achieving absolute 3D mapping accuracy of 11±7 mm illustrated the success of this system for high-precision modeling of the environment.
Resumo:
Destruction de la couche d'ozone, effet de serre, encombrement des sites d'enfouissement, voilà des sujets d'actualité abordés quotidiennement dans les médias. La société de consommation qui a apporté le confort matériel au citoyen, aujourd'hui détruit son environnement et diminue sa qualité de vie. Peut-on rester de glace devant les eaux dans lesquelles il n'est plus permis de se baigner? Devant un soleil qui augmente les risques de cancer ? Devant la qualité de l'air qui se dégrade ? Le citoyen peut, de plus en plus, constater de fait la dégradation de son milieu de vie. Les préoccupations concernant l'environnement du citoyen, qui est aussi un consommateur, se traduisent-ils comportements d'achat ? Comme le mentionne Driscoll (1991), les responsables du marketing doivent déterminer les actions et les compromis que certains consommateurs sont prêts à faire lorsqu'ils achètent un produit. L'objectif de la présente étude est donc de clarifier l'influence du critère environnemental, par rapport au degré de connaissance et d'implication des sujets, sur la perception de la valeur du produit et sur l'intention d'achat du consommateur vis-à-vis les produits "verts". De plus, l'étude permettra d'évaluer l'efficacité de stratégie de prix, de marque, d'efficacité et d'écologie dans le cadre d'une planification de marketing pour les produits environnementaux. Pour réaliser ce travail trois produits sont évalués par un échantillon probabiliste de la ville de Sherbrooke, soit; piles AA, nettoyant tout usage et savon à lessive. Les répondants à l'étude ont été regroupés selon deux niveaux de connaissance et d'implication, soit faible ou élevé. Ce travail débute par une revue de la littérature, suivie de la description de la méthodologie utilisée. Pour sa part, le chapitre 5 se consacre à la présentation et à la discussion des résultats de l'étude. La conclusion présente les limites de l'étude et les implications pour les gens d'affaires.
Resumo:
La réalité scolaire au Québec est un sujet d'actualité depuis quelques temps. En effet, on observe une préoccupation de plus en plus grande à remettre en question le fonctionnement scolaire lorsque l'on regarde les chiffres de décrochage scolaire au secondaire: quatre Québécois sur dix quittent aujourd'hui l'école sans diplôme d'études secondaires (Gruda, 1991). Phlegar (1987) identifie différents facteurs qui amènent les adolescents à délaisser l'école, lesquels se situent à quatre niveaux: académique, scolaire et social, familial et personnel. Selon l'auteure, dès l'entrée scolaire, nous pouvons observer certaines de ces caractéristiques chez les enfants. Pour favoriser une expérience de succès et ainsi développer une motivation à apprendre dans un cadre formel d'enseignement, quand peut-on dire alors qu'un enfant est prêt à intégrer l'école? Le ministre de l'éducation du Québec, monsieur Michel Pagé (Montpetit, 1991), considère l'importance de l'âge chronologique pour déterminer le temps propice à l'entrée scolaire selon un document préparé en 1988 par la Direction des études économiques et démographiques du ministère de l’Éducation. D'après cette recherche interne, l'enfant jeune (celui qui a commencé jeune sa scolarité par dérogation scolaire ou celui dont l'anniversaire se situe entre le premier juillet et le 30 septembre) démontre plus de probabilité de reprendre une année scolaire au primaire et la première année du secondaire que les autres enfants. Toujours selon cette étude, Gagnon (1991) rapporte que les enfants qui entrent à l'école à six ans précis (les enfants jeunes) seraient plus nombreux à persévérer. Malgré cette donnée, le ministre a envisagé l'éventualité de retarder l'entrée scolaire des enfants et de mettre la date d'admission au 31 mai plutôt qu'au 30 septembre comme c'est le cas actuellement (Projet, 1991; Lessard, 1991). Ce dernier considère, en effet, qu'un retard d'un an dans l'entrée à l'école de ces enfants contribuerait à réduire le nombre d'élèves qui redoublent de même que le nombre de ceux qui décrochent du système plus tard. Mais cette étude interne démontre aussi qu'il n'y a aucune relation entre le mois de naissance et la probabilité d'accéder au diplôme d'études secondaires. Ce désir de changement entraîne beaucoup de réactions dans le milieu éducatif, certaines favorables et d'autres non. M. Pagé, devant ces réactions, a ouvert la porte à la possibilité d'utiliser une formule d'évaluation individuelle pour les cas limites. Ce que la Fédération des Commissions Scolaires du Québec (F.C.S.Q.) et la Centrale de l'enseignement du Québec (C.E.Q.) qualifient d'utopie. L'âge d'admission est pour la F.C.S.Q. le seul critère objectif d'admission (1991). Nous remarquons donc que ce débat est principalement centré sur un critère unique de sélection concernant l'entrée scolaire: l'âge chronologique. Mais en existe-t-il d'autres? Ainsi, à partir de l'existence de différentes positions fermes des instances concernées par la formation académique des enfants et des modalités qui régissent l'entrée scolaire, cet essai a pour objectif l'identification des prédicteurs de réussite scolaire pour les enfants à leur entrée au primaire. Qu'il s'agisse d'enfants qui ont des risques de troubles d'apprentissage en lecture (Fedoruk, 1989), d'enfants qui sont doués et qui bénéficieraient d'une dérogation scolaire pour l'âge d'admission (Proctor,Black & Feldhusen, 1986; Proctor, Feldhusen & Black, 1988), ou des enfants qui répondent au critère chronologique d'admission scolaire (Phlegar, 1987), tous ces chercheurs s'entendent pour dire que les performances académiques sont influencées par différents facteurs qui concernent l'enfant et le milieu d'appartenance. De plus, les Gouverneurs et le Président américain adoptaient en février 1990 une série d'objectifs nationaux concernant l'éducation pour l'an 2000 aux États-Unis dont le premier étant que tous les enfants soient prêts à apprendre à leur entrée scolaire primaire (Haycock, 1991). L'équipe de recherche chargée de développer cet objectif (Prince, 1992) considère, dans ses recommandations qu'un système d'évaluation doit comprendre plusieurs dimensions s'intégrant dans les cinq sphères de développement de l'enfant (physique, socio-affectif, style d'apprentissage, langage, cognitions et connaissances) et son environnement (parents et professeurs). Et c'est justement ce que notre étude veut établir. Nous verrons, dans un premier temps, la nature du problème ainsi que l'objectif de la recherche et le cadre théorique qui servent de charpente à la compréhension de cet objet d'étude. Viendront ensuite l'identification du modèle de recension des écrits utilisé suivi des informations concernant la recherche des études scientifiques. Nous ferons ensuite le résumé et l'analyse des recherches primaires retenues en tenant compte des qualités méthodologiques et métrologiques. Nous synthétiserons ces informations pour retenir les résultats valides afin de faire le point sur les résultats disponibles à ce jour. Nous terminerons avec une discussion sur la pertinence des résultats, les limites de l'étude de même que des suggestions concernant de futurs domaines d'investigation.
Resumo:
La toile de fond de notre essai est la transformation du travail social depuis dix (10) ou quinze (15) ans au Québec. Cette transformation est un phénomène inégal suivant les secteurs de travail. Nous l'observons, nous, en Protection de la jeunesse seulement, secteur où elle a été la plus rapide, la plus vive. Secteur aussi qui serait comme un phare pour les autres. C'est aussi un phénomène global et complexe. Il y a des dimensions technocratique [gestion des populations à risques, évaluation épidémiologique, décision centralisée...), juridique [accessibilité à la justice, changements dans les pouvoirs du juge, les Chartes des droits de la personne...), et idéologique [statuts social de l'enfance, primauté de la santé...). Ne pouvant tout aborder dans cet essai nous considérerons deux (2) dimensions qui, ensemble, constitue une systématisation du travail social. La dimension 1: l'institutionnalisation fine du contrôle social sur des situations dites de «protection» et; la dimension 2 la rationalisation du travail concret ou gestion formalisée des opérations. Compte tenu des limites de notre travail, nous ne traiterons pas ces deux (2) dimensions avec une égale énergie. Pour la dimension 1 nous reprendrons les résultats d'autres recherches et nous nous attarderons particulièrement à la dimension 2 en présentant le mouvement de rationalisation dit «Rapport Harvey» et en analysant plus en détail encore son mode d'implantation et ses effets quant à un sous-programme [i.e. l'évaluation-orientation] dans un centre de services sociaux. Avant le Rapport Harvey, il y a eu la mise en oeuvre de la Loi sur la protection de la jeunesse, une «nouvelle façon» de protéger les enfants qu'on appelle institutionnalisation de la Protection de la jeunesse (Chapitre II). Cette institutionnalisation continue comme processus socio-judiciaire global [à preuve Rapport Bouchard et Jasmin aujourd'hui). Quant à nous nous en considérons seulement un aspect particulier: le travail concret ou la définition fine et la mise en forme des opérations. Le tout commence avec la demande du Ministère des services de santé et des services sociaux à un spécialiste en «gestion des opérations».
Resumo:
Deux concepts socio-économiques qui semblent être contradictoires à l'origine font l'objet d'étude de cet essai. Ainsi, par exemple, un auteur nous indique que: "Fille" de la misère et de la nécessité, la coopération a eu à l'origine pour objectif l'abolition du profit alors que, "Fils" de l'abondance, le marketing a été longtemps axé sur la recherche de la maximisation du profit. Cependant, dans le présent travail de recherche nous découvrons qu'il existe aujourd'hui le Marketing Social ou en anglais, Societal Marketing. Ce marketing d'implication sociale vise plutôt une augmentation de la qualité de vie de l'ensemble de la société. On a aussi essayé de démontrer ici que toute entreprise de type coopératif pourrait plus facilement se développer économiquement et socialement, en se servant directement des techniques marketing. L'application des principes de marketing dans la gestion d'associations coopératives nous a permis de faire ressortir les besoins, les alternatives possibles, les menaces ou risques, ainsi que les avantages qui s'offrent à ces types d'entreprises (du "Tiers monde"); particulièrement dans le contexte d'une petite association agricole et coopérative du Pérou. C'est à partir de l'étude de cas de l'Association de producteurs agricoles "Los Incas", de la région centrale péruvienne de Satipo que nous avons tenté d'appliquer les principes modernes du marketing, afin de concevoir un plan ou stratégie de développement économique et social de cette petite entreprise, en indiquant de façon générale le développement régional souhaité; et en dernier lieu, suggérer un plan national d'urgence à plus long terme.
Resumo:
[…] Depuis le succès, parfois trop galvaudé, de la Banque Grameen au Bengladesh, la microfinance est de plus en plus vue comme un des outils privilégiés de développement dans les pays où les capitaux sont rares. L'intérêt pour la microfinance a cumulé au Sommet sur le microcrédit tenu à Washington en février 1997. Le sommet a réuni une pléiade d'acteurs parmi les plus importants de la planète. Un objectif a fait consensus : atteindre 100 millions de familles pauvres de la planète d'ici 2005 et beaucoup d'argent en jeux. D'un autre côté, certains disent qu'il y a un danger à vouloir tourner un outil en une panacée et doutent de ce genre de déclaration typique des grands sommets. L'expansion de la microfinance serait trop rapide et aléatoire et «jeter» trop d'argent aux pauvres est la meilleure recette pour en assurer l'échec D'autres opposants disent également que la microfinance est en train de drainer beaucoup d'argent et d'efforts vers des programmes dont la viabilité est douteuse au détriment des programmes essentiels de santé et d'éducation. Cet essai vise essentiellement à dresser un portrait général de la microfinance dans le contexte du développement international. L'accent est mis sur l'évaluation de la performance de la microfinance sous deux angles : [1] Les performances financières et opérationnelles des institutions de microfinance (IMF). Ici, on considère l'institution comme l'objet de l'évaluation. L'objectif est d'évaluer la pérennité de l'institution, laquelle peut être estimée à travers des indicateurs (ratios) de viabilité financière, de la qualité du portefeuille, de la productivité et d'efficacité dans l'utilisation des actifs immobiles et des capitaux, etc. Plus précisément, on s'intéressera au rendement ajusté sur l'actif, au portefeuille à risque, à l'autosuffisance financière et opérationnelle. [2] Les impacts socio-économiques de la microfinance. Une des prétentions des adeptes de la microfinance est qu'elle puisse contribuer à réduire la pauvreté ou du moins à améliorer le sort des bénéficiaires de crédits. Dans cette optique, l'objet de l'évaluation n'est plus seulement l'institution, il devra aussi englober les effets sur les clients et parfois même sur l'environnement financier si l'objectif est d'amener les clients à intégrer éventuellement le marché financier formel. Or, il n'est pas aisé d'évaluer tous ces impacts de la microfinance. L'essai exposera la problématique entourant ces évaluations d'impacts. Les évaluations de la performance et des impacts sont devenues incontournables. Sans trop entrer en détails sur l'importance de ces évaluations, on peut relever au passage les éléments suivants : - Les bailleurs de fonds veulent savoir si leurs fonds sont utilisés efficacement et s'ils ont des impacts en fonction des objectifs fixés. - Les gestionnaires veulent mieux gérer leurs institutions et satisfaire les bailleurs. - Les organisations d'appuis techniques veulent mieux servir les IMF et avancer les connaissances. - Quant aux clients, on ne leur demande pas souvent leurs avis. Pourtant, ils sont les mieux placés pour connaître les impacts des crédits sur leurs conditions de vie. Les clients informés veulent aussi connaître les risques qu'ils encourent sur les prêts. Certains placent leurs épargnes dans les EMF, ils veulent donc connaître les rendements et les risques de leurs placements. […]
Resumo:
Résumé: Le surpoids et l’obésité dans la population pédiatrique sont des préoccupations grandissantes à l’échelle mondiale. Actuellement, au Canada, près de 21 % des jeunes Canadiens âgés de 2 à 5 ans présentent un surpoids et malheureusement, 6 % d’entre eux souffrent d’obésité. De plus, 80 % de ces enfants risquent d’être obèses à l’âge adulte, ce qui mène à plusieurs impacts sur la santé. Afin de prévenir l’obésité infantile, il est important d’identifier des facteurs de risques, notamment ceux se produisant tôt dans la vie. Plusieurs études ont démontré l’importance de l’environnement fœtal dans l’établissement de la santé métabolique à long terme. Le poids à la naissance a souvent été utilisé comme marqueur de l’exposition prénatale. Cependant, le poids à la naissance n’est qu’un marqueur grossier. L’adiposité à la naissance a été identifiée comme un facteur de risque plus important puisqu’elle permet de prédire de l’adiposité durant l’enfance. Les deux déterminants maternels majeurs de la croissance fœtale sont le statut pondéral et la glycémie maternelle. Récemment, une adipokine a été suggérée comme un déterminant potentiel dans la programmation fœtale de l’obésité. La leptine, qui est produite par les adipocytes, joue un rôle important dans la balance énergétique, mais elle semble aussi importante dans le développement de l’obésité postnatale. Durant la grossesse, le placenta produit une large quantité de leptine et la majorité est sécrétée du côté maternel. Appuyés par le fait que la leptine maternelle circulante est le reflet de la sécrétion placentaire de leptine, nous avons émis l’hypothèse que la leptine maternelle serait associée à l’adiposité du nouveau-né, et ce, indépendamment de la glycémie maternelle. Nous avons étudié la leptine durant l’hyperglycémie provoquée par voie orale (HGPO) chez les femmes enceintes au 2e trimestre. Nous avons montré, chez les femmes en surpoids ou obèse, qu’une plus haute leptine maternelle était lié à une adiposité néonatale augmentée à la naissance. D’un autre côté, chez les femmes minces, une glycémie élevée était liée à une adiposité néonatale augmentée. Ces associations sont indépendantes de la parité, du statut tabagique, du gain de poids durant la grossesse, des triglycérides maternels, du mode d’accouchement, du sexe du nouveau-né et de l’âge gestationnel à la naissance. Ces résultats suggèrent une régulation différentielle entre ces deux marqueurs métaboliques maternels et l’adiposité néonatale, selon le statut pondéral pré-grossesse.
Resumo:
Face à l’augmentation observée des accidents de régénération en forêt boréale et leur impact sur la productivité et la résilience des peuplements denses d’épinette noire, une meilleure compréhension des mécanismes de résilience et une surveillance des risques d’accident de régénération sont nécessaires. L’objectif principal de cette étude visait donc le développement de modèles prédictifs et spatialement explicites de la régénération de l’épinette noire. Plus particulièrement, deux modèles ont été développés soit (1) un modèle théorique, développé à l’aide de données in situ et de données spatiales et (2) un modèle cartographique, utilisant uniquement des données spatiales accessibles telles que les inventaires forestiers provinciaux et l’indice spectral de sévérité des feux « differenced Normalized Burn Ratio » (dNBR). Les résultats obtenus ont permis de constater que la succession rapprochée (< 55 ans) d’une coupe et d’un feu n’entraîne pas automatiquement une ouverture des peuplements d’épinette noire. Tout d’abord, les peuplements affectés par la coupe de récupération de brûlis (1963), immatures lors du feu de 2005, sont caractérisés par une faible régénération. En contrepartie, la régénération à la suite du feu de 2005, observé dans les peuplements coupés entre 1948 et 1967, est similaire à celle observée dans les peuplements non perturbés dans les 60 années précédant le feu. Le modèle théorique sélectionné à l’aide des critères d’information d’Akaike a, quant à lui, permis d'identifier trois variables déterminantes dans le succès ou l’échec de la régénération de l’épinette noire soit (1) la végétation potentielle, (2) le pourcentage de recouvrement du sol par les sphaignes et (3) la sévérité du feu évaluée à l’aide du dNBR. Des validations bootstrap et croisée ont permis de mettre en évidence qu’un modèle utilisant ces trois variables explique 59 % de la variabilité de la régénération observée dans le territoire d’étude., Quant à lui, le modèle cartographique qui utilise uniquement les variables végétation potentielle et dNBR explique 32 % de la variabilité. Finalement ce modèle a permis la création d’une carte de risque d’accident de régénération. Basée sur la précision du modèle, cette carte offre un potentiel intéressant afin de cibler les secteurs les plus à risque et ainsi appuyer les décisions relatives aux reboisements dans les zones incendiées.
Resumo:
Le système financier, agricole, économique et social est en crise. Le bilan pessimiste qui se dresse devant nous requiert une attention accrue de la part des dirigeants, mais d’abord et avant tout, de la population. Présentement, les efforts sont mis dans l’atténuation des risques sur l’environnement, dans l’occultation des symptômes et finalement, à dissimuler le problème. Devant la nécessité d’engager une transition vers un nouveau système aux valeurs basées sur le bien commun, l’innovation et les générations futures, où se situe le Québec? L’objectif général de cet essai est de proposer un développement économique alternatif et positif pour pallier les lacunes du système capitaliste actuel. De cette manière, le Québec pourra réellement s’engager dans la voie de la viabilité. Pour ce faire, cet essai convaincra de l’inaptitude du Produit intérieur brut comme seule mesure de progrès des sociétés. Les indicateurs alternatifs permettent de peindre un portrait plus clair et plus fidèle de ce qui se trame en termes de progrès social, économique et naturel. Les bases de l’économie écologique comme les théories de la décroissance et de l’économie stationnaire sont d’une grande aide pour comprendre ce que ces indicateurs essaient de mesurer. C’est pour cela que les indicateurs de développement durable au Québec deviennent un bon champ d’analyse pour la province. Ceux-ci permettent de déterminer où se situe le Québec sur la voie de la viabilité. Les conclusions quantitatives de cette analyse permettent le développement d’une liste d’indicateurs alternatifs qui peuvent réellement dépeindre un portrait adéquat de la société québécoise en terme de viabilité. Les résultats de ces analyses permettent de conclure que le Québec se situe dans la même impasse que beaucoup de sociétés occidentales : l’économie de marché a réussi à empiéter et intégrer des concepts tels que le développement durable pour se transformer en capitalisme vert. C’est ainsi que le pouvoir du changement revient dans les mains de la population qui fait face à cette absorption capitaliste de la politique, de son développement et de la croissance verte. Les nouvelles approches de développement doivent être par le bas, inclusives, positives, collectives, concertées, organisées et par-dessus tout, communiquées et partagées. Il est temps que le Québec fonde son développement sur son capital humain, et le grand potentiel de sa population pour ainsi permettre la croissance de l’économie dite vernaculaire.
Resumo:
Au cours des trois dernières décennies, un nombre grandissant de chercheurs et de cliniciens se sont intéressés à la méditation comme stratégie de régulation attentionnelle et émotionnelle. Plusieurs études ont mis en évidence un lien entre la pratique de la méditation en pleine conscience, l’alliance thérapeutique et l’empathie. Plus récemment, des pratiques méditatives portant sur l’amour bienveillant et la compassion ont également suscité l’intérêt de la communauté scientifique. Les pratiques de méditation de compassion pourraient s’avérer tout aussi utiles que la pleine conscience dans le développement de l’empathie et offriraient de surcroit une certaine protection contre la fatigue empathique. L’objectif principal de cette thèse consiste à mieux comprendre l’impact de la méditation de compassion sur l’empathie des psychothérapeutes. À cette fin, la thèse est composée de deux articles explorant le lien entre la méditation de compassion et l’empathie des psychothérapeutes sous des angles complémentaires. Le premier article présente une revue des écrits portant sur le lien entre la pratique de la méditation de compassion et l’empathie des psychothérapeutes. L’objectif de cette revue des écrits est de répondre à la question suivante : la méditation de compassion peut-elle contribuer au développement de l’empathie des psychothérapeutes? Étant donné les nombreux liens et les chevauchements entre les pratiques de méditation en pleine conscience et les pratiques de méditation de compassion, les études portant sur le lien entre pleine conscience et empathie sont également considérées dans cette revue des écrits. Il apparaît, au terme de cette revue de littérature, que les pratiques de méditation de compassion peuvent augmenter l’activation de circuits neuronaux importants pour l’empathie. Ces pratiques de méditation semblent également améliorer l’empathie affective et la justesse de la perception empathique lorsque ces variables sont mesurées à l’aide d’échelles d’auto-évaluation. La méditation de compassion diminuerait également l’intensité des affects négatifs accompagnant l’empathie pour la douleur d’autrui. Tout en permettant de constater que la méditation de compassion semble avoir des impacts positifs sur divers aspects de l’empathie, la revue des écrits présentée dans le premier chapitre a permis de relever certaines limites des études citées et de suggérer quelques pistes de recherches futures. Ainsi, on note que la méditation en pleine conscience et la méditation de compassion sont souvent présentées conjointement et ce, à des participants n’ayant aucune expérience préalable de méditation. Cela fait en sorte qu’il est difficile de déterminer avec certitude si les bienfaits rapportés par les participants sont attribuables à la méditation de compassion, ou s’ils sont simplement dûs au fait que les participants ont entamé une pratique de méditation. Cela soulève donc la question suivante : quel est l’impact spécifique de la méditation de compassion sur l’empathie des psychothérapeutes, au delà des bienfaits qu’ils retirent déjà de la méditation en pleine conscience? C’est à cette question que tente de répondre l’étude conduite dans le cadre de la présente thèse et qui constitue l’objet du deuxième article. Dans le cadre de cette étude, un entraînement à la méditation de compassion a été offert à trois psychothérapeutes d’expérience ayant déjà une pratique régulière de la méditation en pleine conscience. L’entraînement proposé consistait en une pratique guidée de la méditation de compassion, offerte sur un enregistrement audio-numérique, à raison de vingt minutes par jour, à tous les deux jours, pendant quatre semaines. Des entrevues semi-structurées ont eu lieu avant l’entraînement, puis au terme des quatre semaines d’entraînement, de même que lors d’un suivi effectué quatre semaines plus tard. Une analyse compréhensive du récit phénoménologique des participants a mis en lumière des changements touchant quatre aspects principaux de l’expérience empathique : 1) la relation à soi; 2) l’expérience empathique elle-même; 3) l’expérience d’une relation thérapeutique; et 4) l’intégration du changement. À travers ces quatre aspects, des changements touchant diverses dimensions de l’expérience empathique sont abordés comme : la compassion pour soi, la pression de performance, la qualité de la présence à l’autre, l’acceptation de l’autre, la tolérance à la souffrance, et l’amour altruiste. Cette étude a donc permis de constater que même des psychothérapeutes d’expérience ayant déjà une pratique régulière de méditation en pleine conscience peuvent retirer des bienfaits de la méditation de compassion, tant au niveau de leur expérience empathique qu’au niveau de la prévention de la fatigue empathique et de l’épuisement professionnel. Cette thèse apporte donc une contribution originale à la compréhension de l’impact spécifique de la méditation de compassion sur l’empathie des psychothérapeutes en permettant de mieux saisir, à partir d’une perspective phénoménologique, l’influence de cette pratique de méditation sur divers aspects et dimensions de l’expérience empathique. En donnant la parole à des psychothérapeutes d’expérience ayant déjà une pratique de méditation en pleine conscience, l’étude met en lumière les bienfaits propres à la méditation de compassion au niveau de l’expérience empathique et au niveau de la prévention de la fatigue empathique. À ce titre, elle offre des pistes permettant d’améliorer tant la formation de base que la formation continue des psychothérapeutes en s’appuyant sur des données scientifiques probantes.
Resumo:
Résumé : La réussite et la persévérance des étudiants inscrits en formation générale adulte est un enjeu social et éducatif au Québec. La diversité et la fragilité de cette clientèle en est un second. Pour l’enseignant dans ce contexte, il est essentiel que des stratégies pédagogiques renforçant l’estime de soi et permettant la différenciation étayent son intervention. Cependant, celui-ci se sent parfois démuni. Des informations sur le parcours scolaire antérieur des étudiants qui lui sont confiés et sur les défis à relever pour chacun lui permettraient d’être plus proactif quant aux risques de décrochage. Un portrait-questionnaire a été élaboré pour répondre au besoin de ces enseignants qui veulent mieux connaître leurs élèves pour mieux les accompagner. Il peut devenir un point d’ancrage pour une relation éducative éclairée et collaborative. Des entrevues interrogeant des enseignants sur leurs perceptions avant l’élaboration de l’outil puis après sa mise à l’essai nous informent sur la pertinence et le gain possible de cette démarche.