16 resultados para Benefits of certification

em Université de Montréal, Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Brazilian Amazon is one of the world’s largest tropical forests. It supplies more than 80 % of Brazil’s timber production and makes this nation the second largest producer of tropical wood. The forestry sector is of major importance in terms of economic production and employment creation. However, the Brazilian Amazon is also known for its high deforestation rate and for its rather unsustainably managed timber resources, a fact which puts in the balance the long-term future of the forestry sector in the region. Since the mid- 1990s, with strong support from World Wildlife Fund (WWF), the number of tropical forests certified by the Forest Stewardship Council (FSC) has significantly increased. This is especially true for projects sponsored by large scale companies. The number of community- based forest management projects has also increased. Certification of community-based forest enterprises (CFEs) was initially a goal for the sponsors and community members. Certification is viewed as a way to reach alternative timber markets. In Brazil, the state of Acre has the highest concentration of CFEs certified by FSC. Most of them have been implemented with the support of environmental NGOs and public funds. Environmental NGOs strongly defend the advantages of certification for communities; however, in reality, this option is not that advantageous. Despite all the efforts, the number of participants in each project remains low. Why is this occurring? In this paper, we analyze the underlying motives of a few individual’s participation in CFEs certification projects. We aim to present and discuss some factors that shape the success of CFEs and their later certification. The results are based on surveys conducted in two certified CFEs in the state of Acre.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Funding support for this doctoral thesis has been provided by the Canadian Institutes of Health Research-Public Health Agency of Canada, QICSS matching grant, and la Faculté des études supérieures et postdoctorales-Université de Montréal.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Affiliation: Hélène Delisle: Département de nutrition, Faculté de médecine, Université de Montréal

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les lésions de la moelle épinière ont un impact significatif sur la qualité de la vie car elles peuvent induire des déficits moteurs (paralysie) et sensoriels. Ces déficits évoluent dans le temps à mesure que le système nerveux central se réorganise, en impliquant des mécanismes physiologiques et neurochimiques encore mal connus. L'ampleur de ces déficits ainsi que le processus de réhabilitation dépendent fortement des voies anatomiques qui ont été altérées dans la moelle épinière. Il est donc crucial de pouvoir attester l'intégrité de la matière blanche après une lésion spinale et évaluer quantitativement l'état fonctionnel des neurones spinaux. Un grand intérêt de l'imagerie par résonance magnétique (IRM) est qu'elle permet d'imager de façon non invasive les propriétés fonctionnelles et anatomiques du système nerveux central. Le premier objectif de ce projet de thèse a été de développer l'IRM de diffusion afin d'évaluer l'intégrité des axones de la matière blanche après une lésion médullaire. Le deuxième objectif a été d'évaluer dans quelle mesure l'IRM fonctionnelle permet de mesurer l'activité des neurones de la moelle épinière. Bien que largement appliquées au cerveau, l'IRM de diffusion et l'IRM fonctionnelle de la moelle épinière sont plus problématiques. Les difficultés associées à l'IRM de la moelle épinière relèvent de sa fine géométrie (environ 1 cm de diamètre chez l'humain), de la présence de mouvements d'origine physiologique (cardiaques et respiratoires) et de la présence d'artefacts de susceptibilité magnétique induits par les inhomogénéités de champ, notamment au niveau des disques intervertébraux et des poumons. L'objectif principal de cette thèse a donc été de développer des méthodes permettant de contourner ces difficultés. Ce développement a notamment reposé sur l'optimisation des paramètres d'acquisition d'images anatomiques, d'images pondérées en diffusion et de données fonctionnelles chez le chat et chez l'humain sur un IRM à 3 Tesla. En outre, diverses stratégies ont été étudiées afin de corriger les distorsions d'images induites par les artefacts de susceptibilité magnétique, et une étude a été menée sur la sensibilité et la spécificité de l'IRM fonctionnelle de la moelle épinière. Les résultats de ces études démontrent la faisabilité d'acquérir des images pondérées en diffusion de haute qualité, et d'évaluer l'intégrité de voies spinales spécifiques après lésion complète et partielle. De plus, l'activité des neurones spinaux a pu être détectée par IRM fonctionnelle chez des chats anesthésiés. Bien qu'encourageants, ces résultats mettent en lumière la nécessité de développer davantage ces nouvelles techniques. L'existence d'un outil de neuroimagerie fiable et robuste, capable de confirmer les paramètres cliniques, permettrait d'améliorer le diagnostic et le pronostic chez les patients atteints de lésions médullaires. Un des enjeux majeurs serait de suivre et de valider l'effet de diverses stratégies thérapeutiques. De telles outils représentent un espoir immense pour nombre de personnes souffrant de traumatismes et de maladies neurodégénératives telles que les lésions de la moelle épinière, les tumeurs spinales, la sclérose en plaques et la sclérose latérale amyotrophique.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

A current advance within the agricultural industry is the use of genetic engineering to produce novel crops for food production. This technology raises questions about how societies should position themselves with respect to genetically modified (GM) crop development and implementation; namely, how should the potentials and risks of this technology be evaluated? We argue that current methods to evaluate the risks and benefits of GM crops are inadequate and not conducive to the strategic development of this technology, where a way to ameliorate technology assessments for GM crops is to include farmers in the research process of evaluating these crops prior to their commercialization. However, particularities concerning the ethical status of such research require special consideration and vigilance. For example, in such technology assessment initiatives, farmers would occupy both the roles of research participant and research investigator. Other particularities surface due to factors related to the nature of GM crops. These particularities are examined with reference to concepts drawn from the field of research ethics, namely informed consent, compensatory decisions, and issues of participant inclusion/exclusion.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Ce document est une version antérieure du document "On the Individual Optimality of Economic Integration", nov. 2015 : http://hdl.handle.net/1866/12794

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Cette recherche avait pour objectif d’analyser les évaluations de programmes d’études en langues de spécialité de 1er cycle universitaire afin de dégager les enjeux et la pertinence de ces formations. Trois questions de recherche sont poursuivies : • Quels établissements d’enseignement supérieur canadiens offrent des programmes d’études professionnalisant intégrant des compétences langagières sur objectifs spécifiques et le savoir-faire professionnel? • Compte tenu de la nature et de la fonction des programmes et des cours de langues de spécialité au sein des établissements d’enseignement supérieur, - quels sont les enjeux principaux ? - quelles sont les recommandations les plus fréquentes dans les rapports des évaluateurs externes ? L’analyse révèle que les enjeux principaux sont l’apport des formations aux besoins d’emploi ; la correspondance aux besoins des bénéficiaires ; l’évaluation systématique et justifiée lors de la prise de décisions ; la révision, mise à jour et évaluation systématique des programmes ; la collaboration interdisciplinaire et interuniversitaire ; l’enseignement des compétences langagières de la discipline professionnelle sous-jacente ; l’enseignement de la perspective interculturelle ; l’objectif constitutif ou instrumental de l’acquisition des langues ; la professionnalisation de la discipline au lieu de la fonction « service » ; la promotion de programmes, de collaborations et d’échanges internationaux ; l’intégration des TIC ; et la certification en langue de spécialité. Les évaluateurs externes recommandent la modernisation et la réorganisation des cours, la mise sur pied des collaborations, l’amélioration des formules et de l’offre des échanges internationaux, l’élaboration des stratégies pour étudier et planifier le lancement des initiatives, la promotion des bénéfices des connaissances langagières auprès des autres disciplines et facultés, la création des stratégies de révision de programme, et la mise en place des dispositifs pour profiter de nouvelles ressources technologiques. Ainsi, dans un premier temps, les résultats permettent d’apporter à la didactique des langues un éclairage sur la valeur de la fonction formative des mécanismes d’évaluation de programme. Dans un deuxième temps, ils apportent aux praticiens un éclairage sur la qualité, la pertinence et les enjeux des formations en langue de spécialité et un éclairage sur l’importance et l’impact des pratiques évaluatives sur les décisions prises.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Les études antérieures ont démontré les bénéfices de la satisfaction des besoins intrinsèques et du soutien à l’autonomie dans le domaine de l’éducation. Or, l’applicabilité des tenants principaux de la Théorie de l’Auto-Détermination (TAD; Deci & Ryan, 2000) n’a pas été investiguée auprès d’une population clinique d’adolescents. L’objectif de cette thèse doctorale est de faire la lumière sur la façon dont l'adaptation scolaire et sociale peut être favorisée par les agents de socialisation dans le contexte de la réadaptation sociale. Cette thèse est composée de deux études s’intéressant à l’application des tenants clés de la TAD auprès de deux échantillons d’adolescents vivant des problèmes d’adaptation et recevant des services d’éducation spécialisée et de réadaptation sociale. Les relations entre les concepts motivationnels de base sont étudiés afin de déterminer si, comme la TAD le propose, la satisfaction des besoins intrinsèques des jeunes peut être soutenue par le style interpersonnel des agents de socialisation (c.-à-d., le soutien à l’autonomie, l’implication et la structure). Il est aussi vérifié si ces concepts motivationnels améliorent la motivation ainsi que d’autres conséquences qui résultent de leur expérience, proposées par la TAD. La première étude a évalué si le style interpersonnel des enseignants peut favoriser la satisfaction des besoins des élèves, leur style de motivationl, tout comme leur ajustement scolaire. Les élèves en difficulté d’adaptation (N = 115) inscrits aux écoles internes des Centres de Réadaptation en raison de leurs problématiques émotionnelles et comportementales ont rempli les questionnaires à deux reprises, au début et à la fin de l’année scolaire. Les analyses de modèles d’équations structurelles révèlent que l’augmentation du soutien à l’autonomie et de l’implication (mais pas de la structure) des enseignants pendant l’année est associée à une augmentation de la satisfaction des besoins des élèves qui, conséquemment, conduit à une motivation scolaire plus auto-déterminée et à une diminution d’intentions de décrochage à la fin de l’année scolaire. De plus, l’amélioration de la satisfaction des besoins mène directement à une meilleure expérience affective à l’école. La deuxième étude consiste en une recherche expérimentale conduite auprès d’adolescentes en difficulté d’adaptation (N = 29). Le devis expérimental a permis de comparer l’impact de la présence (c. absence) du soutien à l’autonomie sur l’internalisation d’une tâche et sur les conséquences motivationnelles et expérientielles des jeunes. La tâche, fastidieuse mais importante, consistait à de la résolution de problèmes interpersonnels (activité clinique). Les résultats suggèrent qu’un style interpersonnel soutenant l’autonomie a augmenté la motivation auto-déterminée, la perception de la valeur de la tâche et son appréciation, ainsi que diminué les affects négatifs comparativement à la condition sans soutien à l’autonomie. Les résultats sont discutés en lien avec les implications théoriques et pratiques d’étendre la portée de la TAD à une population clinique d’adolescents aux prises avec des difficultés d’adaptation.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L’accident vasculaire cérébral (AVC) est une cause principale de décès et de morbidité dans le monde; une bonne partie des AVC est causée par la plaque d’athérosclérose carotidienne. La prévention de l’AVC chez les patients ayant une plaque carotidienne demeure controversée, vu les risques et bénéfices ambigus associés au traitement chirurgical ou médical. Plusieurs méthodes d’imagerie ont été développées afin d’étudier la plaque vulnérable (dont le risque est élevé), mais aucune n’est suffisamment validée ou accessible pour permettre une utilisation comme outil de dépistage. L’élastographie non-invasive vasculaire (NIVE) est une technique nouvelle qui cartographie les déformations (élasticité) de la plaque afin de détecter les plaque vulnérables; cette technique n’est pas encore validée cliniquement. Le but de ce projet est d’évaluer la capacité de NIVE de caractériser la composition de la plaque et sa vulnérabilité in vivo chez des patients ayant des plaques sévères carotidiennes, en utilisant comme étalon de référence, l’imagerie par résonance magnétique (IRM) à haute-résolution. Afin de poursuivre cette étude, une connaissance accrue de l’AVC, l’athérosclérose, la plaque vulnérable, ainsi que des techniques actuelles d’imagerie de la plaque carotidienne, est requise. Trente-et-un sujets ont été examinés par NIVE par ultrasonographie et IRM à haute-résolution. Sur 31 plaques, 9 étaient symptomatiques, 17 contenaient des lipides, et 7 étaient vulnérables selon l’IRM. Les déformations étaient significativement plus petites chez les plaques contenant des lipides, avec une sensibilité élevée et une spécificité modérée. Une association quadratique entre la déformation et la quantité de lipide a été trouvée. Les déformations ne pouvaient pas distinguer les plaques vulnérables ou symptomatiques. En conclusion, NIVE par ultrasonographie est faisable chez des patients ayant des sténoses carotidiennes significatives et peut détecter la présence d’un coeur lipidique. Des études supplémentaires de progression de la plaque avec NIVE sont requises afin d’identifier les plaques vulnérables.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Le sujet sur lequel porte la présente étude est inspiré de la problématique à la base du développement du commerce électronique : la confiance. En effet, l’accroissement exponentiel du nombre d’internautes et des sites Web commerciaux pose un sérieux problème à ce niveau. Ces sites présentent au public une information et des services divers, mais peu vérifiables. Ainsi, le principal obstacle au développement du commerce électronique avec les particuliers est le manque de confiance qu’inspirent les lieux visités. En effet, comment savoir si l’entreprise existe, quelles sont ses politiques concernant la sécurité ou la gestion des renseignements personnels, etc. La vérification et la certification des sites apparaissent comme une solution de plus en plus attrayante et utilisée pour ajouter cet élément de confiance. Déjà, de nombreux sceaux de qualité sont apparus sur les sites commerciaux. Certains sceaux portent sur la confidentialité tandis que d’autres ciblent la protection des consommateurs. La certification peut provenir de la compagnie même, d’un tiers certificateur ou d’un organisme public. Ces éléments constituent des balises et repères importants pour le consommateur sur Internet. Toutefois, les incidences légales sont multiples et certains concepts demeurent flous. Pour apporter une réponse à ces questions, nous définirons le concept de certification des sites Web et ses enjeux dont plus particulièrement la problématique de la confiance des consommateurs. Les différents objets de la certification seront analysés, tant au niveau de l’entité, du contenu du site que de la dimension transactionnelle de celui-ci. Les processus possibles et les impacts de la certification occupent la seconde partie du travail. Il s’agit d’examiner successivement les étapes menant à la certification, soit l’établissement des standards, de l’évaluation de l’entité et de la certification elle-même. L’analyse des impacts de la certification, tant sur le plan de la portée, de la responsabilité légale et des effets sur la concurrence de la certification constitue quant à eux, l’aboutissement de la recherche, soit de savoir quel est l’impact juridique d’un tel mécanisme. Le but de la recherche est de permettre au lecteur de mieux cerner ce phénomène de l’utilisation de la certification sur Internet avec ses avantages et ses limites. Certes, cet outil peut s’avérer très utile pour bâtir la confiance des consommateurs, promouvoir l’essor du commerce électronique et constituer une forme d’autoréglementation. Toutefois, mal utilisé ou mal encadré, il peut engendrer l’effet inverse et détruire cette confiance si fragile à construire dans un environnement dématérialisé.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Un papier bioactif est obtenu par la modification d’un papier en y immobilisant une ou plusieurs biomolécules. La recherche et le développement de papiers bioactifs est en plein essor car le papier est un substrat peu dispendieux qui est déjà d’usage très répandu à travers le monde. Bien que les papiers bioactifs n’aient pas connus de succès commercial depuis la mise en marche de bandelettes mesurant le taux de glucose dans les années cinquante, de nombreux groupes de recherche travaillent à immobiliser des biomolécules sur le papier pour obtenir un papier bioactif qui est abordable et possède une bonne durée de vie. Contrairement à la glucose oxidase, l’enzyme utilisée sur ces bandelettes, la majorité des biomolécules sont très fragiles et perdent leur activité très rapidement lorsqu’immobilisées sur des papiers. Le développement de nouveaux papiers bioactifs pouvant détecter des substances d’intérêt ou même désactiver des pathogènes dépend donc de découverte de nouvelles techniques d’immobilisation des biomolécules permettant de maintenir leur activité tout en étant applicable dans la chaîne de production actuelle des papiers fins. Le but de cette thèse est de développer une technique d’immobilisation efficace et versatile, permettant de protéger l’activité de biomolécules incorporées sur des papiers. La microencapsulation a été choisie comme technique d’immobilisation car elle permet d’enfermer de grandes quantités de biomolécules à l’intérieur d’une sphère poreuse permettant leur protection. Pour cette étude, le polymère poly(éthylènediimine) a été choisi afin de générer la paroi des microcapsules. Les enzymes laccase et glucose oxidase, dont les propriétés sont bien établies, seront utilisées comme biomolécules test. Dans un premier temps, deux procédures d’encapsulation ont été développées puis étudiées. La méthode par émulsion produit des microcapsules de plus petits diamètres que la méthode par encapsulation utilisant un encapsulateur, bien que cette dernière offre une meilleure efficacité d’encapsulation. Par la suite, l’effet de la procédure d’encapsulation sur l’activité enzymatique et la stabilité thermique des enzymes a été étudié à cause de l’importance du maintien de l’activité sur le développement d’une plateforme d’immobilisation. L’effet de la nature du polymère utilisé pour la fabrication des capsules sur la conformation de l’enzyme a été étudié pour la première fois. Finalement, l’applicabilité des microcapsules de poly(éthylèneimine) dans la confection de papiers bioactifs a été démontré par le biais de trois prototypes. Un papier réagissant au glucose a été obtenu en immobilisant des microcapsules contenant l’enzyme glucose oxidase. Un papier sensible à l’enzyme neuraminidase pour la détection de la vaginose bactérienne avec une plus grande stabilité durant l’entreposage a été fait en encapsulant les réactifs colorimétriques dans des capsules de poly(éthylèneimine). L’utilisation de microcapsules pour l’immobilisation d’anticorps a également été étudiée. Les avancées au niveau de la plateforme d’immobilisation de biomolécules par microencapsulation qui ont été réalisées lors de cette thèse permettront de mieux comprendre l’effet des réactifs impliqués dans la procédure de microencapsulation sur la stabilité, l’activité et la conformation des biomolécules. Les résultats obtenus démontrent que la plateforme d’immobilisation développée peut être appliquée pour la confection de nouveaux papiers bioactifs.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Deux mouvements théologiques et culturels actuellement en croissance rapide suscitent un intérêt mondial, Ibandla lamaNazaretha et les Rastafari. Fondé par le Zulu prédicateur Isaiah Shembe pendant les années 1910, Ibandla lamaNazaretha prend son origine d’une église hiérarchique célébrant dans des temples extérieurs dans la province de KwaZulu-Natal et inclut maintenant un certain nombre de factions regroupées autour de la péninsule de l’Afrique du Sud. Le groupe des Rastafari, quant à lui, né en Jamaïque, a commencé comme une idéologie à plusieurs têtes qui a fleuri dans des zones éparses de l’île des Caraïbes. Il découle des interprétations d’une prophétie généralement attribuée à Marcus Garvey, concernant un roi devant être couronné en Afrique (circa 1920), et qui fut appliquée aux années 1930, avec le couronnement de Ras Tafari Makonnen comme Haile Selassie I, 225e empereur d’Éthiopie. Les adhérents et sympathisants de ces deux mouvements se comptent en dizaines de millions et ils exercent plusieurs types d’influences, tant aux niveaux politique, théologique, social que culturel, en particulier en Afrique et dans les Caraïbes aujourd’hui. Cette thèse soutient que les deux, Ibandla lamaNazaretha et les Rastafari, perpétuent un amalgame entre le « Naziréat » de l’Ancien Testament (Nombres 6:1-8) et le « Nazaréen » de l’évangile de Matthieu (2:23), à travers la dévotion à un seigneur contemporain: Haile Selassie I dans le cas du mouvement Rastafari et Isaiah Shembe dans le cas du mouvement Ibandla lamaNazaretha. Dans ce cadre théologique, à la fois les Rastafari et Ibandla lamaNazaretha ont réanimé les anciens rites de purification judaïques du naziréat jusque-là disparus, et les ont également adaptés, dans le contexte du messianisme, aux préoccupations postcoloniales de l’autochtonie. Grâce à la persistance de l’autochtonie, l’influence des idéaux indiens de résistance non-violente, et l’appropriation des différents thèmes bibliques, les deux mouvements africains noirs ont habilité avec succès leurs membres « dépossédés ». Ils l’ont fait par la création de communautés liminales, alors que des modes de vie agraires et auto-suffisants s’épanouissent en dehors des auspices d’une élite dominante : une herméneutique du nazaritisme unifie les diverses racines hybrides africaines, judaïques, chrétiennes, indiennes, et européennes.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

L’objectif de cette thèse par articles est de présenter modestement quelques étapes du parcours qui mènera (on espère) à une solution générale du problème de l’intelligence artificielle. Cette thèse contient quatre articles qui présentent chacun une différente nouvelle méthode d’inférence perceptive en utilisant l’apprentissage machine et, plus particulièrement, les réseaux neuronaux profonds. Chacun de ces documents met en évidence l’utilité de sa méthode proposée dans le cadre d’une tâche de vision par ordinateur. Ces méthodes sont applicables dans un contexte plus général, et dans certains cas elles on tété appliquées ailleurs, mais ceci ne sera pas abordé dans le contexte de cette de thèse. Dans le premier article, nous présentons deux nouveaux algorithmes d’inférence variationelle pour le modèle génératif d’images appelé codage parcimonieux “spike- and-slab” (CPSS). Ces méthodes d’inférence plus rapides nous permettent d’utiliser des modèles CPSS de tailles beaucoup plus grandes qu’auparavant. Nous démontrons qu’elles sont meilleures pour extraire des détecteur de caractéristiques quand très peu d’exemples étiquetés sont disponibles pour l’entraînement. Partant d’un modèle CPSS, nous construisons ensuite une architecture profonde, la machine de Boltzmann profonde partiellement dirigée (MBP-PD). Ce modèle a été conçu de manière à simplifier d’entraînement des machines de Boltzmann profondes qui nécessitent normalement une phase de pré-entraînement glouton pour chaque couche. Ce problème est réglé dans une certaine mesure, mais le coût d’inférence dans le nouveau modèle est relativement trop élevé pour permettre de l’utiliser de manière pratique. Dans le deuxième article, nous revenons au problème d’entraînement joint de machines de Boltzmann profondes. Cette fois, au lieu de changer de famille de modèles, nous introduisons un nouveau critère d’entraînement qui donne naissance aux machines de Boltzmann profondes à multiples prédictions (MBP-MP). Les MBP-MP sont entraînables en une seule étape et ont un meilleur taux de succès en classification que les MBP classiques. Elles s’entraînent aussi avec des méthodes variationelles standard au lieu de nécessiter un classificateur discriminant pour obtenir un bon taux de succès en classification. Par contre, un des inconvénients de tels modèles est leur incapacité de générer deséchantillons, mais ceci n’est pas trop grave puisque la performance de classification des machines de Boltzmann profondes n’est plus une priorité étant donné les dernières avancées en apprentissage supervisé. Malgré cela, les MBP-MP demeurent intéressantes parce qu’elles sont capable d’accomplir certaines tâches que des modèles purement supervisés ne peuvent pas faire, telles que celle de classifier des données incomplètes ou encore celle de combler intelligemment l’information manquante dans ces données incomplètes. Le travail présenté dans cette thèse s’est déroulé au milieu d’une période de transformations importantes du domaine de l’apprentissage à réseaux neuronaux profonds qui a été déclenchée par la découverte de l’algorithme de “dropout” par Geoffrey Hinton. Dropout rend possible un entraînement purement supervisé d’architectures de propagation unidirectionnel sans être exposé au danger de sur- entraînement. Le troisième article présenté dans cette thèse introduit une nouvelle fonction d’activation spécialement con ̧cue pour aller avec l’algorithme de Dropout. Cette fonction d’activation, appelée maxout, permet l’utilisation de aggrégation multi-canal dans un contexte d’apprentissage purement supervisé. Nous démontrons comment plusieurs tâches de reconnaissance d’objets sont mieux accomplies par l’utilisation de maxout. Pour terminer, sont présentons un vrai cas d’utilisation dans l’industrie pour la transcription d’adresses de maisons à plusieurs chiffres. En combinant maxout avec une nouvelle sorte de couche de sortie pour des réseaux neuronaux de convolution, nous démontrons qu’il est possible d’atteindre un taux de succès comparable à celui des humains sur un ensemble de données coriace constitué de photos prises par les voitures de Google. Ce système a été déployé avec succès chez Google pour lire environ cent million d’adresses de maisons.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Which countries find it optimal to form an economic union? We emphasize the risk-sharing benefits of economic integration. Consider an endowment world economy model, where international financial markets are incomplete and contracts not enforceable. A union solves both frictions among member countries. We uncover conditions on initial incomes and net foreign assets of potential union members such that forming a union is welfare-improving over standing alone in the world economy. Consistently with evidence on economic integration, unions in our model occur (i) relatively infrequently, and (ii) emerge more likely among homogeneous countries, and (iii) rich countries.