986 resultados para Systèmes d’information géographique
Resumo:
L’objectif de cette étude consiste à déterminer si les conventions de l’Organisation internationale du travail (OIT) sont effectives en ce qui concerne l’éradication du travail des enfants en Mauritanie. Cette effectivité est appréciée en mesurant la réception juridique et la réception sociale en Mauritanie de la Convention 29 sur le travail forcé, de la Convention 138 sur l’âge minimum d’admission à l’emploi et de la Convention 182 sur les pires formes de travail des enfants. La réception juridique des conventions est mesurée par un examen de l’intégration de leurs dispositions dans le droit national mauritanien. La réception juridique comprend également l’appréciation du contrôle du respect des conventions en territoire mauritanien. La réception sociale fait référence, quant à elle, aux stratégies de mise en œuvre des conventions de l’OIT par le Gouvernement mauritanien à travers ses programmes et ses politiques. Notre analyse démontre que l’effectivité des Conventions 29, 138 et 182 de l’OIT en ce qui concerne l’éradication du travail des enfants en Mauritanie est, selon nous, partielle. Dans l’ensemble, la situation tend à s’améliorer et le Gouvernement mauritanien tente de respecter l’esprit de ces conventions et de leur faire écho dans le droit national. Toutefois, il n’existe pas beaucoup d’information sur l’impact des programmes mis en place pour éradiquer le travail des enfants.
Resumo:
Les recettes de cuisine sont partout de nos jours, dans les livres, à la télévision, sur l’Internet, ainsi que dans les restaurants et les entreprises alimentaires industrielles. Cette grande présence médiatique et économique soulève la question de savoir s’il est possible de les protéger par le droit de la propriété intellectuelle canadien. L’auteure commence par décrire les recettes et les plats, puis examine si ceux de nature traditionnelle et familiale sont des éléments de culture et s’ils peuvent constituer des savoirs traditionnels. Cela amène l’auteure à examiner si les indications géographiques peuvent procurer aux recettes et aux plats une certaine forme de protection contre leur appropriation à l’usage exclusif d’une personne. L’auteure aborde ensuite les régimes usuels de propriété intellectuelle à l’aune de la recette et du plat de chefs ou de l’industrie. Elle examine en premier ceux de la propriété industrielle. Les recettes et les plats peuvent-ils être des marques de commerce? Peuvent-ils être des secrets de commerce? Peuvent-ils constituer des inventions brevetables? Elle se penche ensuite sur le droit d’auteur et examine si les recettes et les plats peuvent être des œuvres protégeables et s’ils se qualifieraient comme œuvres littéraires ou artistiques. Cet examen l’amène à regarder le développement de la protection des œuvres musicales pour mieux cerner les enjeux pour les recettes. Au terme de son analyse, l’auteure fait ressortir quel régime appert le plus approprié selon la nature des recettes et des pratiques des chefs et des entreprises industrielles.
Resumo:
Les topoisomérases I (topA) et III (topB) sont les deux topoisomérases (topos) de type IA d’Escherichia coli. La fonction principale de la topo I est la relaxation de l’excès de surenroulement négatif, tandis que peu d’information est disponible sur le rôle de la topo III. Les cellules pour lesquelles les deux topoisomérases de type IA sont manquantes souffrent d’une croissance difficile ainsi que de défauts de ségrégation sévères. Nous démontrons que ces problèmes sont majoritairement attribuables à des mutations dans la gyrase qui empêchent l’accumulation d’excès de surenroulement négatif chez les mutants sans topA. L’augmentation de l’activité de la gyrase réalisée par le remplacement de l’allèle gyrB(Ts) par le gène de type sauvage ou par l’exposition des souches gyrB(Ts) à une température permissive, permet la correction significative de la croissance et de la ségrégation des cellules topos de type IA. Nous démontrons également que les mutants topB sont hypersensibles à l’inhibition de la gyrase par la novobiocine. La réplication non-régulée en l’absence de topA et de rnhA (RNase HI) augmente la nécessité de l’activité de la topoisomérase III. De plus, en l’absence de topA et de rnhA, la surproduction de la topoisomérase III permet de réduire la dégradation importante d’ADN qui est observée en l’absence de recA (RecA). Nous proposons un rôle pour la topoisomérase III dans la ségrégation des chromosomes lorsque l’activité de la gyrase n’est pas optimale, par la réduction des collisions fourches de réplication s’observant particulièrement en l’absence de la topo I et de la RNase HI.
Resumo:
Ce travail a permis de démontrer que l’électrofilage, ainsi que l’électronébulisation, sont des méthodes faciles et efficaces de préparation de complexes entre des polymères et des petites molécules. En effet, la plupart des méthodes de préparation de complexes donnent des mélanges inhomogènes à cause de la cristallisation cinétiquement favorisée des petites molécules. Or, un mélange inhomogène peut être très difficile à caractériser. Dans ce travail, l’électrofilage a été utilisé pour la première fois avec succès pour obtenir des nanofils de complexe entre le poly(oxyde d’éthylène) (PEO) et le NaSCN (PEO-NaSCN) ainsi qu’entre le PEO et l’hydroquinone. L’électronébulisation a été utilisée pour obtenir du complexe entre la polycaprolactone (PCL) et l’urée. L’électrofilage n’était pas possible pour le système PCL-urée parce que la solubilité n’était pas suffisante pour atteindre la viscosité minimale requise pour l’électrofilage. L’électronébulisation peut donc complémenter l’électrofilage et rendre la technique applicable à encore plus de systèmes. Les systèmes ont été caractérisés par spectroscopie infrarouge (FT-IR), par diffraction de rayons X (XRD), par calorimétrie différentielle à balayage (DSC) et par microscopies optique et électronique à balayage.
Approximation de la distribution a posteriori d'un modèle Gamma-Poisson hiérarchique à effets mixtes
Resumo:
La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés.
Resumo:
Ce mémoire présente une implantation de la création paresseuse de tâches desti- née à des systèmes multiprocesseurs à mémoire distribuée. Elle offre un sous-ensemble des fonctionnalités du Message-Passing Interface et permet de paralléliser certains problèmes qui se partitionnent difficilement de manière statique grâce à un système de partitionnement dynamique et de balancement de charge. Pour ce faire, il se base sur le langage Multilisp, un dialecte de Scheme orienté vers le traitement parallèle, et implante sur ce dernier une interface semblable à MPI permettant le calcul distribué multipro- cessus. Ce système offre un langage beaucoup plus riche et expressif que le C et réduit considérablement le travail nécessaire au programmeur pour pouvoir développer des programmes équivalents à ceux en MPI. Enfin, le partitionnement dynamique permet de concevoir des programmes qui seraient très complexes à réaliser sur MPI. Des tests ont été effectués sur un système local à 16 processeurs et une grappe à 16 processeurs et il offre de bonnes accélérations en comparaison à des programmes séquentiels équiva- lents ainsi que des performances acceptables par rapport à MPI. Ce mémoire démontre que l’usage des futures comme technique de partitionnement dynamique est faisable sur des multiprocesseurs à mémoire distribuée.
Resumo:
Du fait de la montée des périls environnementaux, le concept de résilience fait l’objet d’une attention croissante dans le champ du développement. Il a d’abord été exploré dans le champ des analyses systémiques, celui des systèmes socio-écologiques en particulier. Il convient toutefois, d’une part d’interroger la pertinence et la portée de ce concept au niveau microéconomique, d’autre part d’interroger les liens qui l’unissent au développement durable. Le cadre conceptuel proposé articule l’approche par les capabilités et l’analyse économique de la gestion des risques, permettant de mettre en avant les capacités d’action face aux risques et de réaction face aux chocs. Il conduit à envisager la possibilité de faire de la résilience une finalité d’un développement durable. Ceci soulève deux difficultés majeures, tenant à la complexité de l’analyse des capacités d’action individuelles, et à l’articulation de ces capacités avec des dynamiques collectives.
Resumo:
Ce mémoire présente une analyse homogène et rigoureuse de l’échantillon d’étoiles naines blanches situées à moins de 20 pc du Soleil. L’objectif principal de cette étude est d’obtenir un modèle statistiquement viable de l’échantillon le plus représentatif de la population des naines blanches. À partir de l’échantillon défini par Holberg et al. (2008), il a fallu dans un premier temps réunir le plus d’information possible sur toutes les candidates locales sous la forme de spectres visibles et de données photométriques. En utilisant les modèles d’atmosphère de naines blanches les plus récents de Tremblay & Bergeron (2009), ainsi que différentes techniques d’analyse, il a été permis d’obtenir, de façon homogène, les paramètres atmosphériques (Teff et log g) des naines blanches de cet échantillon. La technique spectroscopique, c.-à-d. la mesure de Teff et log g par l’ajustement des raies spectrales, fut appliquée à toutes les étoiles de notre échantillon pour lesquelles un spectre visible présentant des raies assez fortes était disponible. Pour les étoiles avec des données photométriques, la distribution d’énergie combinée à la parallaxe trigonométrique, lorsque mesurée, permettent de déterminer les paramètres atmosphériques ainsi que la composition chimique de l’étoile. Un catalogue révisé des naines blanches dans le voisinage solaire est présenté qui inclut tous les paramètres atmosphériques nouvellement determinés. L’analyse globale qui en découle est ensuite exposée, incluant une étude de la distribution de la composition chimique des naines blanches locales, de la distribution de masse et de la fonction luminosité.
Resumo:
Cette thèse est composée de trois essais en économie forestière. Les deux premiers s'intéressent à la fixation de la redevance optimale à laquelle fait face le propriétaire d'une ressource forestière dans un contexte d'information asymétrique. Le troisième analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. La gestion des ressources forestières implique souvent la délégation des droits de coupe par le propriétaire forestier à une entreprise exploitante. Cette délégation prend la forme d'un contrat de concession par lequel le propriétaire forestier octroie les droits d'exploitation aux compagnies forestières, en contrepartie d'une redevance (transfert monétaire). L'octroie des droits d'exploitation s'effectue généralement sous plusieurs modes, dont les plus répandus sont les appels d'offres publics et les contrats de gré à gré, où le propriétaire forestier et la firme exploitante spécifient entre autres la redevance dans les clauses d'exploitation de la forêt. Pour déterminer le mécanisme optimal (choix de la firme, âge de coupe et redevance), le propriétaire forestier a idéalement besoin de connaître les coûts de coupe et de reboisement. Or en réalité, les firmes sont mieux informées sur leurs coûts que le propriétaire forestier. Dans ce contexte d'information asymétrique, le mécanisme optimal doit donc prendre en considération des contraintes informationnelles. Les deux premiers essais caractérisent, sous ces conditions, l'âge de coupe optimal (la rotation optimale) et la redevance optimale. Le premier essai examine le contrat optimal quand le propriétaire forestier cède les droits de coupes à une firme par un accord de gré à gré ou par une procédure d'appel d'offre public au second prix. L'analyse du problème est menée premièrement dans un contexte statique, dans le sens que les coûts de coupe sont parfaitement corrélés dans le temps, puis dans un contexte dynamique, où les coûts sont indépendants dans le temps. L'examen en statique et en dynamique montre que la rotation optimale va satisfaire une version modifiée de la règle de Faustmann qui prévaudrait en information symétrique. Cette modification est nécessaire afin d'inciter la firme à révéler ses vrais coûts. Dans le cas statique, il en résulte que la rotation optimale est plus élevée en information asymétrique qu'en situation de pleine information. Nous montrons également comment le seuil maximal de coût de coupe peut être endogénéisé, afin de permettre au propriétaire d'accroître son profit espéré en s'assurant que les forêts non profitables ne seront pas exploitées. Nous comparons ensuite la redevance optimale en information asymétrique et symétrique. Les redevances forestières dans un arrangement de gré à gré étant généralement, en pratique, une fonction linéaire du volume de bois, nous dérivons le contrat optimal en imposant une telle forme de redevance et nous caractérisons la perte en terme de profit espéré qui résulte de l'utilisation de ce type de contrat plutôt que du contrat non linéaire plus général. Finalement, toujours dans le contexte statique, nous montrons à travers un mécanisme optimal d'enchère au second prix qu'en introduisant ainsi la compétition entre les firmes le propriétaire forestier augmente son profit espéré. Les résultats obtenus dans le contexte dynamique diffèrent pour la plupart de ceux obtenus dans le cas statique. Nous montrons que le contrat optimal prévoit alors que chaque type de firme, incluant celle ayant le coût le plus élevé, obtient une rente strictement positive, laquelle augmente dans le temps. Ceci est nécessaire pour obtenir la révélation à moindre coût à la période courante du véritable type de la firme. Comme implication, la rotation optimale s'accroît aussi dans le temps. Finalement, nous montrons qu'il y a distorsion en asymétrique d'information par rapport à l'optimum de pleine information même pour le coût le plus bas (la réalisation la plus favorable). La concurrence introduite dans le premier essai sous forme d'enchère au second prix suppose que chaque firme connaît exactement son propre coût de coupe. Dans le deuxième essai nous relâchons cette hypothèse. En réalité, ni le propriétaire forestier ni les firmes ne connaissent avec précision les coûts de coupe. Chaque firme observe de manière privée un signal sur son coût. Par exemple chaque firme est autorisée à visiter un lot pour avoir une estimation (signal) de son coût de coupe. Cependant cette évaluation est approximative. Ainsi, le coût de chaque firme va dépendre des estimations (signaux) d'autres firmes participantes. Nous sommes en présence d'un mécanisme à valeurs interdépendantes. Dans ce contexte, la valeur d'une allocation dépend des signaux de toutes les firmes. Le mécanisme optimal (attribution des droits d'exploitation, redevance et âge de coupe) est exploré. Nous déterminons les conditions sous lesquelles le mécanisme optimal peut être implémenté par une enchère au second prix et dérivons la rotation optimale et le prix de réserve dans le contexte de ce type d'enchère. Le troisième essai de la thèse analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. L'un des principaux arguments qui milite en faveur du recours au recyclage est que cela entraînerait une réduction de la coupe de bois, épargnant ainsi des arbres. L'objectif est donc d'aboutir à un nombre d'arbres plus important qu'en l'absence de recyclage. L'idée d'accroître le stock d'arbre tient au fait que les forêts génèrent des externalités: elles créent un flux de services récréatifs, freinent l'érosion des sols et des rives des cours d'eau et absorbent du dioxyde de carbone présent dans l'atmosphère. Étant donné la présence d'externalités, l'équilibre des marchés résulterait en un nombre d'arbre insuffisant, justifiant donc la mise en oeuvre de politiques visant à l'accroître. Le but de ce troisième essai est de voir dans quelle mesure la promotion du recyclage est un instrument approprié pour atteindre un tel objectif. En d'autres mots, comment le recyclage affecte-t-il à long terme la surface de terre en forêt et l'âge de coupe? Nous étudions cette question en spécifiant un modèle dynamique d'allocation d'un terrain donné, par un propriétaire forestier privé, entre la forêt et une utilisation alternative du terrain, comme l'agriculture. Une fois les arbres coupés, il décide d'une nouvelle allocation du terrain. Il le fait indéfiniment comme dans le cadre du modèle de Faustmann. Le bois coupé est transformé en produit final qui est en partie recyclé comme substitut du bois original. Ainsi, les outputs passés affectent le prix courant. Nous montrons que, paradoxalement, un accroissement du taux de recyclage réduira à long terme la surface forestière et donc diminuera le nombre d'arbres plantés. Par contre l'âge de coupe optimal va s'accroître. L'effet net sur le volume de bois offert sur le marché est ambigu. Le principal message cependant est qu'à long terme le recyclage va résulter en une surface en forêt plus petite et non plus grande. Donc, si le but est d'accroître la surface en forêt, il pourrait être préférable de faire appel à d'autres types d'instruments de politique que celui d'encourager le recyclage.
Resumo:
Quand le E-learning a émergé il ya 20 ans, cela consistait simplement en un texte affiché sur un écran d'ordinateur, comme un livre. Avec les changements et les progrès dans la technologie, le E-learning a parcouru un long chemin, maintenant offrant un matériel éducatif personnalisé, interactif et riche en contenu. Aujourd'hui, le E-learning se transforme de nouveau. En effet, avec la prolifération des systèmes d'apprentissage électronique et des outils d'édition de contenu éducatif, ainsi que les normes établies, c’est devenu plus facile de partager et de réutiliser le contenu d'apprentissage. En outre, avec le passage à des méthodes d'enseignement centrées sur l'apprenant, en plus de l'effet des techniques et technologies Web2.0, les apprenants ne sont plus seulement les récipiendaires du contenu d'apprentissage, mais peuvent jouer un rôle plus actif dans l'enrichissement de ce contenu. Par ailleurs, avec la quantité d'informations que les systèmes E-learning peuvent accumuler sur les apprenants, et l'impact que cela peut avoir sur leur vie privée, des préoccupations sont soulevées afin de protéger la vie privée des apprenants. Au meilleur de nos connaissances, il n'existe pas de solutions existantes qui prennent en charge les différents problèmes soulevés par ces changements. Dans ce travail, nous abordons ces questions en présentant Cadmus, SHAREK, et le E-learning préservant la vie privée. Plus précisément, Cadmus est une plateforme web, conforme au standard IMS QTI, offrant un cadre et des outils adéquats pour permettre à des tuteurs de créer et partager des questions de tests et des examens. Plus précisément, Cadmus fournit des modules telles que EQRS (Exam Question Recommender System) pour aider les tuteurs à localiser des questions appropriées pour leur examens, ICE (Identification of Conflits in Exams) pour aider à résoudre les conflits entre les questions contenu dans un même examen, et le Topic Tree, conçu pour aider les tuteurs à mieux organiser leurs questions d'examen et à assurer facilement la couverture des différent sujets contenus dans les examens. D'autre part, SHAREK (Sharing REsources and Knowledge) fournit un cadre pour pouvoir profiter du meilleur des deux mondes : la solidité des systèmes E-learning et la flexibilité de PLE (Personal Learning Environment) tout en permettant aux apprenants d'enrichir le contenu d'apprentissage, et les aider à localiser nouvelles ressources d'apprentissage. Plus précisément, SHAREK combine un système recommandation multicritères, ainsi que des techniques et des technologies Web2.0, tels que le RSS et le web social, pour promouvoir de nouvelles ressources d'apprentissage et aider les apprenants à localiser du contenu adapté. Finalement, afin de répondre aux divers besoins de la vie privée dans le E-learning, nous proposons un cadre avec quatre niveaux de vie privée, ainsi que quatre niveaux de traçabilité. De plus, nous présentons ACES (Anonymous Credentials for E-learning Systems), un ensemble de protocoles, basés sur des techniques cryptographiques bien établies, afin d'aider les apprenants à atteindre leur niveau de vie privée désiré.
Resumo:
L’objectif de cette étude est de saisir une image des éléments explicitement reconnaissables de la recherche en communication visibles dans les revues savantes Canadian Journal of Communication et dans Communication de 1974 à 2005. Il s’agit d’une analyse bibliométrique des articles publiés par les chercheurs d’institutions canadiennes et de leurs références bibliographiques. La bibliométrie est « l’application de méthodes statistiques aux livres et aux autres moyens de communication » (Pritchard, 1969: 348-349). C’est la première fois qu’une analyse de ce type est tentée dans ce corpus particulier. Nous nous sommes appuyés sur des postulats théoriques provenant de la sociologie des sciences et des études en communication scientifique. L’idée maîtresse est la suivante : l’activité scientifique est un « continuum de création de nouvelles connaissances » (Vassallo, 1999), dont l’organisation est basée sur l’échange d’information (Price, 1963; Crane, 1972), qui se traduit en reconnaissance sociale, en autorité scientifique, et constitue un investissement pour l’acquisition de crédibilité (Merton, 1938; Hagstrom, 1965; Bourdieu, 1975; Latour et Woolgar, 1986). À partir de l’analyse des articles, nous identifions s’ils sont le résultat de recherches empiriques ou fondamentales, ou le produit d’une réflexion critique. Il s’agit aussi de détecter les approches méthodologiques et les techniques d’investigation utilisées, ainsi que les sujets qui y sont abordés par les chercheurs. Nous détectons également les principaux lieux de recherche (universités et types de départements). Nous analysons aussi les thématiques des articles. Enfin, nous analysons des références bibliographiques des articles afin de cerner les sources d’idées qui y sont décelables. Notre corpus principal comporte 1154 articles et 12 840 titres de documents en référence. L’analyse bibliométrique des articles révèle ainsi une recherche canadienne en communication d’emblée qualitative, intéressée pour les spécificités historiques, le contexte social et la compréhension des interrelations sous-jacentes aux phénomènes de communication, en particulier, au Canada et au Québec. Au cœur de ces études se distingue principalement l’application de l’analyse de contenu qualitative dans les médias en général. Cependant, à partir de 1980, l’exploration du cinéma, de l’audiovisuel, des nouvelles technologies de l’information et de la communication, ainsi que la multiplication des sujets de recherche, annoncent un déplacement dans l’ordre des intérêts. Communication et le CJC, se distinguent cependant par l’origine linguistique des chercheurs qui y publient ainsi que dans les thématiques. L’analyse des références bibliographiques, et de leurs auteurs, met en relief l’intérêt partagé des chercheurs d’institutions universitaires canadiennes pour les agences de réglementation et les politiques gouvernementales canadiennes s’appuyant souvent sur l’analyse de documents législatifs et de rapports de diverses commissions d’enquête du gouvernement canadien. L’analyse révèle aussi les principales inspirations théoriques et méthodologiques des chercheurs. Parmi les plus citées, on voit Innis, McLuhan, Habermas, Tuchman, Bourdieu, Foucault, Raboy, et Rogers. Mais ces références évoluent dans le temps. On voit aussi une distinction relativement claire entre les sources citées par la recherche francophone et la recherche anglophone.
Resumo:
Les oligonucléotides (ONs) antisens présentent un fort potentiel en tant qu’agents thérapeutiques. Toutefois, leurs propriétés physicochimiques limitent leur utilisation en thérapie génique. Pour pallier aux divers obstacles, des systèmes de vectorisation, tels que les micelles polyioniques (PICMs), ont été développés. Grâce à leur structure unique, les micelles protégent l’ON contre une dégradation prématurée et le couplage d’un ligand à leur surface augmente leur spécificité et leur internalisation. Dans d’autres systèmes, un polymère adjuvant aux propriétés pH-sensibles peut être ajouté pour faciliter la sortie de l’endosome et augmenter l’efficacité de l’ON. L’objectif général de ce mémoire était de mettre au point des PICMs ternaires ciblées pour l’administration d’ONs. Ces micelles assureraient à la fois l’internalisation cellulaire de leur cargaison en interagissant avec des récepteurs cellulaires et sa fuite de l’endosome grâce à un mécanisme de déstabilisation de la membrane endosomale. Pour cela, des PICMs composées d’un copolymère cationique de type poly(éthylène glycol)-bloc-poly(méthacrylate d’(alkylamino)éthyle) et d’un copolymère d’acide méthacrylique ont été préparées. Les propriétés physicochimiques de ces vecteurs ont démontré qu’ils permettaient une condensation efficace de l’acide nucléique et ce, indépendamment de la nature du polymère cationique et de l’acide nucléique. Finalement, une approche de couplage par pont disulfure a été développée afin de greffer au copolymère un fragment d’anticorps dirigé contre les récepteurs de la transferrine. En conclusion, ces travaux démontrent la versatilité et le potentiel des PICMs ternaires en tant que vecteurs d’acide nucléique, et proposent une méthodologie de couplage d’un ligand afin de formuler des PICMs ciblées.
Resumo:
Différents organismes internationaux se sont penchés sur l’école rurale des pays en émergence. La plupart de ces travaux de recherche montrent que ces écoles n’offrent pas une éducation adaptée au milieu dans lesquelles elles sont situées, du fait essentiellement qu’on y a implanté la structure administrative et pédagogique des écoles urbaines sans tenir compte des caractéristiques de la population infantile des zones rurales. Afin de tenter de remédier aux difficultés identifiées, ces organismes ont proposé diverses solutions ou préconisé des politiques adaptées à ce contexte particulier. Le but de cette recherche est d’étudier comment ces recommandations convergent-elles avec les politiques éducatives et dans le quotidien des écoles en milieu rural de deux pays de l’Amérique centrale, le Costa Rica et le Nicaragua. À cette fin, comme cadre d'analyse, nous avons établi six catégories : condition socio-économique, plan d'études et pédagogie, relation école et communauté, enseignants, technologie et finalement, gestion et gouvernance. Pour ce faire, nous analysons les recommandations globales formulées par diverses organisations internationales et d’autres organismes des pays développés à propos de l'éducation rurale. Nous comparons ensuite ces informations avec les décisions politiques prises ces dernières vingt années, dans les deux pays sélectionnés afin de favoriser le développement éducatif des zones rurales. Pour finir, nous observons sur le terrain le quotidien de quelques écoles rurales des deux pays retenus. En partant de l’hypothèse qu’il existe suffisamment d’information et de recommandations permettant l’élaboration des politiques éducatives appropriées pour améliorer les conditions des écoles rurales, le travail présente une analyse multiniveaux (recommandations globales, politiques nationales et pratiques scolaires) en établissant la convergence ou la divergence dans chacune des catégories. Les principaux résultats de la recherche démontrent qu'il existe une convergence entre les pratiques scolaires et les politiques éducatives émises par les pays étudiés, avec quelques exceptions. Quant à la convergence entre les recommandations globales et les politiques émises par ces pays, on ne peut pas parler de convergence de façon générale. La recherche propose l'élaboration de profil de politiques nationales pour chaque pays, en fonction de la manière par laquelle ils abordent la problématique de l'éducation rurale : soit par l’assignation des ressources pour étendre les services éducatifs normalisés pour tous les enfants, ou en produisant des politiques focalisées, créant des programmes spécifiques, faisant remarquer la différence du monde rural.
Resumo:
L'approximation adiabatique en mécanique quantique stipule que si un système quantique évolue assez lentement, alors il demeurera dans le même état propre. Récemment, une faille dans l'application de l'approximation adiabatique a été découverte. Les limites du théorème seront expliquées lors de sa dérivation. Ce mémoire à pour but d'optimiser la probabilité de se maintenir dans le même état propre connaissant le système initial, final et le temps d'évolution total. Cette contrainte sur le temps empêche le système d'être assez lent pour être adiabatique. Pour solutionner ce problème, une méthode variationnelle est utilisée. Cette méthode suppose connaître l'évolution optimale et y ajoute une petite variation. Par après, nous insérons cette variation dans l'équation de la probabilité d'être adiabatique et développons en série. Puisque la série est développée autour d'un optimum, le terme d'ordre un doit nécessairement être nul. Ceci devrait nous donner un critère sur l'évolution la plus adiabatique possible et permettre de la déterminer. Les systèmes quantiques dépendants du temps sont très complexes. Ainsi, nous commencerons par les systèmes ayant des énergies propres indépendantes du temps. Puis, les systèmes sans contrainte et avec des fonctions d'onde initiale et finale libres seront étudiés.
Resumo:
RÉSUMÉ La richesse en ressources naturelles est une source de développement économique et social, mais peut également constituer un facteur de dégradation environnementale et de problèmes pour la santé humaine. Les systèmes techniques de gestion des ressources naturelles ne sont pas suffisants pour apporter des solutions à tous les problèmes environnementaux. Mises à part les catastrophes naturelles, c'est l'intervention humaine qui cause la grande majorité des problèmes environnementaux. C'est pour comprendre cette dynamique entre les facteurs naturels et les facteurs économiques, sociaux, politiques, culturels et psychosociologiques que nous avons choisi de centrer cette thèse sur la dimension humaine des problèmes environnementaux – ce qui implique l'analyse des dimensions psychosociologiques et sociales entourant les problèmes environnementaux. Pour une gestion efficace des ressources naturelles, il nous faut donc comprendre l'action humaine, ses motivations et ses contraintes, ses orientations de valeurs et ses croyances, qui orientent les perceptions, les attitudes et les comportements humains par rapport à leur environnement. Pour ce faire, l’étude de valeurs, attitudes, croyances et comportements passe par l’examen attentif des concepts et de leurs définitions, ainsi que par l’analyse des diverses « dimensions » auxquelles chacun des concepts fait référence. Cette thèse porte justement sur les relations entre les valeurs, les croyances, les attitudes et les comportements humains par rapport aux problèmes environnementaux. Pour ce faire, nous avons utilisé un sondage auprès de 1800 répondants, habitants de la région du bassin versant de la Rio das Velhas, située dans la province du Minas Gerais, au Brésil.