990 resultados para Accessible Subring


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’érosion éolienne est un problème environnemental parmi les plus sévères dans les régions arides, semi-arides et les régions sèches sub-humides de la planète. L’érosion des sols accélérée par le vent provoque des dommages à la fois localement et régionalement. Sur le plan local, elle cause la baisse des nutriments par la mobilisation des particules les plus fines et de la matière organique. Cette mobilisation est une des causes de perte de fertilité des sols avec comme conséquence, une chute de la productivité agricole et une réduction de la profondeur de la partie arable. Sur le plan régional, les tempêtes de poussières soulevées par le vent ont un impact non négligeable sur la santé des populations, et la déposition des particules affecte les équipements hydrauliques tels que les canaux à ciel ouvert ainsi que les infrastructures notamment de transport. Dans les régions où les sols sont fréquemment soumis à l’érosion éolienne, les besoins pour des études qui visent à caractériser spatialement les sols selon leur degré de vulnérabilité sont grands. On n’a qu’à penser aux autorités administratives qui doivent décider des mesures à prendre pour préserver et conserver les potentialités agropédologiques des sols, souvent avec des ressources financières modestes mises à leur disposition. Or, dans certaines de ces régions, comme notre territoire d’étude, la région de Thiès au Sénégal, ces études font défaut. En effet, les quelques études effectuées dans cette région ou dans des contextes géographiques similaires ont un caractère plutôt local et les approches suivies (modèles de pertes des sols) nécessitent un nombre substantiel de données pour saisir la variabilité spatiale de la dynamique des facteurs qui interviennent dans le processus de l’érosion éolienne. La disponibilité de ces données est particulièrement problématique dans les pays en voie de développement, à cause de la pauvreté en infrastructures et des problèmes de ressources pour le monitoring continu des variables environnementales. L’approche mise de l’avant dans cette recherche vise à combler cette lacune en recourant principalement à l’imagerie satellitale, et plus particulièrement celle provenant des satellites Landsat-5 et Landsat-7. Les images Landsat couvrent la presque totalité de la zone optique du spectre exploitable par télédétection (visible, proche infrarouge, infrarouge moyen et thermique) à des résolutions relativement fines (quelques dizaines de mètres). Elles permettant ainsi d’étudier la distribution spatiale des niveaux de vulnérabilité des sols avec un niveau de détails beaucoup plus fin que celui obtenu avec des images souvent utilisées dans des études environnementales telles que AVHRR de la série de satellites NOAA (résolution kilométrique). De plus, l’archive complet des images Landsat-5 et Landsat-7 couvrant une période de plus de 20 ans est aujourd’hui facilement accessible. Parmi les paramètres utilisés dans les modèles d’érosion éolienne, nous avons identifiés ceux qui sont estimables par l’imagerie satellitale soit directement (exemple, fraction du couvert végétal) soit indirectement (exemple, caractérisation des sols par leur niveau d’érodabilité). En exploitant aussi le peu de données disponibles dans la région (données climatiques, carte morphopédologique) nous avons élaboré une base de données décrivant l’état des lieux dans la période de 1988 à 2002 et ce, selon les deux saisons caractéristiques de la région : la saison des pluies et la saison sèche. Ces données par date d’acquisition des images Landsat utilisées ont été considérées comme des intrants (critères) dans un modèle empirique que nous avons élaboré en modulant l’impact de chacun des critères (poids et scores). À l’aide de ce modèle, nous avons créé des cartes montrant les degrés de vulnérabilité dans la région à l’étude, et ce par date d’acquisition des images Landsat. Suite à une série de tests pour valider la cohérence interne du modèle, nous avons analysé nos cartes afin de conclure sur la dynamique du processus pendant la période d’étude. Nos principales conclusions sont les suivantes : 1) le modèle élaboré montre une bonne cohérence interne et est sensible aux variations spatiotemporelles des facteurs pris en considération 2); tel qu’attendu, parmi les facteurs utilisés pour expliquer la vulnérabilité des sols, la végétation vivante et l’érodabilité sont les plus importants ; 3) ces deux facteurs présentent une variation importante intra et inter-saisonnière de sorte qu’il est difficile de dégager des tendances à long terme bien que certaines parties du territoire (Nord et Est) aient des indices de vulnérabilité forts, peu importe la saison ; 4) l’analyse diachronique des cartes des indices de vulnérabilité confirme le caractère saisonnier des niveaux de vulnérabilité dans la mesure où les superficies occupées par les faibles niveaux de vulnérabilité augmentent en saison des pluies, donc lorsque l’humidité surfacique et la végétation active notamment sont importantes, et décroissent en saison sèche ; 5) la susceptibilité, c’est-à-dire l’impact du vent sur la vulnérabilité est d’autant plus forte que la vitesse du vent est élevée et que la vulnérabilité est forte. Sur les zones où la vulnérabilité est faible, les vitesses de vent élevées ont moins d’impact. Dans notre étude, nous avons aussi inclus une analyse comparative entre les facteurs extraits des images Landsat et celles des images hyperspectrales du satellite expérimental HYPERION. Bien que la résolution spatiale de ces images soit similaire à celle de Landsat, les résultats obtenus à partir des images HYPERION révèlent un niveau de détail supérieur grâce à la résolution spectrale de ce capteur permettant de mieux choisir les bandes spectrales qui réagissent le plus avec le facteur étudié. Cette étude comparative démontre que dans un futur rapproché, l’amélioration de l’accessibilité à ce type d’images permettra de raffiner davantage le calcul de l’indice de vulnérabilité par notre modèle. En attendant cette possibilité, on peut de contenter de l’imagerie Landsat qui offre un support d’informations permettant tout de même d’évaluer le niveau de fragilisation des sols par l’action du vent et par la dynamique des caractéristiques des facteurs telles que la couverture végétale aussi bien vivante que sénescente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail personnel dans le cadre de SCI6850, recherche individuelle, en vue d'obtenir trois crédits. Présenté à l'École de bibliothéconomie et des sciences de l'information.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au Mali, une loi hospitalière a été adoptée en 2002 pour définir le cadre institutionnel d’une réforme majeure. Cette loi a décrété des transformations substantielles de la structure interne, tant administrative que clinique des établissements publics hospitaliers notamment l’implication des populations locales dans la prise de décision de l’établissement, l’autonomie administrative et financière à travers la délégation budgétaire et l’implication des professionnels de santé à la gestion, l’intégration des services de spécialité et la participation du secteur privé au service public hospitalier. Cependant, la capacité des hôpitaux à réussir les transformations prévues a été remise en question par la majorité des acteurs internes et externes. L’objectif de cette thèse a été d’étudier de quelle manière l’hôpital malien se transforme sous la pression de la décentralisation des pouvoirs de l’État et d’étudier comment les groupes d’acteurs réagissent face à ces changements à partir de deux cadres d’analyse. Le premier cadre intègre les caractéristiques essentielles des transformations hospitalières en termes de différents types de décentralisation et le second cadre inspiré des travaux de Crozier et coll. (1977) analyse les jeux de pouvoir entre les groupes d’acteurs hospitaliers selon deux niveaux à savoir un niveau stratégique et systémique. Pour cela, nous avons conduit une étude multiple de deux cas et utilisé trois modes de collecte des données à savoir les entrevues semi-structurées auprès des informateurs clés, l’analyse documentaire, et l’observation lors de réunions. Dans un premier temps, les analyses ont révélé pour les changements intervenus dans la structure, selon l’importance des responsabilités attribuées à l’hôpital public, (1) plusieurs variantes de la décentralisation. Globalement, l’intention politique était focalisée sur une délégation puis une déconcentration et une dévolution; les mécanismes mis en place ont penché plus vers une déconcentration puis une délégation et une dévolution tandis que les transformations réellement effectuées dans les établissements publics hospitaliers ont plutôt confirmé une déconcentration en plus d’une délégation particulièrement dans le cas de l’implication des populations locales dans la gestion hospitalière. Tandis que l’hôpital public pouvait faire des recettes à partir du recouvrement partiel des coûts des soins auprès des usagers, l’État gardait une main forte sur la gestion financière et la gestion du personnel, et définissait les directives et les objectifs à poursuivre. (2) Les analyses apportent une compréhension des liens existant entre les différents éléments du processus de réforme, le type de mécanisme mis en place dans le cadre de la réforme semble déterminer le type de transformation effectué selon les fonctions que peut assurer l’hôpital public. La logique traduit le passage de la délégation vers une déconcentration qui est jugée comme étant la forme la moins poussée d’une décentralisation. Dans un deuxième temps, les résultats confirment la présence de conflit entre les normes professionnelles établies et reconnues par les professionnels de santé et les normes organisationnelles et institutionnelles mises en avant par la réforme. Elles sont défendues par la majorité des gestionnaires qui sont imputables face aux autorités alors que les normes professionnelles dominent dans les services cliniques. Les deux cas ont mis en évidence le soutien de leur direction générale, il existait une tension dans les réactions des médecins, qui a été variable selon le type de changement structurel visé, tandis que les infirmiers se sont montrés plutôt accessibles face aux nouvelles mesures introduites par la réforme. L’une des originalités de cette thèse tient au fait que très peu de travaux sur les pays en développement ont tenté d’opérationnaliser de façon multidimensionnelle les concepts de décentralisation avant d’analyser les variantes susceptibles d’exister entre eux et les stratégies développées par les groupes d’acteurs de l’hôpital. En outre, alors que la pertinence de la prise en compte des caractéristiques du contexte organisationnel dans la mise en place des réformes des systèmes de soins est au cœur des préoccupations, ce travail est l’un des premiers à analyser l’influence de l’interaction entre le processus de réforme hospitalière et les prises de position des acteurs. Les résultats de cette thèse fournissent des recommandations aux décideurs politiques et aux gestionnaires quant aux modes de changement structurel à privilégier ou en éviter dans la planification, l’exécution et la mise en œuvre du processus de réforme hospitalière en fonction des caractéristiques du contexte organisationnel sanitaire. La planification de la réforme est essentielle : Élaborer un projet d’établissement discuté et validé par l’ensemble des acteurs de l’hôpital. Ce projet doit être compatible avec les objectifs du schéma d’organisation sanitaire nationale et déterminer les moyens en personnel et en équipements, dont l’hôpital doit disposer pour réaliser ses objectifs. Concevoir un cadre budgétaire et financier hospitalier flexible (qui va alléger la chaine de prise de décision), sur lequel reposera le nouveau système de gestion des hôpitaux. La capacité de mobilisation et d’exécution des ressources hospitalières devrait renforcer l’autonomie de gestion. Enfin, promouvoir une culture de l’évaluation et faciliter les évaluations périodiques de la mise en œuvre de la réforme hospitalière par des organismes d’évaluation externes et indépendants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’eau a longtemps été considérée comme une ressource commune non susceptible d’appropriation et accessible à tous. De nos jours, toutefois, face à l’inégale répartition de l’eau sur la planète, à l’augmentation constante de la population et à la multiplication des usages qui entraînent la surexploitation et la pollution des ressources hydriques, l’eau prend une valeur nouvelle. L’eau devient de plus en plus un enjeu stratégique, politique et commercial. En conséquence, la redéfinition du statut juridique de l’eau devient un objet de débat important. Ce débat est avant tout un débat rhétorique et une « bataille » idéologique entre des groupes qui soutiennent différentes approches et qui cherchent à obtenir le monopole de la nouvelle réalité et créer ainsi le nouveau droit. Deux grandes approches s’affrontent pour redéfinir la ressource. La première, celle qui envisage l’eau comme un bien économique, soutient que pour éviter les problèmes de gaspillage et de pollution, l’eau doit être soumise aux lois de l’offre et de la demande. La deuxième, celle qui considère l’eau comme une chose commune, non appropriable et hors commerce, soutient que la valeur d’une ressource aussi vitale que l’eau ne peut être établie par les lois du marché puisque cette alternative ne permet pas d’assurer l’accès à l’eau aux plus démunis de la société. Cette approche prône également la reconnaissance d’un droit humain à l’eau. Notre thèse tente de déterminer comment s’effectue le choix du statut juridique de l’eau, et ce, tant au Québec qu’au Mexique. Notre question de recherche est traitée selon une perspective constructiviste en vertu de laquelle le statut juridique de l’eau serait une réalité « construite » et le nouveau droit serait le résultat des luttes, des oppositions et des compromis entre les acteurs sociaux impliqués. Notre terrain d’étude est le Québec et le Mexique. En effet, ce sont des territoires intégrés économiquement par le biais de l’ALENA où l’on observe des variations importantes en termes de ressources, de prélèvements et de consommation. Au Québec, nous analysons le débat qui a eu lieu lors de la Consultation sur la gestion de l’eau au Québec (1999), notamment les discours concernant le statut de l’eau, la gestion publique/privée des services d’eau et l’exportation en vrac de la ressource. Au Mexique, nous analysons les représentations des acteurs sociaux à l’occasion de l’adoption de la Loi des eaux nationales de 1992, notamment les questions qui comportent un lien étroit avec la symbolique de l’eau. Or, nous avons remarqué que le résultat de ces constructions sociales au sein de ces territoires est complètement différent. Au Québec, on a confirmé le statut de l’eau en tant que chose commune, tandis qu’au Mexique, c’est plutôt la symbolique de l’eau en tant que bien économique qui a été adoptée dans la nouvelle législation portant sur l’eau.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Travail d'intégration réalisé dans le cadre du cours PHT-6113.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La reconnaissance d’objets est une tâche complexe au cours de laquelle le cerveau doit assembler de manière cohérente tous les éléments d’un objet accessible à l’œil afin de le reconnaître. La construction d’une représentation corticale de l’objet se fait selon un processus appelé « bottom-up », impliquant notamment les régions occipitales et temporales. Un mécanisme « top-down » au niveau des régions pariétales et frontales, facilite la reconnaissance en suggérant des identités potentielles de l’objet à reconnaître. Cependant, le mode de fonctionnement de ces mécanismes est peu connu. Plusieurs études ont démontré une activité gamma induite au moment de la perception cohérente de stimuli, lui conférant ainsi un rôle important dans la reconnaissance d’objets. Cependant, ces études ont utilisé des techniques d’enregistrement peu précises ainsi que des stimuli répétitifs. La première étude de cette thèse vise à décrire la dynamique spatio-temporelle de l’activité gamma induite à l’aide de l’électroencéphalographie intracrânienne, une technique qui possède des résolutions spatiales et temporelles des plus précises. Une tâche d’images fragmentées a été conçue dans le but de décrire l’activité gamma induite selon différents niveaux de reconnaissance, tout en évitant la répétition de stimuli déjà reconnus. Afin de mieux circonscrire les mécanismes « top-down », la tâche a été répétée après un délai de 24 heures. Les résultats démontrent une puissante activité gamma induite au moment de la reconnaissance dans les régions « bottom-up ». Quant aux mécanismes « top-down », l’activité était plus importante aux régions occipitopariétales. Après 24 heures, l’activité était davantage puissante aux régions frontales, suggérant une adaptation des procédés « top-down » selon les demandes de la tâche. Très peu d’études se sont intéressées au rythme alpha dans la reconnaissance d’objets, malgré qu’il soit bien reconnu pour son rôle dans l’attention, la mémoire et la communication des régions neuronales distantes. La seconde étude de cette thèse vise donc à décrire plus précisément l’implication du rythme alpha dans la reconnaissance d’objets en utilisant les techniques et tâches identiques à la première étude. Les analyses révèlent une puissante activité alpha se propageant des régions postérieures aux régions antérieures, non spécifique à la reconnaissance. Une synchronisation de la phase de l’alpha était, quant à elle, observable qu’au moment de la reconnaissance. Après 24 heures, un patron similaire était observable, mais l’amplitude de l’activité augmentait au niveau frontal et les synchronies de la phase étaient davantage distribuées. Le rythme alpha semble donc refléter des processus attentionnels et communicationnels dans la reconnaissance d’objets. En conclusion, cette thèse a permis de décrire avec précision la dynamique spatio-temporelle de l’activité gamma induite et du rythme alpha ainsi que d’en apprendre davantage sur les rôles potentiels que ces deux rythmes occupent dans la reconnaissance d’objets.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Des recherches antérieures sur les émotions en contexte organisationnel, notamment autour des notions de travail émotionnel, de contrat psychologique et d'équité, ont souvent soulevé la question de la rationalité et du caractère approprié ou non des manifestations émotionnelles, ainsi que sur les mécanismes utilisés pour contrôler et modérer celles-ci. Cependant, peu de recherche empirique a été effectuée sur la façon dont les employés eux-mêmes font sens de leurs émotions au travail et le processus par lequel ils parviennent à rendre celle-ci compréhensibles et légitimes, à la fois pour eux-mêmes et pour autrui. Au cours des dernières années, un courant de recherche émergent tend toutefois à mettre de côté la perspective normative / rationaliste pour soulever ce type de questions. Ainsi, au lieu d'être considérées comme des expériences strictement subjectives, privées, voire inaccessibles, les émotions y sont envisagées à travers les discours et les mises en récits dont elles font l’objet. Les émotions apparaissent ainsi non seulement exprimées dans le langage et la communication, mais construites et négociées à travers eux. La recherche présente développe empiriquement cette perspective émergente, notamment en faisant appel aux théories du sensemaking et de la narration, à travers l’analyse détaillée des récits de quatre employés chargés du soutien à la vente pour un revendeur de produits informatiques. En demandant à mes sujets de parler de leurs expériences émotionnelles et en analysant leurs réponses selon une méthodologie d’analyse narrative, cette recherche explore ainsi la façon dont les employés parviennent à construire le sens et la légitimité de leurs expériences émotionnelles. Les résultats suggèrent entre autres que ces processus de construction de sens sont très étroitement liés aux enjeux d’identité et de rôle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette étude ethnographique porte sur le réseau social du tango argentin à Montréal, les valeurs esthétiques du tango, l’interprétation de l’expérience de la danse acquise au cours du processus de socialisation et les différents agents de socialisation. Dans un contexte de réappropriation et de déterritorialisation d’un savoir-faire comme le tango, les références symboliques relatives à son contexte d’origine, son imaginaire collectif et son contexte sociohistorique sont moins accessibles. Ceci semble appeler chez les danseurs montréalais une sorte de surdétermination de l’expérience immédiate, concrète et interactive de la danse dans la construction d’un sens collectif. Cette recherche s’intéresse plutôt à la transposition dans le réseau montréalais de certaines normes esthétiques en lien avec les modalités interactives de la danse. Ces normes esthétiques induisent une attention particulière portée à la qualité de l’expérience se reflétant dans les pratiques et les discours. Ces valeurs esthétiques remontent au contexte d’origine du tango et à la rencontre entre différents univers socialisateurs transnationaux à différentes étapes de son évolution. De ce type de rencontres «transesthétiques», s’est développé un dualisme entre le danser pour les autres et le danser pour soi, dans les représentations et la mise en forme d’une expérience dansée. À Montréal, c’est avec emphase qu’on observe la cohabitation de ces deux systèmes de valeurs en apparence antagonistes où, d’une part, est valorisé l’exhibition du soi et, d’autre part, sont priorisés l’intériorité et l’expérience subjective. En bref, ce mémoire explore les relations complexes qui existent entre les processus culturels et leurs produits, l’expérience et le sens, entre la subjectivité individuelle et la collectivité, et redéfinit l’agentivité des acteurs sociaux en étudiant les modes spécifiques de production du sens dans un art comme la danse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’accident vasculaire cérébral (AVC) est une cause principale de décès et de morbidité dans le monde; une bonne partie des AVC est causée par la plaque d’athérosclérose carotidienne. La prévention de l’AVC chez les patients ayant une plaque carotidienne demeure controversée, vu les risques et bénéfices ambigus associés au traitement chirurgical ou médical. Plusieurs méthodes d’imagerie ont été développées afin d’étudier la plaque vulnérable (dont le risque est élevé), mais aucune n’est suffisamment validée ou accessible pour permettre une utilisation comme outil de dépistage. L’élastographie non-invasive vasculaire (NIVE) est une technique nouvelle qui cartographie les déformations (élasticité) de la plaque afin de détecter les plaque vulnérables; cette technique n’est pas encore validée cliniquement. Le but de ce projet est d’évaluer la capacité de NIVE de caractériser la composition de la plaque et sa vulnérabilité in vivo chez des patients ayant des plaques sévères carotidiennes, en utilisant comme étalon de référence, l’imagerie par résonance magnétique (IRM) à haute-résolution. Afin de poursuivre cette étude, une connaissance accrue de l’AVC, l’athérosclérose, la plaque vulnérable, ainsi que des techniques actuelles d’imagerie de la plaque carotidienne, est requise. Trente-et-un sujets ont été examinés par NIVE par ultrasonographie et IRM à haute-résolution. Sur 31 plaques, 9 étaient symptomatiques, 17 contenaient des lipides, et 7 étaient vulnérables selon l’IRM. Les déformations étaient significativement plus petites chez les plaques contenant des lipides, avec une sensibilité élevée et une spécificité modérée. Une association quadratique entre la déformation et la quantité de lipide a été trouvée. Les déformations ne pouvaient pas distinguer les plaques vulnérables ou symptomatiques. En conclusion, NIVE par ultrasonographie est faisable chez des patients ayant des sténoses carotidiennes significatives et peut détecter la présence d’un coeur lipidique. Des études supplémentaires de progression de la plaque avec NIVE sont requises afin d’identifier les plaques vulnérables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal www.bib.umontreal.ca/MU).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Suite à plus de deux années de recherches, le projet de l’American Bar Association (ABA) concernant la juridiction du cyberespace, « Achieving Legal and Business Order in Cyberspace: A Report on Global Jurisdiction Issues Created by the Internet », a été publié dans l’édition du mois d’août 2000 de la revue juridique The Business Lawyer. Ce rapport poursuivait deux objectifs distincts : Tout d’abord, effectuer une analyse globale des complexités potentielles entourant les conflits juridictionnels découlant du commerce en ligne. Ensuite, élaborer une liste exhaustive des solutions pouvant être utilisées pour résoudre de tels conflits. Le présent article se veut un résumé concis et accessible des trois grandes sections du « Cyberspace Jurisdiction Report » : (1) les solutions proposées aux problèmes juridictionnels découlant des conflits résultant du commerce électronique ; (2) afin d’appuyer les solutions proposées : l’utilisation d’exemples d’occasions où la technologie a déjà, par le passé, causé la métamorphose de certains paradigmes juridictionnels; et (3) afin d’appuyer les solutions proposées : l’utilisation d’un contexte doctrinal."

Relevância:

10.00% 10.00%

Publicador:

Resumo:

"Ce texte se veut une réflexion sur les points à considérer avant l'adoption d'un système de dépôt électronique accessible à toutes les cours du Canada. En prenant pour exemple l'expérience torontoise, l'auteur souligne une série d'éléments à considérer avant la mise en œuvre d'un tel processus, à savoir : La nécessité de tenir compte des coûts associés à la formation des avocats, des juges, ainsi que du personnel juridique; L'attachement au document "" papier "" et le manque d'unanimité quant à la valeur du document électronique; et L'impact négatif que peut avoir l'informatisation des données sur la vie privée des contribuables. L'auteur conclu en ventant l'aspect centralisé du projet de dépôt électronique proposé par la Cour suprême en soulignant toutefois qu'un tel projet devra nécessairement évaluer les besoins des utilisateurs du système afin d'en tenir compte lors de sa conception."

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La protection des renseignements personnels est au cœur des préoccupations de tous les acteurs du Web, commerçants ou internautes. Si pour les uns trop de règles en la matière pourraient freiner le développement du commerce électronique, pour les autres un encadrement des pratiques est essentiel à la protection de leur vie privée. Même si les motivations de chacun sont divergentes, le règlement de cette question apparaît comme une étape essentielle dans le développement du réseau. Le Platform for Privacy Preference (P3P) propose de contribuer à ce règlement par un protocole technique permettant la négociation automatique, entre l’ordinateur de l’internaute et celui du site qu’il visite, d’une entente qui encadrera les échanges de renseignements. Son application pose de nombreuses questions, dont celle de sa capacité à apporter une solution acceptable à tous et surtout, celle du respect des lois existantes. La longue et difficile élaboration du protocole, ses dilutions successives et sa mise en vigueur partielle témoignent de la difficulté de la tâche à accomplir et des résistances qu’il rencontre. La première phase du projet se limite ainsi à l’encodage des politiques de vie privée des sites et à leur traduction en termes accessibles par les systèmes des usagers. Dans une deuxième phase, P3P devrait prendre en charge la négociation et la conclusion d’ententes devant lier juridiquement les parties. Cette tâche s’avère plus ardue, tant sous l’angle juridique que sous celui de son adaptation aux us et coutumes du Web. La consolidation des fonctions mises en place dans la première version apparaît fournir une solution moins risquée et plus profitable en écartant la possible conclusion d’ententes incertaines fondées sur une technique encore imparfaite. Mieux éclairer le consentement des internautes à la transmission de leurs données personnelles par la normalisation des politiques de vie privée pourrait être en effet une solution plus simple et efficace à court terme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La chimie supramoléculaire est un domaine qui suscite depuis quelques années un intérêt grandissant. Le domaine s’appuie sur les interactions intermoléculaires de façon à contrôler l’organisation moléculaire et ainsi moduler les propriétés des matériaux. La sélection et le positionnement adéquat de groupes fonctionnels, utilisés en combinaison avec un squelette moléculaire particulier, permet d’anticiper la façon dont une molécule interagira avec les molécules avoisinantes. Cette stratégie de construction, nommé tectonique moléculaire, fait appel à la conception de molécules appelées tectons (du mot grec signifiant bâtisseur) pouvant s’orienter de façon prévisible par le biais d’interactions faibles et ainsi générer des architectures supramoléculaires inédites. Les tectons utilisent les forces intermoléculaires mises à leur disposition pour s’orienter de façon prédéterminée et ainsi contrecarrer la tendance à s’empiler de la manière la plus compacte possible. Pour ce faire, les tectons sont munies de diverses groupes fonctionnels, aussi appelés groupes de reconnaissance, qui agiront comme guide lors de l’assemblage moléculaire. Le choix du squelette moléculaire du tecton revêt une importance capitale puisqu’il doit permettre une orientation optimale des groupes de reconnaissance. La stratégie de la tectonique moléculaire, utilisée conjointement avec la cristallisation, ouvre la porte à un domaine de la chimie supramoléculaire appelé le génie cristallin. Le génie cristallin permet l’obtention de réseaux cristallins poreux soutenus par des interactions faibles, pouvant accueillir des molécules invitées. Bien que toutes les interactions faibles peuvent être mises à contribution, le pont hydrogène est l’interaction prédominante en ce qui a trait aux réseaux cristallins supramoléculaires. La force, la directionnalité ainsi que la versatilité font du pont hydrogène l’interaction qui, à ce jour, a eu le plus grand impact dans le domaine du génie cristallin. Un des groupements de reconnaissance particulièrement intéressants en génie cristallin, faisant appel aux ponts hydrogène et offrant plusieurs motifs d’interaction, est l’unité 2,4-diamino-1,3,5-triazinyle. L’utilisation de ce groupement de reconnaissance conjointement avec un cœur moléculaire en forme de croix d’Onsager, qui défavorise l’empilement compact, permet l’obtention de valeurs de porosités élevées, comme c’est le cas pour le 2,2’,7,7’-tétrakis(2,4-diamino-1,3,5-triazin-6-yl)-9,9’-spirobi[9H-fluorène]. Nous présentons ici une extension du travail effectué sur les cœurs spirobifluorényles en décrivant la synthèse et l’analyse structurale de molécules avec une unité dispirofluorène-indénofluorényle comme cœur moléculaire. Ce cœur moléculaire exhibe les mêmes caractéristiques structurales que le spirobifluorène, soit une topologie rigide en forme de croix d’Onsager défavorisant l’empilement compact. Nous avons combiné les cœurs dispirofluorène-indénofluorényles avec différents groupements de reconnaissance de façon à étudier l’influence de l’élongation du cœur moléculaire sur le réseau cristallin, en particulier sur le volume accessible aux molécules invitées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous aborderons des questions portant sur la légitimité de la propriété privée, à quels moments est-ce que la propriété privée cesse d’être légitime ? Nous défendrons que chaque individu détient le droit inaliénable d’accéder aux ressources, et que cet accès aux ressources doit lui fournir tous les moyens nécessaires pour qu’il puisse se développer jusqu’à ce qu’il soit pleinement autonome. Ainsi, lorsque la propriété privée de certains individus bloque l’accès aux ressources, il doit y avoir des mécanismes de redistribution permettant de compenser la nuisance produite par la propriété privée. Par ailleurs, l’accès aux ressources peut être remplacé par une gamme d’opportunités de base : les opportunités de développement nécessaires à l’atteinte de l’autonomie en société. La redistribution n’a donc pas besoin de viser l’accès aux ressources, elle doit garantir que tous aient accès aux opportunités de base. Nous circonscrirons notre réflexion à un cadre de justice minimale dans le but d’attribuer une nécessité morale à chacune des conclusions de ce mémoire. Autrement dit, si les paramètres de redistribution développés au terme de ce mémoire représentent le strict minimum pour qu’une société se soucie de la justice, alors il est nécessaire que toutes les sociétés instituent au moins ces paramètres de redistribution. Pour démontrer le minimalisme de ces paramètres de justice, nous les déduirons à partir de la position des libertariens de droite. Considérant que leur position se veut la plus minimale possible, si nos paramètres de redistribution sont pleinement consistants avec leur position, alors ces paramètres relèvent de la justice minimale.