973 resultados para Nest site availability


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

20.00% 20.00%

Publicador:

Resumo:

De nos jours les cartes d’utilisation/occupation du sol (USOS) à une échelle régionale sont habituellement générées à partir d’images satellitales de résolution modérée (entre 10 m et 30 m). Le National Land Cover Database aux États-Unis et le programme CORINE (Coordination of information on the environment) Land Cover en Europe, tous deux fondés sur les images LANDSAT, en sont des exemples représentatifs. Cependant ces cartes deviennent rapidement obsolètes, spécialement en environnement dynamique comme les megacités et les territoires métropolitains. Pour nombre d’applications, une mise à jour de ces cartes sur une base annuelle est requise. Depuis 2007, le USGS donne accès gratuitement à des images LANDSAT ortho-rectifiées. Des images archivées (depuis 1984) et des images acquises récemment sont disponibles. Sans aucun doute, une telle disponibilité d’images stimulera la recherche sur des méthodes et techniques rapides et efficaces pour un monitoring continue des changements des USOS à partir d’images à résolution moyenne. Cette recherche visait à évaluer le potentiel de telles images satellitales de résolution moyenne pour obtenir de l’information sur les changements des USOS à une échelle régionale dans le cas de la Communauté Métropolitaine de Montréal (CMM), une métropole nord-américaine typique. Les études précédentes ont démontré que les résultats de détection automatique des changements dépendent de plusieurs facteurs tels : 1) les caractéristiques des images (résolution spatiale, bandes spectrales, etc.); 2) la méthode même utilisée pour la détection automatique des changements; et 3) la complexité du milieu étudié. Dans le cas du milieu étudié, à l’exception du centre-ville et des artères commerciales, les utilisations du sol (industriel, commercial, résidentiel, etc.) sont bien délimitées. Ainsi cette étude s’est concentrée aux autres facteurs pouvant affecter les résultats, nommément, les caractéristiques des images et les méthodes de détection des changements. Nous avons utilisé des images TM/ETM+ de LANDSAT à 30 m de résolution spatiale et avec six bandes spectrales ainsi que des images VNIR-ASTER à 15 m de résolution spatiale et avec trois bandes spectrales afin d’évaluer l’impact des caractéristiques des images sur les résultats de détection des changements. En ce qui a trait à la méthode de détection des changements, nous avons décidé de comparer deux types de techniques automatiques : (1) techniques fournissant des informations principalement sur la localisation des changements et (2)techniques fournissant des informations à la fois sur la localisation des changements et sur les types de changement (classes « de-à »). Les principales conclusions de cette recherche sont les suivantes : Les techniques de détection de changement telles les différences d’image ou l’analyse des vecteurs de changements appliqués aux images multi-temporelles LANDSAT fournissent une image exacte des lieux où un changement est survenu d’une façon rapide et efficace. Elles peuvent donc être intégrées dans un système de monitoring continu à des fins d’évaluation rapide du volume des changements. Les cartes des changements peuvent aussi servir de guide pour l’acquisition d’images de haute résolution spatiale si l’identification détaillée du type de changement est nécessaire. Les techniques de détection de changement telles l’analyse en composantes principales et la comparaison post-classification appliquées aux images multi-temporelles LANDSAT fournissent une image relativement exacte de classes “de-à” mais à un niveau thématique très général (par exemple, bâti à espace vert et vice-versa, boisés à sol nu et vice-versa, etc.). Les images ASTER-VNIR avec une meilleure résolution spatiale mais avec moins de bandes spectrales que LANDSAT n’offrent pas un niveau thématique plus détaillé (par exemple, boisés à espace commercial ou industriel). Les résultats indiquent que la recherche future sur la détection des changements en milieu urbain devrait se concentrer aux changements du couvert végétal puisque les images à résolution moyenne sont très sensibles aux changements de ce type de couvert. Les cartes indiquant la localisation et le type des changements du couvert végétal sont en soi très utiles pour des applications comme le monitoring environnemental ou l’hydrologie urbaine. Elles peuvent aussi servir comme des indicateurs des changements de l’utilisation du sol. De techniques telles l’analyse des vecteurs de changement ou les indices de végétation son employées à cette fin.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’avénement des réseaux sociaux, tel que Facebook, MySpace et LinkedIn, a fourni une plateforme permettant aux individus de rester facilement connectés avec leurs amis, leurs familles ou encore leurs collègues tout en les encourageant activement à partager leurs données personnelles à travers le réseau. Avec la richesse des activités disponibles sur un réseau social, la quantité et la variété des informations personnelles partagées sont considérables. De plus, de part leur nature numérique, ces informations peuvent être facilement copiées, modifiées ou divulguées sans le consentement explicite de leur propriétaire. Ainsi, l’information personnelle révélée par les réseaux sociaux peut affecter de manière concrète la vie de leurs utilisateurs avec des risques pour leur vie privée allant d’un simple embarras à la ruine complète de leur réputation, en passant par l’usurpation d’identité. Malheureusement, la plupart des utilisateurs ne sont pas conscients de ces risques et les outils mis en place par les réseaux sociaux actuels ne sont pas suffisants pour protéger efficacement la vie privée de leurs utilisateurs. En outre, même si un utilisateur peut contrôler l’accès à son propre profil, il ne peut pas contrôler ce que les autres révèlent à son sujet. En effet, les “amis” d’un utilisateur sur un réseau social peuvent parfois révéler plus d’information à son propos que celui-ci ne le souhaiterait. Le respect de la vie privée est un droit fondamental pour chaque individu. Nous pré- sentons dans cette thèse une approche qui vise à accroître la prise de conscience des utilisateurs des risques par rapport à leur vie privée et à maintenir la souveraineté sur leurs données lorsqu’ils utilisent un réseau social. La première contribution de cette thèse réside dans la classification des risques multiples ainsi que les atteintes à la vie privée des utilisateurs d’un réseau social. Nous introduisons ensuite un cadre formel pour le respect de la vie privée dans les réseaux sociaux ainsi que le concept de politique de vie privée (UPP). Celle-ci définie par l’utilisateur offre une manière simple et flexible de spécifier et communiquer leur attentes en terme de respect de la vie privée à d’autres utilisateurs, tiers parties ainsi qu’au fournisseur du réseau social. Par ailleurs, nous dé- finissons une taxonomie (possiblement non-exhaustive) des critères qu’un réseau social peut intégrer dans sa conception pour améliorer le respect de la vie privée. En introduisant le concept de réseau social respectueux de la vie privée (PSNS), nous proposons Privacy Watch, un réseau social respectueux de la vie privée qui combine les concepts de provenance et d’imputabilité afin d’aider les utilisateurs à maintenir la souveraineté sur leurs données personnelles. Finalement, nous décrivons et comparons les différentes propositions de réseaux sociaux respectueux de la vie privée qui ont émergé récemment. Nous classifions aussi ces différentes approches au regard des critères de respect de la vie privée introduits dans cette thèse.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce manuscrit est une pré-publication d'un article paru dans International Journal of Drug Policy 2010; 21(6): 477-484.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La douleur post-opératoire chez les patients constitue un défi thérapeutique important pour les cliniciens. Le traitement de la douleur post-opératoire n’est pas accessoire ni optionnel, puisqu’il permet de donner un congé de l’hôpital plus rapide aux patients et ainsi, il contribue à des économies importantes pour notre système de santé. Parmi les approches thérapeutiques utilisées pour la prise en charge de la douleur post-opératoire, cette thèse s’intéresse particulièrement aux blocs de nerfs périphériques par les anesthésiques locaux et à l’administration de la néostigmine par voie épidurale. Ces médicaments sont utilisés en clinique sans avoir préalablement établi, en se basant sur leur propriétés pharmacocinétiques et pharmacodynamiques spécifiques, leurs doses optimales. Ces doses devraient également tenir en considération les particularités anatomiques du site d’injection par rapport au site d’action. Cette thèse inclut des études exploratoires qui ont contribué à caractériser la pharmacocinétique de la ropivacaïne et de la bupivacaïne ainsi que la pharmacocinétique et la pharmacodynamie de la néostigmine. La première étude portait sur seize patients subissant une chirurgie orthopédique avec un bloc combiné des nerfs fémoral et sciatique par la ropivacaïne (n=8) ou la bupivacaïne (n=8). C’était la première étude qui a inclu des temps d’échantillons pharmacocinétiques allant jusqu’à 32 h après le bloc et ces résultats ont démontré une variabilité interindividuelle considérable. La modélisation par approche de population a aidé à expliquer les sources de la variabilité et démontré que l’absorption systémique des anesthésiques locaux était très lente. De plus, les concentrations plasmatiques demeuraient mesurables, et dans certains cas présentaient un plateau, 32 h après le bloc. Dans les prochaines études, un échantillonnage allant jusqu’à 4 ou 5 jours sera nécessaire afin d’atteindre la fin de l’absorption. La deuxième étude a établi le développement d’un modèle animal en étudiant la pharmacocinétique de la ropivacaïne après administration intraveineuse ainsi que son degré de liaison aux protéines plasmatiques chez le lapin (n=6). Les résultats ont démontré que, chez le lapin la ropivacaïne est beaucoup moins liée aux protéines plasmatiques comparativement à l’humain. Ce résultat important sera utile pour planifier les prochaines études précliniques. La troisième étude a exploré, pour la première fois, la pharmacocinétique et la pharmacodynamie de la néostigmine administrée par voie épidurale et a essayé de caractériser la courbe dose-réponse en utilisant trois doses différentes : 0.5, 1 et 1.5 mg. Bien que les concentrations de la néostigmine dans le liquide céphalo-rachidien fussent très variables une relation inverse entre la consommation de mépéridine et la dose de néostigmine a été démontrée. La dose de 1.5 mg a donné une meilleure réponse pharmacodynamique sur la douleur, mais elle a été considérée comme dangereuse puisqu’elle a résulté en deux cas d’hypertension. Nous avons conclu que des doses plus faibles que 1.5 mg devront être utilisées lors de l’utilisation de la néostigmine par voie épidurale. En conclusion, les études rapportées dans cette thèse ont exploré les propriétés pharmacocinétiques et/ou pharmacodynamiques de certains médicaments utilisés pour le traitement de la douleur post-opératoire. Ceci mènera au but ultime qui est la meilleure prise en charge de la douleur post-opératoire chez les patients.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’effet de la disponibilité des AAF sur le taux d’homicide est un sujet qui n’a jamais su faire consensus au sein du corpus scientifique. En tenant compte des réalités canadiennes relatives à l’utilisation d’une arme à feu dans les homicides, la présente étude évaluera la relation entre la disponibilité des armes à feu et le taux d’homicide au Canada, par le biais de séries chronologiques simples et multiples. Les données utilisées dans le cadre de la recherche proviennent de l’Enquête sur l’homicide effectuée par Statistiques Canada, du programme de la déclaration uniforme de la criminalité (DUC), des catalogues Juristats et des catalogues produits par Statistiques Canada sur les causes de décès au pays. Globalement, des relations positives et significatives sont observées entre les deux phénomènes au temps t. Au temps t-1 et t-2, des relations négatives sont observées entre la disponibilité des armes à feu et le taux d’homicide, tandis que des relations positives sont constatées entre le taux d’homicides et la disponibilité des armes à feu. Les résultats confirment que le taux d’homicide et la disponibilité des armes à feu sont des phénomènes qui s’influencent mutuellement dans le temps. En raison du niveau d’agrégation des données, il n’est pas possible de départager l’influence respective des deux phénomènes. Les résultats soutiennent toutefois davantage les thèses de l’autoprotection et de l’autodéfense. Enfin, les résultats montrent l’importance de développer des indices de disponibilité propres aux deux types d’armes à feu impliqués dans les homicides au Canada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Camp met en présence un officier nazi et ses Juifs : une petite fille s’appuyant sur sa vie d’avant afin de survivre dans sa vie d’après, une jeune femme d’une cinglante liberté intérieure et un groupe de prisonniers, la masse grise. Ce récit se déroule en quelques jours dans un camp d’extermination, en Pologne. Il y est question d’un projet insensé, imaginé et mis en œuvre par le Nazi dont le discours s’apparente à de confuses et dérisoires logorrhées. La recherche d’une humanité déniée, à la base du dévoilement de l’individualité des personnages (prisonniers), émane de la grâce, de l’authenticité et de la force vitale de la protagoniste, la petite fille, tendue vers son plan-de-quand-même-vie. Forêt, écrit en parallèle, puis à la fin de Camp, n’est pas sa suite, mais l’est aussi… Court récit poétique, il raconte la traversée d’une forêt par une femme à la recherche de ses édens. Le lieu, interpellé et très souvent conspué pour ce qu’il est devenu, devient un actant. Forêt, se servant de ses restes mythiques, contraint le pas-à-pas de la femme, perdue d’avance. L’essai, Quatre objets de mémoire, porte sur l’appropriation et la transmission de la mémoire de la Shoah, à partir de restes, de détails, de petits riens, perçus ici comme d’imaginables traces. J’interroge les signes singuliers d’improbables objets (feuillets administratifs du Troisième Reich, clichés fragmentaires d’Auschwitz-Birkenau et photographies de ses bois et de ses latrines) afin d’y débusquer de petits morceaux du caché, du secret et de l’innommable de la Solution finale. L’affect ressenti en présence de ces objets, par ce que je nomme, le nécessaire abandon, y est analysé dans le dessein d’en saisir leurs douleurs et de les rendre miennes. L’œuvre de l’artiste de la photo, Marie-Jeanne Musiol, sur Auschwitz-Birkenau, est à la base de ce désir de mémoire pérenne.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans cet article, l’auteur Ejan Mackaay présente les caractéristiques fondamentales du cyberespace et analyse les relations économiques et juridiques entre les acteurs du marché virtuel de l’Internet. Cette analyse s'inscrit en marge des travaux de Niva Elkin-Koren et Eli Salzberger, dont elle suit le plan. D'une part, il y est précisé que le marché virtuel de l’Internet remet en question l’analyse classique des interactions entre les acteurs économiques. La nouvelle analyse néo-institutionnel présente un cadre analytique qui relève plus adéquatement les relations complexes entre les acteurs économiques du marché virtuel que les théories économiques classiques. Cette nouvelle approche se fonde sur le concept que les acteurs économiques utilisent les ressources afin d’être intégrés au sein des institutions les plus actives et efficaces. D'autre part, il est fait mention que le cyberespace présente plusieurs caractéristiques d’un marché économique. Toutefois, étant virtuel, le cyberespace ne présente pas les mêmes limites qu’un marché physique. En effet, dans ce dernier, certaines limites physiques imposent diverses règles de comportement. Le législateur doit donc prendre conscience de l’absence de telles limites et des normes qu’elles imposaient afin de légiférer adéquatement sur les échanges dans le cyberespace. Ensuite, afin d’illustrer les divergences entre les marchés physiques et virtuels, une analyse est faite au regard des principaux échecs de marchés, soit l’établissement d’un monopole, l’accès aux biens publics, les informations imparfaites et les externalités négatives. Un monopole est un échec de marché qui restreint considérablement la compétition, peut être accrut par l’effet boule de neige et, s’il n’est pas contrôlé, peut mener à un effet de blocage ou d’exclusion de certains acteurs. Le second échec analysé est l’accès aux biens publics. Dans le cyberespace, le principal bien public est l’information qui peut être échangée entre les utilisateurs. Toutefois, certaines règles de droits d’auteur et de propriété intellectuelle peuvent considérablement limiter l’accès à ce bien. L’information incomplète des acteurs économiques constitue un autre échec de marché, mais le cyberespace offre plusieurs moyens d’accéder à l’information pertinente aux transactions éclairées. Enfin, les externalités négatives peuvent généralement être considérées comme des effets secondaires des échanges commerciaux. Toutefois il est souligné que ces dernières ont un effet très limité dans le cyberespace, étant donné le plus grand nombre d’options de retrait et la facilité accrue de l’exercer. Enfin, il est rappelé que le commerce électronique et le cyberespace remettent en questions toutes les théories économiques et politiques traditionnelles et offrent une perspective nouvelle sur le phénomène de la formation des normes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

"La nature flexible et interactive d’Internet implique que de plus en plus de consommateurs l’utilisent en tant qu’outil d’information sur tous les sujets imaginables, qu’il s’agisse de trouver la meilleurs aubaine sur un billet d’avion, ou de se renseigner sur certains problèmes liés à leur santé. Cependant, une grande quantité de l’information disponible en ligne n’est pas impartiale. Certains sites web ne présentent qu’une vision des choses ou font la promotion des produits d’une seule entreprise. Les consommateurs sont plus habitués à évaluer le poid à attribuer à certains conseils ou autres formes d’informations dans un contexte différent. Une telle évaluation de la crédibilité d’une information devient plus difficile dans le monde virtuel où les indices du monde réel, de l’écrit ou de l’interaction face-à-face sont absents. Consumers International a développé une définition de la notion de « crédibilité de l’information retrouvée en ligne » et a établi une liste de critères pouvant l’évaluer. Entre les mois d’avril et juillet 2002, une équipe représentant 13 pays a visité 460 sites web destinés à fournir de l’information sur la santé, sur des produits financiers et sur les prix de voyages et de différents biens de consommation en utilisant ces critères. L’appréciation de ces données nous démontre que les consommateurs doivent faire preuve de prudence lorsqu’ils utilisent Internet comme source d’information. Afin de faire des choix éclairés sur la valeur à donner à une information retrouvée en ligne, les consommateurs doivent connaître ce qui suit : L’identité du propriétaire d’un site web, ses partenaires et publicitaires; La qualité de l’information fournie, incluant son actualité et sa clarté, l’identité des sources citées et l’autorité des individus donnant leur opinion; Si le contenu du site est contrôlé par des intérêts commerciaux, ou, s’il offre des liens, la nature de la relation avec le site visé; et Si on lui demandera de fournir des données personnelles, l’usage réservé à ces données et les mesures employées pour protéger ces données. Cette étude démontre que plusieurs sites ne fournissent pas suffisamment de détails dans ces domaines, ce qui risque d’exposer le consommateur à des informations inexactes, incomplètes ou même délibérément fausses. Les discours exagérés ou vagues de certains sites concernant leurs services ne fait qu’ajouter à la confusion. Ceci peut résulter en une perte de temps ou d’argent pour le consommateur, mais pour certaines catégories d’informations, comme les conseils visant la santé, le fait de se fier à de mauvais conseils peut avoir des conséquences beaucoup plus graves. Cette étude vise à aviser les consommateurs de toujours vérifier le contexte des sites avant de se fier aux informations qui s’y retrouvent. Elle demande aux entreprises d’adopter de meilleures pratiques commerciales et de fournir une information plus transparente afin d’accroître la confiance des consommateurs. Elle demande finalement aux gouvernements de contribuer à ce mouvement en assurant le respect des lois relatives à la consommation et des standards existants tant dans le monde réel que dans le monde virtuel."