999 resultados para Systèmes d’information géographique
Resumo:
Ce projet découle du Canadian Sport Centre Dietary Study qui avait pour objectif d’évaluer les habitudes de consommation de suppléments alimentaires chez les athlètes canadiens et de déterminer si des différences régionales existaient. Un nombre de sujets était prédéterminé pour chaque province en considération du nombre d’athlètes identifiés comme Excellence, Élite ou Relève par les Centres d’entraînement nationaux et les organismes gouvernementaux. Pour ce mémoire, seules les données associées aux athlètes du Québec ont été considérées. Quarante-trois athlètes ont répondu à un questionnaire sur l’utilisation des suppléments alimentaires, 71 ont fourni un journal alimentaire de trois jours et 42 parmi ces derniers ont remis les deux documents. La prévalence d’utilisation des suppléments alimentaires était de 90,7%. Les utilisateurs consommaient en moyenne 3,35 produits différents, particulièrement des boissons énergétiques (48,8%), des multivitamines-minéraux (37,2%), des produits de santé naturels (37,2%) et des suppléments de protéines en poudre (34,9%). Les athlètes souhaitaient maintenir leur santé (27,9%) et améliorer leur niveau d’énergie (27,9%) ou leur récupération (25,6%). Les sources d’information citées étaient les entraîneurs physiques (25,6%), la famille ou les amis (16,3%) et les coéquipiers (16,3%). Les sujets se procuraient ces produits dans les épiceries (16,3%), les pharmacies (14,0%) et les magasins spécialisés (9,3%). Soixante-dix pour cent des sujets croyaient que l’arrêt de l’utilisation des suppléments alimentaires n’aurait aucun impact sur leurs performances ou ne savaient pas comment cela les influencerait. Ils démontraient un vif intérêt au sujet de l’efficacité (69,8%), la légalité (55,8%) et la sécurité (53,5%) de ces produits. Des sujets qui utilisaient un supplément de protéines, 81% présentaient un apport alimentaire supérieur à leurs besoins. L’utilisation de suppléments de multivitaminesminéraux permettait de combler l’apport insuffisant en calcium et en folate, mais pas en potassium. Nos résultats soulignent que ces utilisateurs présentaient des apports dépassant l’apport maximal tolérable pour le sodium, le magnésium, la niacine, le folate, la vitamine A et le fer. Nous pouvons donc conclure que ces deux types de suppléments alimentaires n’étaient pas utilisés d’une façon pertinente.
Resumo:
Ce mémoire présente l’étude de cas de la ville de St George, ancienne capitale du protectorat britannique des Bermudes. Sa situation géographique particulière et la présence d’un ensemble architectural colonial britannique et d’ouvrages militaires lui ont récemment valu le titre de Site du patrimoine mondial de l’UNESCO, ce qui constitue une reconnaissance de la valeur exceptionnelle universelle de cet ensemble urbain. Cette inscription survient au moment où les autorités locales souhaitaient diversifier l’économie de l’archipel en misant davantage sur le tourisme culturel et patrimonial. L’hypothèse centrale de ce mémoire est que la ville St George se révèle, au sens où l’entendent G.J. Ashworth et J.E. Tunbridge dans leur ouvrage The tourist-historic city, un « joyau du patrimoine », ce dernier étant défini comme une petite collectivité territoriale recelant des ressources historiques exceptionnelles qui en définissent de manière notable la morphologie urbaine et l’identité paysagère et orientent les politiques municipales. La recherche, suite à la présentation d’un cadre théorique sur le patrimoine mondial et le tourisme patrimonial, a par ailleurs permis de montrer que le concept de « cité historico-touristique » développé par les mêmes auteurs s’applique aux Bermudes à la condition qu’un transfert d’échelle soit opéré. En effet, nous ne sommes pas en présence d’un espace touristique constitué de deux secteurs d’une même ville qui contribuent, chacun à sa façon, à la définition de l’attractivité touristique, mais plutôt de deux petites villes voisines – St-George et Hamilton, la capitale – qui constituent le substrat d’une cité historico-touristique éclatée.
Resumo:
Cette thèse porte sur le rôle de l’espace dans l’organisation et dans la dynamique des communautés écologiques multi-espèces. Deux carences peuvent être identifiées dans les études théoriques actuelles portant sur la dimension spatiale des communautés écologiques : l’insuffisance de modèles multi-espèces représentant la dimension spatiale explicitement, et le manque d’attention portée aux interactions positives, tel le mutualisme, en dépit de la reconnaissance de leur ubiquité dans les systèmes écologiques. Cette thèse explore cette problématique propre à l’écologie des communautés, en utilisant une approche théorique s’inspirant de la théorie des systèmes complexes et de la mécanique statistique. Selon cette approche, les communautés d’espèces sont considérées comme des systèmes complexes dont les propriétés globales émergent des interactions locales entre les organismes qui les composent, et des interactions locales entre ces organismes et leur environnement. Le premier objectif de cette thèse est de développer un modèle de métacommunauté multi-espèces, explicitement spatial, orienté à l’échelle des individus et basé sur un réseau d’interactions interspécifiques générales comprenant à la fois des interactions d’exploitation, de compétition et de mutualisme. Dans ce modèle, les communautés locales sont formées par un processus d’assemblage des espèces à partir d’un réservoir régional. La croissance des populations est restreinte par une capacité limite et leur dynamique évolue suivant des mécanismes simples de reproduction et de dispersion des individus. Ces mécanismes sont dépendants des conditions biotiques et abiotiques des communautés locales et leur effet varie en fonction des espèces, du temps et de l’espace. Dans un deuxième temps, cette thèse a pour objectif de déterminer l’impact d’une connectivité spatiale croissante sur la dynamique spatiotemporelle et sur les propriétés structurelles et fonctionnelles de cette métacommunauté. Plus précisément, nous évaluons différentes propriétés des communautés en fonction du niveau de dispersion des espèces : i) la similarité dans la composition des communautés locales et ses patrons de corrélations spatiales; ii) la biodiversité locale et régionale, et la distribution locale de l’abondance des espèces; iii) la biomasse, la productivité et la stabilité dynamique aux échelles locale et régionale; et iv) la structure locale des interactions entre les espèces. Ces propriétés sont examinées selon deux schémas spatiaux. D’abord nous employons un environnement homogène et ensuite nous employons un environnement hétérogène où la capacité limite des communautés locales évoluent suivant un gradient. De façon générale, nos résultats révèlent que les communautés écologiques spatialement distribuées sont extrêmement sensibles aux modes et aux niveaux de dispersion des organismes. Leur dynamique spatiotemporelle et leurs propriétés structurelles et fonctionnelles peuvent subir des changements profonds sous forme de transitions significatives suivant une faible variation du niveau de dispersion. Ces changements apparaissent aussi par l’émergence de patrons spatiotemporels dans la distribution spatiale des populations qui sont typiques des transitions de phases observées généralement dans les systèmes physiques. La dynamique de la métacommunauté présente deux régimes. Dans le premier régime, correspondant aux niveaux faibles de dispersion des espèces, la dynamique d’assemblage favorise l’émergence de communautés stables, peu diverses et formées d’espèces abondantes et fortement mutualistes. La métacommunauté possède une forte diversité régionale puisque les communautés locales sont faiblement connectées et que leur composition demeure ainsi distincte. Par ailleurs dans le second régime, correspondant aux niveaux élevés de dispersion, la diversité régionale diminue au profit d’une augmentation de la diversité locale. Les communautés locales sont plus productives mais leur stabilité dynamique est réduite suite à la migration importante d’individus. Ce régime est aussi caractérisé par des assemblages incluant une plus grande diversité d’interactions interspécifiques. Ces résultats suggèrent qu’une augmentation du niveau de dispersion des organismes permet de coupler les communautés locales entre elles ce qui accroît la coexistence locale et favorise la formation de communautés écologiques plus riches et plus complexes. Finalement, notre étude suggère que le mutualisme est fondamentale à l’organisation et au maintient des communautés écologiques. Les espèces mutualistes dominent dans les habitats caractérisés par une capacité limite restreinte et servent d’ingénieurs écologiques en facilitant l’établissement de compétiteurs, prédateurs et opportunistes qui bénéficient de leur présence.
Resumo:
Le design d'éclairage est une tâche qui est normalement faite manuellement, où les artistes doivent manipuler les paramètres de plusieurs sources de lumière pour obtenir le résultat désiré. Cette tâche est difficile, car elle n'est pas intuitive. Il existe déjà plusieurs systèmes permettant de dessiner directement sur les objets afin de positionner ou modifier des sources de lumière. Malheureusement, ces systèmes ont plusieurs limitations telles qu'ils ne considèrent que l'illumination locale, la caméra est fixe, etc. Dans ces deux cas, ceci représente une limitation par rapport à l'exactitude ou la versatilité de ces systèmes. L'illumination globale est importante, car elle ajoute énormément au réalisme d'une scène en capturant toutes les interréflexions de la lumière sur les surfaces. Ceci implique que les sources de lumière peuvent avoir de l'influence sur des surfaces qui ne sont pas directement exposées. Dans ce mémoire, on se consacre à un sous-problème du design de l'éclairage: la sélection et la manipulation de l'intensité de sources de lumière. Nous présentons deux systèmes permettant de peindre sur des objets dans une scène 3D des intentions de lumière incidente afin de modifier l'illumination de la surface. De ces coups de pinceau, le système trouve automatiquement les sources de lumière qui devront être modifiées et change leur intensité pour effectuer les changements désirés. La nouveauté repose sur la gestion de l'illumination globale, des surfaces transparentes et des milieux participatifs et sur le fait que la caméra n'est pas fixe. On présente également différentes stratégies de sélection de modifications des sources de lumière. Le premier système utilise une carte d'environnement comme représentation intermédiaire de l'environnement autour des objets. Le deuxième système sauvegarde l'information de l'environnement pour chaque sommet de chaque objet.
Resumo:
Le présent document consiste en une étude de la céramique caractéristique de la ville d’Amarna (Akhet-Aton) en lien avec les productions palatiales dans les sociétés complexes. Dans une première partie, cette poterie à décor bleu est mise en contexte. La situation géographique, historique et religieuse de la ville sont mises en relief. Les thèmes habituels lors de l’étude d’une céramique sont ensuite abordés : les ateliers, les matériaux, la transformation, la cuisson, les formes et motifs. La fonction de ces vases restant un point de questionnement, diverses théories à ce sujet sont analysées. Le questionnement d’un lien entre ces vases et l’idéologie religieuse instaurée par le pharaon Akhenaton se pose ensuite et la comparaison entre les motifs et l’iconographie des palais de la ville et des tombes de l’époque permet d’y répondre positivement. Ces deux derniers points permettent de bien saisir l’importance de cette céramique dans le cadre amarnien. La seconde partie du travail concerne le concept d’objet palatial. Ce type de production est défini et plusieurs critères sont énumérés. Ces critères sont ensuite appliqués à des objets palatiaux appartenant à des sociétés complexes afin de les confirmer. Ces caractéristiques vérifiées, elles sont appliquées à la céramique à décor bleu afin de vérifier si celle-ci correspond à une industrie palatiale. Comme ce style de poterie répond à tous les critères, il est possible d’affirmer qu’il s’agit d’un objet palatial. Il est même possible de dire à ce sujet qu’il s’agit d’un objet de prestige consommé par une élite et qui sert de véhicule à l’idéologie en place.
Resumo:
Depuis quelques années, les statistiques indiquent une croissance exponentielle de l’incidence de certaines infections transmissibles sexuellement chez les jeunes adultes. Certaines enquêtes témoignent en outre des comportements peu responsables en matière de santé sexuelle chez cette population, bien que l’offre d’information sur les conséquences de tels comportements soit importante et diversifiée. Par ailleurs, le comportement informationnel de cette population en matière de santé sexuelle demeure peu documenté. La présente étude porte sur le comportement informationnel de jeunes adultes québécois en matière de santé sexuelle. Plus spécifiquement, elle répond aux quatre questions de recherche suivantes : (1) Quelles sont les situations problématiques auxquelles les jeunes adultes sont confrontés en santé sexuelle?, (2) Quels sont les besoins informationnels exprimés par les jeunes adultes lors de ces situations problématiques?, (3) Quels sont les processus et les sources d’information qui soutiennent la résolution de ces besoins informationnels? et (4) Quelle est l’utilisation de l’information trouvée? Cette recherche descriptive a utilisé une approche qualitative. Le milieu retenu est l’Université de Montréal pour deux raisons : il s’agit d’un milieu cognitivement riche qui fournit un accès sur place à des ressources en santé sexuelle. Les huit jeunes adultes âgés de 18 à 25 ans qui ont pris part à cette étude ont participé à une entrevue en profondeur utilisant la technique de l’incident critique. Chacun d’entre eux a décrit une situation problématique par rapport à sa santé sexuelle et les données recueillies ont été l’objet d’une analyse de contenu basée sur la théorisation ancrée. Les résultats indiquent que les jeunes adultes québécois vivent des situations problématiques relatives à l’aspect physique de leur santé sexuelle qui peuvent être déclenchées par trois types d’éléments : un événement à risques, un symptôme physique subjectif et de l’information acquise passivement. Ces situations problématiques génèrent trois catégories de besoins informationnels : l’état de santé actuel, les conséquences possibles et les remèdes. Pour répondre à ces besoins, les participants se sont tournés en majorité vers des sources professionnelles, personnelles et verbales. La présence de facteurs contextuels, cognitifs et affectifs a particularisé leur processus de recherche d’information en modifiant les combinaisons des quatre activités effectuées, soit débuter, enchaîner, butiner et différencier. L’automotivation et la compréhension du problème représentent les deux principales utilisations de l’information. D’un point de vue théorique, les résultats indiquent que le modèle général de comportement informationnel de Choo (2006), le modèle d’environnement d’utilisation de l’information de Taylor (1986, 1991) et le modèle d’activités de recherche d’information d’Ellis (1989a, 1989b, 2005) peuvent être utilisés dans le contexte personnel de la santé sexuelle. D’un point de vue pratique, cette étude ajoute aux connaissances sur les critères de sélection des sources d’information en matière de santé sexuelle.
Resumo:
En février, 2009 un rapport de PHRMA (Pharmaceutical Research and Manufacturers of America) confirmait que plus de 300 médicaments pour le traitement des maladies cardiaques étaient en phase d’essais cliniques ou en révision par les agences règlementaires. Malgré cette abondance de nouvelles thérapies cardiovasculaires, le nombre de nouveaux médicaments approuvés chaque année (toutes indications confondues) est en déclin avec seulement 17 et 24 nouveaux médicaments approuvés en 2007 et 2008, respectivement. Seulement 1 médicament sur 5000 sera approuvé après 10 à 15 ans de développement au coût moyen de 800 millions $. De nombreuses initiatives ont été lancées par les agences règlementaires afin d’augmenter le taux de succès lors du développement des nouveaux médicaments mais les résultats tardent. Cette stagnation est attribuée au manque d’efficacité du nouveau médicament dans bien des cas mais les évaluations d’innocuité remportent la palme des causes d’arrêt de développement. Primum non nocere, la maxime d’Hippocrate, père de la médecine, demeure d’actualité en développement préclinique et clinique des médicaments. Environ 3% des médicaments approuvés au cours des 20 dernières années ont, par la suite, été retirés du marché suite à l’identification d’effets adverses. Les effets adverses cardiovasculaires représentent la plus fréquente cause d’arrêt de développement ou de retrait de médicament (27%) suivi par les effets sur le système nerveux. Après avoir défini le contexte des évaluations de pharmacologie de sécurité et l’utilisation des bio-marqueurs, nous avons validé des modèles d’évaluation de l’innocuité des nouveaux médicaments sur les systèmes cardiovasculaires, respiratoires et nerveux. Évoluant parmi les contraintes et les défis des programmes de développements des médicaments, nous avons évalué l’efficacité et l’innocuité de l’oxytocine (OT), un peptide endogène à des fins thérapeutiques. L’OT, une hormone historiquement associée à la reproduction, a démontré la capacité d’induire la différentiation in vitro de lignées cellulaires (P19) mais aussi de cellules souches embryonnaires en cardiomyocytes battants. Ces observations nous ont amené à considérer l’utilisation de l’OT dans le traitement de l’infarctus du myocarde. Afin d’arriver à cet objectif ultime, nous avons d’abord évalué la pharmacocinétique de l’OT dans un modèle de rat anesthésié. Ces études ont mis en évidence des caractéristiques uniques de l’OT dont une courte demi-vie et un profil pharmacocinétique non-linéaire en relation avec la dose administrée. Ensuite, nous avons évalué les effets cardiovasculaires de l’OT sur des animaux sains de différentes espèces. En recherche préclinique, l’utilisation de plusieurs espèces ainsi que de différents états (conscients et anesthésiés) est reconnue comme étant une des meilleures approches afin d’accroître la valeur prédictive des résultats obtenus chez les animaux à la réponse chez l’humain. Des modèles de rats anesthésiés et éveillés, de chiens anesthésiés et éveillés et de singes éveillés avec suivi cardiovasculaire par télémétrie ont été utilisés. L’OT s’est avéré être un agent ayant d’importants effets hémodynamiques présentant une réponse variable selon l’état (anesthésié ou éveillé), la dose, le mode d’administration (bolus ou infusion) et l’espèce utilisée. Ces études nous ont permis d’établir les doses et régimes de traitement n’ayant pas d’effets cardiovasculaires adverses et pouvant être utilisées dans le cadre des études d’efficacité subséquentes. Un modèle porcin d’infarctus du myocarde avec reperfusion a été utilisé afin d’évaluer les effets de l’OT dans le traitement de l’infarctus du myocarde. Dans le cadre d’un projet pilote, l’infusion continue d’OT initiée immédiatement au moment de la reperfusion coronarienne a induit des effets cardiovasculaires adverses chez tous les animaux traités incluant une réduction de la fraction de raccourcissement ventriculaire gauche et une aggravation de la cardiomyopathie dilatée suite à l’infarctus. Considérant ces observations, l’approche thérapeutique fût révisée afin d’éviter le traitement pendant la période d’inflammation aigüe considérée maximale autour du 3ième jour suite à l’ischémie. Lorsqu’initié 8 jours après l’ischémie myocardique, l’infusion d’OT a engendré des effets adverses chez les animaux ayant des niveaux endogènes d’OT élevés. Par ailleurs, aucun effet adverse (amélioration non-significative) ne fût observé chez les animaux ayant un faible niveau endogène d’OT. Chez les animaux du groupe placebo, une tendance à observer une meilleure récupération chez ceux ayant des niveaux endogènes initiaux élevés fût notée. Bien que la taille de la zone ischémique à risque soit comparable à celle rencontrée chez les patients atteints d’infarctus, l’utilisation d’animaux juvéniles et l’absence de maladies coronariennes sont des limitations importantes du modèle porcin utilisé. Le potentiel de l’OT pour le traitement de l’infarctus du myocarde demeure mais nos résultats suggèrent qu’une administration systémique à titre de thérapie de remplacement de l’OT devrait être considérée en fonction du niveau endogène. De plus amples évaluations de la sécurité du traitement avec l’OT dans des modèles animaux d’infarctus du myocarde seront nécessaires avant de considérer l’utilisation d’OT dans une population de patients atteint d’un infarctus du myocarde. En contre partie, les niveaux endogènes d’OT pourraient posséder une valeur pronostique et des études cliniques à cet égard pourraient être d’intérêt.
Resumo:
Dans la foulée des scandales financiers ayant secoué le milieu des affaires ces dernières années, l’efficacité des pratiques de régie d’entreprise, et, en particulier celles liées à l’indépendance des administrateurs, a été passée au crible. L’administrateur désigné par une partie pour la représenter est un type d’administrateur que l’on rencontre fréquemment au sein des conseils d’administration des entreprises. Toutefois, l’on peut se questionner sur l’indépendance réelle de ces administrateurs, considérant leur loyauté envers la personne les ayant désignés, laquelle détient habituellement un intérêt à titre d’actionnaire ou de partie prenante dans l’entreprise visée. En outre, alors que les principes légaux requièrent que les administrateurs agissent dans le meilleur intérêt de l’entreprise, la réalité pratique est parfois toute autre: aux prises avec les instructions ou les souhaits de la personne les ayant nommés, les administrateurs désignés se retrouvent placés en situation inhérente de conflit d’intérêts. Ce texte vise à offrir une analyse détaillée au sujet de l’administrateur désigné et du conflit d’intérêts résultant de cette double exigence de loyauté. L’objectif est de présenter un examen approfondi des diverses difficultés résultant de la nomination d’un administrateur désigné ou associées à celle-ci, ainsi que des réponses judiciaires et législatives liées à cette problématique. Cette réflexion mènera à une exploration de certains systèmes législatifs et légaux, en particulier ceux du Royaume-Uni, de l’Australie et de la Nouvelle-Zélande, afin d’obtenir une meilleure compréhension et d’offrir une perspective éclairée quant aux enjeux analysés par la présente.
Resumo:
L’objectif principal de ce mémoire consiste à déterminer s’il existe une association entre la détresse psychologique et les problèmes cardiovasculaires chez les travailleurs, suite à l’influence de certains facteurs professionnels. Les données proviennent de l’Enquête sur la santé dans les communautés canadiennes (cycle 3.1 de l’ESCC), menée par Statistique Canada en 2005. Notre échantillon est composé de 15 394 canadiens et canadiennes en emploi de 15 ans et plus, représentatif sur le plan de l’âge, du genre et de la distribution géographique du lieu de résidence. Les analyses de régressions logistiques montrent que quatre facteurs professionnels présentent une association significative avec la détresse psychologique : les demandes psychologiques, la menace de perdre son emploi, le soutien social au travail, la satisfaction au travail. Puis, trois facteurs s’avèrent être reliés au développement de problèmes cardiovasculaires, soit l’utilisation des compétences, la satisfaction au travail ainsi que le nombre d’heures travaillées. Les analyses de variances multiples (MANOVA) révèlent que la détresse psychologique est associée aux problèmes cardiovasculaires et que ces deux problèmes de santé peuvent se retrouver en situation de comorbidité. Selon les résultats, on observe que cinq facteurs sont significativement corrélés à la présence de détresse psychologique en même qu’un problème cardiovasculaire : les demandes psychologiques, la menace de perdre son emploi, le soutien social au travail, la satisfaction au travail ainsi que le nombre d’heures travaillées. Par ailleurs, l’utilisation des compétences, l’autonomie décisionnelle et les exigences physiques de travail ne sont pas significativement associés à la détresse psychologique et à la présence de problèmes cardiovasculaires.
Resumo:
In this paper, I argue that intersectionality, the prevailing way of conceptualizing the relation between axes or systems of oppression (race, class, gender), illicitly imports the very model it purports to overcome: that is, the unitary model of identity. I first define “intersectionality” and distinguish between three senses that are frequently conflated. Then I subject the model to an analytic critique, revealing its hidden presuppositions about identity. Finally, I suggest that solidarity serves as a better norm for feminist practice than inclusion of “difference,” which seems to be the norm underlying many intersectional accounts.
Resumo:
I argue that it is time for many feminists to rethink their attitudes towards evolutionary biology, not because feminists have been wrong to be deeply sceptical about many of its claims, both explicit and implicit, but because biology itself has changed. A new appreciation for the importance of development in biology has become mainstream and a new ontology, associated with developmental systems theory (DST), has been introduced over the last two decades. This turn challenges some of the features of evolutionary biology that have most troubled feminists. DST undermines the idea of biologicales sence and challenges both nature /nurture and nature/culture distinctions. Freed from these conceptual constraints, evolutionary biology no longer poses the problems that have justified feminist scepticism. Indeed, feminists have already found useful applications for DST and I argue that they should expand their use of DST to support more radical and wide-ranging political theories.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Les étudiants gradués et les professeurs (les chercheurs, en général), accèdent, passent en revue et utilisent régulièrement un grand nombre d’articles, cependant aucun des outils et solutions existants ne fournit la vaste gamme de fonctionnalités exigées pour gérer correctement ces ressources. En effet, les systèmes de gestion de bibliographie gèrent les références et les citations, mais ne parviennent pas à aider les chercheurs à manipuler et à localiser des ressources. D'autre part, les systèmes de recommandation d’articles de recherche et les moteurs de recherche spécialisés aident les chercheurs à localiser de nouvelles ressources, mais là encore échouent dans l’aide à les gérer. Finalement, les systèmes de gestion de contenu d'entreprise offrent les fonctionnalités de gestion de documents et des connaissances, mais ne sont pas conçus pour les articles de recherche. Dans ce mémoire, nous présentons une nouvelle classe de systèmes de gestion : système de gestion et de recommandation d’articles de recherche. Papyres (Naak, Hage, & Aïmeur, 2008, 2009) est un prototype qui l’illustre. Il combine des fonctionnalités de bibliographie avec des techniques de recommandation d’articles et des outils de gestion de contenu, afin de fournir un ensemble de fonctionnalités pour localiser les articles de recherche, manipuler et maintenir les bibliographies. De plus, il permet de gérer et partager les connaissances relatives à la littérature. La technique de recommandation utilisée dans Papyres est originale. Sa particularité réside dans l'aspect multicritère introduit dans le processus de filtrage collaboratif, permettant ainsi aux chercheurs d'indiquer leur intérêt pour des parties spécifiques des articles. De plus, nous proposons de tester et de comparer plusieurs approches afin de déterminer le voisinage dans le processus de Filtrage Collaboratif Multicritère, de telle sorte à accroître la précision de la recommandation. Enfin, nous ferons un rapport global sur la mise en œuvre et la validation de Papyres.
Resumo:
Cette thèse porte sur les conceptions d’Egon Bahr dans le domaine de la politique à l’Est (Ostpolitik) de la République fédérale d’Allemagne (RFA) entre 1945 et 1975. L’analyse se concentre sur le lien entre l’Ostpolitik et l’idée que Bahr se fait de la place et du rôle de l’Allemagne en Europe. Plus précisément, cette étude veut cerner les buts poursuivis par Bahr dans le cadre de la politique orientale. La première partie traite du développement conceptuel de l’Ostpolitik (1945-1969), tandis que la seconde examine sa mise en application entre l’élection de Willy Brandt comme chancelier de la RFA et la conclusion des accords d’Helsinki (1969-1975). Les principales sources utilisées sont les écrits de Bahr ainsi que des documents inédits se trouvant dans divers centres d’archives non seulement en Allemagne, mais aussi aux États-Unis, en France et en Grande-Bretagne. Pour Bahr, l’Ostpolitik ne saurait se résumer à l’élimination des obstacles qui gênent la diplomatie ouest-allemande durant la guerre froide. Bahr poursuit plutôt un projet nationaliste ambitieux dans le contexte des relations avec le bloc soviétique : créer les conditions d’une redéfinition de la place de l’Allemagne en Europe. Pour lui, l’Ostpolitik constitue un instrument idéal pour faire de l’Allemagne la puissance prépondérante dans un nouvel ordre de paix européen. Trois éléments complémentaires participent à l’accomplissement de cette vision : 1) la consolidation de la paix et de la sécurité continentales; 2) la réunification allemande et 3) l’émancipation de la politique étrangère (ouest-)allemande. Cette thèse éclaire la pensée politique de Bahr et contribue à une meilleure compréhension de la signification de l’Ostpolitik dans le contexte plus large de la politique étrangère de la RFA. Les conceptions de Bahr sont uniques dans l’Allemagne de la guerre froide parce qu’elles sont centrées sur les notions de puissance, d’intérêt national et de « normalité ». En même temps, Bahr comprend que la coopération doit toujours rester l’instrument diplomatique privilégié des Allemands vu leur position géographique centrale. À travers le prisme des conceptions de son « architecte », l’Ostpolitik apparaît comme un véritable effort de réconciliation entre la paix en Europe et l’affirmation de l’influence allemande sur la scène internationale.
Resumo:
La survie des réseaux est un domaine d'étude technique très intéressant ainsi qu'une préoccupation critique dans la conception des réseaux. Compte tenu du fait que de plus en plus de données sont transportées à travers des réseaux de communication, une simple panne peut interrompre des millions d'utilisateurs et engendrer des millions de dollars de pertes de revenu. Les techniques de protection des réseaux consistent à fournir une capacité supplémentaire dans un réseau et à réacheminer les flux automatiquement autour de la panne en utilisant cette disponibilité de capacité. Cette thèse porte sur la conception de réseaux optiques intégrant des techniques de survie qui utilisent des schémas de protection basés sur les p-cycles. Plus précisément, les p-cycles de protection par chemin sont exploités dans le contexte de pannes sur les liens. Notre étude se concentre sur la mise en place de structures de protection par p-cycles, et ce, en supposant que les chemins d'opération pour l'ensemble des requêtes sont définis a priori. La majorité des travaux existants utilisent des heuristiques ou des méthodes de résolution ayant de la difficulté à résoudre des instances de grande taille. L'objectif de cette thèse est double. D'une part, nous proposons des modèles et des méthodes de résolution capables d'aborder des problèmes de plus grande taille que ceux déjà présentés dans la littérature. D'autre part, grâce aux nouveaux algorithmes, nous sommes en mesure de produire des solutions optimales ou quasi-optimales. Pour ce faire, nous nous appuyons sur la technique de génération de colonnes, celle-ci étant adéquate pour résoudre des problèmes de programmation linéaire de grande taille. Dans ce projet, la génération de colonnes est utilisée comme une façon intelligente d'énumérer implicitement des cycles prometteurs. Nous proposons d'abord des formulations pour le problème maître et le problème auxiliaire ainsi qu'un premier algorithme de génération de colonnes pour la conception de réseaux protegées par des p-cycles de la protection par chemin. L'algorithme obtient de meilleures solutions, dans un temps raisonnable, que celles obtenues par les méthodes existantes. Par la suite, une formulation plus compacte est proposée pour le problème auxiliaire. De plus, nous présentons une nouvelle méthode de décomposition hiérarchique qui apporte une grande amélioration de l'efficacité globale de l'algorithme. En ce qui concerne les solutions en nombres entiers, nous proposons deux méthodes heurisiques qui arrivent à trouver des bonnes solutions. Nous nous attardons aussi à une comparaison systématique entre les p-cycles et les schémas classiques de protection partagée. Nous effectuons donc une comparaison précise en utilisant des formulations unifiées et basées sur la génération de colonnes pour obtenir des résultats de bonne qualité. Par la suite, nous évaluons empiriquement les versions orientée et non-orientée des p-cycles pour la protection par lien ainsi que pour la protection par chemin, dans des scénarios de trafic asymétrique. Nous montrons quel est le coût de protection additionnel engendré lorsque des systèmes bidirectionnels sont employés dans de tels scénarios. Finalement, nous étudions une formulation de génération de colonnes pour la conception de réseaux avec des p-cycles en présence d'exigences de disponibilité et nous obtenons des premières bornes inférieures pour ce problème.