997 resultados para Hard part


Relevância:

20.00% 20.00%

Publicador:

Resumo:

partement de linguistique et de traduction

Relevância:

20.00% 20.00%

Publicador:

Resumo:

"Mémoire présenté à la Faculté des études supérieures en vue de l'obtention du grade de Maîtrise en droit (L.L.M.)"

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Document dans la collection Archives en mouvement. Sous la direction d'Yvon Lemay, la collection vise à explorer la diffusion par l'utilisation de documents d'archives.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Problématique : Dans un contexte de vieillissement de la population et de complexification des besoins de santé, travailler en interdisciplinarité est devenu une nécessité pour prodiguer des soins de qualité aux personnes âgées vulnérables. Les avantages de l’interdisciplinarité sont connus mais son intégration dans la pratique des professionnels de la santé se vit parfois difficilement. La compréhension de la perception de l’interdisciplinarité de la part des infirmières est un élément majeur d’une pratique de collaboration interprofessionnelle réussie, mais ce sujet a été peu étudié, encore moins en milieu gériatrique. Méthodologie : Le but de cette étude était d’explorer la perception de l’interdisciplinarité des infirmières dans le cadre d’une étude qualitative exploratoire. Les données ont été collectées grâce à sept entrevues semi-dirigées et une discussion de groupe. La méthode de Tesch (1990) fut utilisée pour l’analyse des données et une représentation de la perception fut élaborée. Résultats : Pour les participantes, l’interdisciplinarité est perçue comme un processus d’équilibre parfois difficile entre leur désir d’affirmer leur identité professionnelle et leur désir de collaborer et de travailler en synergie avec les autres intervenants, et ce pour le bien-être de la personne âgée. Elles trouvent que l’apport de l’infirmière à l’équipe interdisciplinaire est indispensable et que sa disponibilité et sa proximité du patient lui donne un statut privilégié pour être le pivot au sein de l’équipe interdisciplinaire. Elles soulignent aussi que la vulnérabilité de la clientèle et l’absence du proche-aidant lors des réunions interdisciplinaires poussent les infirmières à jouer le rôle de porte-parole de la personne âgée. Elles identifient unanimement la communication comme l’élément déterminant d’une collaboration réussie. Elles ajoutent que le leadership, la compétence et l’expérience de l’infirmière sont des déterminants importants pour une interdisciplinarité réussie, alors que la présence du désir de collaborer et le respect mutuel doivent être présents chez tous les intervenants de l’équipe pour collaborer harmonieusement. Par ailleurs, parmi tous les facteurs structurels et organisationnels, seule la pénurie des ressources professionnelles a été identifiée comme un déterminant ayant une incidence sur le travail interdisciplinaire.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif général de ce mémoire est de comprendre l‘impact du genre sur l’identité de travail des cowboys, dans leur milieu de travail et de vie dans un ranch du Canada. Cette étude vise à contribuer aux études sur le genre en utilisant des théories existantes pour les appliquer à un nouveau champ. Sur la base d’une approche théorique fondée dans le féminisme et les études sur la masculinité, en utilisant aussi l’histoire des cowboys de l’Ouest, cette étude se penche sur la question de l’importance du genre dans la division du travail dans le ranch, celle de l’identité de travail des cowboys et sur la façon dont le genre affecte cette identité. La collecte des données s’est faite par l’observation participante et des entrevues semi-structurées. En utilisant une analyse thématique des données, l’étude conclut que le genre est un principe important dans la division du travail dans le ranch et que l’identité de travail est d’une extrême importance pour les cowboys. En outre, l’étude démontre que le genre jour de différentes façons dans l’identité de travail, l’hétéronormativité et les idéaux du cowboy allant dans le même sens, alors que la féminité s’oppose à cet idéal. Les traditions sont encore importantes pour les cowboys contemporains, mais en même temps, ceux-ci mentionnent la réalité du travail éreintant et sans fin comme contrepoids à l’image romantique de la vie des cowboys. Enfin, il y a des similitudes entre les cowboys de cette étude et les adolescentes suédoises étudies par Ambjörnsonn (2004) dans la façon dont le groupe se crée une identité sur la base du genre.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

D’une part, le développement scientifique dans le domaine pharmaceutique fournit des bénéfices substantiels à la santé des personnes, améliorant par conséquent leur qualité de vie. Toutefois, créer et mettre en marché une nouvelle substance thérapeutique n’est pas une tâche facile. Les laboratoires investissent du temps et de l’argent en recherche et développement pour y parvenir. D’autre part, malgré les bienfaits de la science et les efforts des chercheurs, les médicaments sont des produits potentiellement dangereux. Ils présentent des risques inhérents à leur nature, capables de causer des préjudices graves et irréversibles. D’ailleurs, la nature dangereuse de ces produits a incité l’instauration de normes qui imposent des critères stricts aux fabricants de médicaments dans le but de protéger le public. En suivant cette tendance mondiale, les législateurs brésilien et canadien ont instauré des régimes statutaires qui édictent des règles rigoureuses de conception, de fabrication et de commercialisation des médicaments. Néanmoins, à cause de la nature pénale et administrative de ces normes, elles ne sont pas efficaces lorsqu’il s’agit de dédommager le consommateur ou le tiers qui est victime du fait du médicament. Dans une telle situation, il faut recourir au droit civil dans le cas du Brésil et du Québec, ou à la common law dans les autres provinces canadiennes. Dans une étude comparée sur le sujet, nous avons appris que les droits civils brésilien et québécois ainsi que la common law canadienne ont des ressemblances très importantes, cependant en ce qui concerne l’exclusion de la responsabilité fondée sur le risque de développement scientifique, différentes solutions s’appliquent.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il est connu que les problèmes d'ambiguïté de la langue ont un effet néfaste sur les résultats des systèmes de Recherche d'Information (RI). Toutefois, les efforts de recherche visant à intégrer des techniques de Désambiguisation de Sens (DS) à la RI n'ont pas porté fruit. La plupart des études sur le sujet obtiennent effectivement des résultats négatifs ou peu convaincants. De plus, des investigations basées sur l'ajout d'ambiguïté artificielle concluent qu'il faudrait une très haute précision de désambiguation pour arriver à un effet positif. Ce mémoire vise à développer de nouvelles approches plus performantes et efficaces, se concentrant sur l'utilisation de statistiques de cooccurrence afin de construire des modèles de contexte. Ces modèles pourront ensuite servir à effectuer une discrimination de sens entre une requête et les documents d'une collection. Dans ce mémoire à deux parties, nous ferons tout d'abord une investigation de la force de la relation entre un mot et les mots présents dans son contexte, proposant une méthode d'apprentissage du poids d'un mot de contexte en fonction de sa distance du mot modélisé dans le document. Cette méthode repose sur l'idée que des modèles de contextes faits à partir d'échantillons aléatoires de mots en contexte devraient être similaires. Des expériences en anglais et en japonais montrent que la force de relation en fonction de la distance suit généralement une loi de puissance négative. Les poids résultant des expériences sont ensuite utilisés dans la construction de systèmes de DS Bayes Naïfs. Des évaluations de ces systèmes sur les données de l'atelier Semeval en anglais pour la tâche Semeval-2007 English Lexical Sample, puis en japonais pour la tâche Semeval-2010 Japanese WSD, montrent que les systèmes ont des résultats comparables à l'état de l'art, bien qu'ils soient bien plus légers, et ne dépendent pas d'outils ou de ressources linguistiques. La deuxième partie de ce mémoire vise à adapter les méthodes développées à des applications de Recherche d'Information. Ces applications ont la difficulté additionnelle de ne pas pouvoir dépendre de données créées manuellement. Nous proposons donc des modèles de contextes à variables latentes basés sur l'Allocation Dirichlet Latente (LDA). Ceux-ci seront combinés à la méthodes de vraisemblance de requête par modèles de langue. En évaluant le système résultant sur trois collections de la conférence TREC (Text REtrieval Conference), nous observons une amélioration proportionnelle moyenne de 12% du MAP et 23% du GMAP. Les gains se font surtout sur les requêtes difficiles, augmentant la stabilité des résultats. Ces expériences seraient la première application positive de techniques de DS sur des tâches de RI standard.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les thèmes de la RSE et du développement durable et ses implications au plan juridique se font ressentir avec acuité dans le contexte financier difficile rencontré par les économies des plus grandes puissances industrielles. La crise économique est indéniablement protéiforme et se double d’une crise sociétale : tant sociale qu’environnementale. Cette crise est une alerte d’ampleur dont les organisations supranationales et les Etats ne doivent pas ignorer le signal. Les mauvais calculs et les déraisons de l’homme économique n’amènent-ils pas à repenser les modèles néo-classiques ? Pour le juriste constatant les mutations économiques, culturelles, sociologiques, environnementales et sociales des sociétés modernes, une question se pose : quelle est la part du droit dans cette évolution ? Les principes ordinaires, les catégories usuelles, sont bouleversés par un droit composite, protéiforme, aux contours flous, sans cesse remanié. Au regard de la multiplicité des normes qui interviennent sur le terrain de la RSE (normes internationales, nationales, et locales ; normes publiques, privées, et semi-privées), il est proposé au lecteur de dresser un bilan de la construction juridique dont la RSE est l’objet. Dans ce cadre, la norme est comprise au-delà de la notion stricto sensu de règle de droit dans une acception large comme un instrument de référence. Au regard des évolutions contemporaines de la construction du droit, ce sont les nouveaux attributs du droit et l’apparition de nouveaux modèles régulatoires que nous nous proposons de mettre en lumière au travers de l’exemple de la RSE. Dans cette étude, nous montrons que la normativité entourant la RSE constitue un exemple contemporain de droit postmoderne.