906 resultados para Gestion intégrée des ressources naturelles


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le manque de motivation des ressources humaines dans les secteurs public et para-public est un aspect qui se manifeste par un plus grand désintéressement noté au niveau du personnel. Dans une période économique difficile où la productivité et la créativité sont recherchées afin de conserver une compétitivité, la motivation du personnel devient un grand sujet d'intérêt pour les directions. Cet essai présente la gestion des ressources humaines en mettant en relation les principes et théories sur la motivation au travail, sur le développement de la personne au travail et sur les besoins des collèges. Dans un premier temps, le problème de la motivation du personnel dans les collèges est abordé. Un bref survol de la naissance des collèges et de leur évolution dans le domaine des ressources humaines est fait, pour terminer avec un constat de la démotivation du personnel. Par la suite, les questions de recherche sont formulées ainsi que les objectifs poursuivis. Dans le chapitre suivant, plusieurs théories sont présentées. La théorie des besoins de A. MASLOW et la théorie des facteurs de F. HERZBERG illustrent les facteurs de motivation. Deux théories développementales sont ensuite présentées: les étapes du cheminement professionnel de Donald E. SUPER et les stades de développement de carrière de D. RIVERIN-SIMARD. Et finalement ce chapitre présente une revue de la littérature et des théories sur la planification des ressources humaines et sur l'évaluation de rendement qui y est relié. En quatrième partie, les bases méthodologiques sont présentées et illustrées par une expérience faite dans un collège régional. Finalement, une dernière partie présente une analyse des résultats suivie de recommandations.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il est reconnu de nos jours que les ressources humaines sont la plus grande richesse de nos organisations et que c'est grâce à elles que l'on assure la performance et le développement de l'entreprise. Ce travail présente le processus d'élaboration d'une politique de gestion des ressources humaines en milieu collégial. Il présente les facteurs les plus significatifs permettant la motivation et la mobilisation du personnel, la démarche utilisée pour connaître la perception, le degré de satisfaction et les attentes du personnel du cégep de Saint-Hyacinthe vis-à-vis ces facteurs et, enfin, il propose un projet de politique de gestion des ressources humaines. La recherche se compose de cinq parties principales. La première partie du travail énonce la situation au cégep de Saint-Hyacinthe, qui, dans une perspective historique, incite à élaborer une politique de gestion des ressources humaines. Ensuite, sont présentées les différentes théories concernant la gestion des ressources humaines énoncées depuis 1980, par plusieurs auteurs. Les parties suivantes de ce travail sont consacrées à la démarche d'enquête auprès des employés du cégep de Saint-Hyacinthe, aux résultats de cette enquête et, enfin, à la proposition d'une politique de gestion des ressources humaines.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans le cadre de son programme de formation professionnelle de maîtrise en gestion et développement des coopératives, l'Institut de recherche et d'enseignement pour les coopératives (IRECUS) requiert de ses étudiantes et étudiants qu'ils effectuent un stage pratique d'intervention en milieu coopératif. À la suite de la réalisation de ce stage, l'étudiante ou l'étudiant termine ses activités de formation professionnelle avec la rédaction d'un essai qui traite soit d'une question technique identifiée lors du stage, soit d'une question reliée au processus même de l'intervention (IRECUS, Guide de réalisation de l'essai, mai 1999, p.5). Dans le présent essai, nous étudierons le processus de gestion des ressources humaines qui permet à la section Collège Frontière de l'Université de Sherbrooke de gérer sa croissance et de s'adapter à son environnement. Je voudrais situer mon essai en amont de mon stage pratique et tenter de comprendre comment une bonne planification et une saine gestion de ses ressources humaines peuvent contribuer au maintien d'un bon nombre de bénévoles et à plus d'efficacité de l'organisme. En permettant de répondre aux attentes du personnel, la gestion des ressources humaines procure un atout concurrentiel. Pour la majorité des gestionnaires, il devient de plus en plus évident que l'efficacité organisationnelle, base de succès de toute entreprise passe désormais par une gestion efficace, efficiente et équitable des ressources humaines. Il faut prendre un moment pour relever judicieusement les problèmes de gestion sur lesquels les gestionnaires de ressources humaines peuvent intervenir pour produire un impact positif et une valeur ajoutée à la gestion stratégique de l'entreprise…

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This documents reports activities conducted within the PAMPA project for the New Caledonia case study (Noumea Marine Reserves)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dans un contexte de pression toujours plus grande sur les ressources naturelles, une gestion rationnelle des ressources hydriques s'impose. La principale difficulté de leur gestion provient du caractère aléatoire des apports en eau dans le système. Le sujet de cette recherche consiste à développer des méthodes d'optimisation stochastique capable de bien représenter les processus aléatoires. Le cas de Kemano, située en Colombie-Britannique (Canada), illustre les travaux de recherche. L'importante accumulation de neige sur les bassins versants engendre une hydrologie complexe, rendant la gestion du système délicate. La programmation dynamique stochastique est la méthode la plus utilisée pour déterminer la politique de gestion des réservoirs. Mais, son étude fait ressortir que cette méthode ne peut gérer que des modèles simplifiés des processus stochastiques, ne rendant pas compte des complexes corrélations spatio-temporelles des apports hydriques. Ainsi, la politique obtenue peut être de mauvaise qualité. Cette méthode est comparée avec la recherche directe de politique qui n'utilise pas de modèles pour représenter les processus stochastiques, mais évalue la politique sur des scénarios d'apports. Ainsi la recherche directe de politique se révèle globalement plus performante en prenant bien en considération la complexité des apports, mais est limitée par la forme prédéterminée de la politique. De plus, l'optimisation des paramètres en utilisant un algorithme évolutionnaire s'avère lente. La conception d'un algorithme de descente par gradient, combinée à une architecture "acteur-critique" appropriée, permet de réduire notablement le temps d'optimisation. Combinée à une fonction plus complexe employée pour la paramétrisation de la politique de gestion, la méthode permet d'obtenir une politique de qualité significativement supérieure à celle obtenue avec la programmation dynamique stochastique. Les travaux effectués dans le cadre de cette thèse ouvrent la voie à une application opérationnelle de la méthode de recherche directe de politique. L'évaluation en simulation devrait être appréciée des opérateurs en permettant une bonne représentation du système et des apports.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

"Il existe trois scénarios d’insécurité environnementale en Colombie dans lesquels la relation entre l’état des ressources naturelles en eau, pétrole et biodiversité (pénurie, dégradation, surexploitation, risque d’appropriation et terrorisme écologique) et la situation des rapports de force internes et régionaux (exacerbation des tensions interétatiques, sociétales et insécurité humaine) est évidente. Ce résultat a été démontré lors d’un projet de recherche antérieur (2002-2005) menée par l’auteur de ce document de recherche dans le cadre de la ligne de recherche en sécurité régionale et internationale du Centre d’Etudes Politiques et Internationales -CEPI- des Facultés de Science Politique et Gouvernements et de Relations Internationales de l’Université du Rosario de Bogota..."

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objectif : Évaluer la « lourdeur » de la prise en charge clinique des personnes vivant avec le VIH/SIDA (PVVIH) afin d’ajuster l’allocation des ressources en GMF. Méthodologie : Analyse comparative entre le GMF de la Clinique médicale l’Actuel, les GMF montréalais et de l’ensemble du Québec, en identifiant les différences dans les profils de consommation de soins pour les années civiles 2006 à 2008 et les coûts d’utilisation des services pour l’année 2005. Résultats : En 2008, 78% de la clientèle inscrite au GMF de la Clinique médicale l’Actuel est vulnérable comparativement à 28% pour les autres GMF montréalais, une tendance observée pour l’ensemble du Québec. Le nombre moyen de visites par individu inscrit et vulnérable est de 7,57 au GMF l’Actuel alors que la moyenne montréalaise est de 3,37 et celle du Québec de 3,47. Enfin, le coût moyen des visites médicales au GMF l’Actuel en 2005 est de 203,93 $ comparativement à des coûts variant entre 132,14 et 149,53 $ pour les unités de comparaison. Conclusion : L’intensité de l’utilisation des ressources au GMF de la Clinique médicale l’Actuel (nombre d’individus vulnérables, nombre de visites et coûts) suggère que la prise en charge clinique des personnes vivant avec le VIH/SIDA est beaucoup plus lourde qu’un citoyen tout venant ou même de la majorité des autres catégories de vulnérabilité. Afin d’offrir un traitement juste et équitable aux GMF, l’inscription devrait être ajustée afin de tenir compte de la « lourdeur » de cette clientèle et valoriser la prise en charge des personnes qui présentent des tableaux cliniques complexes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.