938 resultados para classification des Systèmes de Recommandation


Relevância:

30.00% 30.00%

Publicador:

Resumo:

A partir des résultats d’une enquête effectuée en 2005 sur un échantillon de 203 dirigeants publics, une typologie floue de trois profils a été dégagée en vue de concevoir un système d’affectation des dirigeants en fonction de leur style du leadership, sens du travail, et leurs préoccupations de gestion des ressources humaines. En se basant sur cette typologie floue, des techniques empruntées à l’intelligence artificielle ont été appliquées pour apprendre des règles de classification. Ces techniques sont au nombre de quatre : le réseau neuronal (Neural Network), l’algorithme génétique (Genetic Algorithm), l’arbre de décision (Decision Tree) et la théorie des ensembles approximatifs (Rough Sets). Les résultats de l’étude ainsi que ses perspectives seront présentées et discutés tout au long de cette communication.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nous avons étudié l’application de plusieurs mesures d’isotopes stables afin de caractériser les processus du cycle de l’azote et les sources d’azote dans les lacs tempérés à diverses échelles spatiales et temporelles. Les résultats d’une étude à travers 65 lacs sur un gradient trophique ont démontré que le ratio d’isotopes stables d’azote (δ15N) des sédiments de surface est un indicateur de l’importance relative des sources d’azote anthropique, mais que ce ratio peut être altéré par la diagenèse. La mesure du δ15N des sédiments demeure néanmoins un outil permettant de déterminer à long terme le changement des charges en azote anthropique aux écosystèmes lacustres et les causes de l’eutrophisation de ces systèmes. Nos résultats d’une étude sur la variation saisonnière de plusieurs isotopes stables dans trois lacs peu profonds situés sur un gradient trophique et ayant différents régimes de stratification ont démontré que cette approche est prometteuse dans les lacs mésotrophes et stratifiés. Dans ces systèmes, le δ15N de la matière organique particulaire (MOP) aurait le potentiel de déterminer les sources d’azote assimilées par le phytoplancton. Cependant les mesures d’isotopes stables du carbone (δ13C) et du ratio C:N indiquent que les apports de matières organiques du bassin versant peuvent altérer les relations observées. Nous avons également constaté une déviation de la relation 1:1 entre les isotopes stables d’azote et d’oxygène (δ18O) du nitrate (NO3-) indiquant son assimilation et sa nitrification simultanée. Cette application est particulièrement prometteuse puisque la nitrification est méconnue dans les lacs et peut exacerber les effets de l’eutrophisation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La dépression est une pathologie grave qui, malgré de multiples stratégies thérapeutiques, demeure résistante chez un tiers des patients. Les techniques de stimulation cérébrale sont devenues une alternative intéressante pour les patients résistants à diverses pharmacothérapies. La stimulation du nerf vague (SNV) a ainsi fait preuve de son efficacité en clinique et a récemment été approuvée comme traitement additif pour la dépression résistante. Cependant, les mécanismes d’action de la SNV en rapport avec la dépression n’ont été que peu étudiés. Cette thèse a donc eu comme premier objectif de caractériser l’impact de la SNV sur les différents systèmes monoaminergiques impliqués dans la pathophysiologie de la dépression, à savoir la sérotonine (5-HT), la noradrénaline (NA) et la dopamine (DA), grâce à l’utilisation de techniques électrophysiologiques et de la microdialyse in vivo chez le rat. Des études précliniques avaient déjà révélé qu’une heure de SNV augmente le taux de décharge des neurones NA du locus coeruleus, et que 14 jours de stimulation sont nécessaires pour observer un effet comparable sur les neurones 5-HT. Notre travail a démontré que la SNV modifie aussi le mode de décharge des neurones NA qui présente davantage de bouffées, influençant ainsi la libération terminale de NA, qui est significativement augmentée dans le cortex préfrontal et l’hippocampe après 14 jours. L’augmentation de la neurotransmission NA s’est également manifestée par une élévation de l’activation tonique des récepteurs postsynaptiques α2-adrénergiques de l’hippocampe. Après lésion des neurones NA, nous avons montré que l’effet de la SNV sur les neurones 5-HT était indirect, et médié par le système NA, via l’activation des récepteurs α1-adrénergiques présents sur les neurones du raphé. Aussi, tel que les antidépresseurs classiques, la SNV augmente l’activation tonique des hétérorécepteurs pyramidaux 5-HT1A, dont on connait le rôle clé dans la réponse thérapeutique aux antidépresseurs. Par ailleurs, nous avons constaté que malgré une diminution de l’activité électrique des neurones DA de l’aire tegmentale ventrale, la SNV induit une augmentation de la DA extracellulaire dans le cortex préfrontal et particulièrement dans le noyau accumbens, lequel joue un rôle important dans les comportements de récompense et l’hédonie. Un deuxième objectif a été de caractériser les paramètres optimaux de SNV agissant sur la dépression, en utilisant comme indicateur le taux de décharge des neurones 5-HT. Des modalités de stimulation moins intenses se sont avérées aussi efficaces que les stimulations standards pour augmenter l’activité électrique des neurones 5-HT. Ces nouveaux paramètres de stimulation pourraient s’avérer bénéfiques en clinique, chez des patients ayant déjà répondu à la SNV. Ils pourraient minimiser les effets secondaires reliés aux périodes de stimulation et améliorer ainsi la qualité de vie des patients. Ainsi, ces travaux de thèse ont caractérisé l’influence de la SNV sur les trois systèmes monoaminergiques, laquelle s’avère en partie distincte de celle des antidépresseurs classiques tout en contribuant à son efficacité en clinique. D’autre part, les modalités de stimulation que nous avons définies seraient intéressantes à tester chez des patients recevant la SNV, car elles devraient contribuer à l’amélioration des bénéfices cliniques de cette thérapie.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Avec l’usage élargi de la CAAO, ces outils ont été largement utilisés dans le processus de conception architecturale. En dépit des fonctionnalités avancées offertes par les systèmes de CAAO, l'utilisation de la CAAO est principalement concentrée dans les étapes de production, comme un support graphique pour le dessin, la modélisation, le rendu et la simulation. Par conséquent, il est raisonnable de considérer que la situation actuelle relative à l’usage de la CAAO dans la profession d'architecte appelle à de nouvelles améliorations. En d'autres termes, nous devons trouver un moyen de mieux intégrer la technologie et les outils de CAAO dans le processus de conception architecturale, qui est notre question de recherche. Nous avons besoin de savoir comment la CAAO pourrait être utilisée pour améliorer la capacité de conception de l'architecte. Il ressort des discussions et des recherches menées pour cette étude que nous voulons un soutien de la technologie pour nous aider à mieux concevoir et non pas que la technologie conçoive à notre place. Nous aimerions avoir un système de CAAO qui pourrait nous servir d’assistant à la conception. En étudiant la situation de l'intégration des outils de CAAO dans les pratiques actuelles de conception des architectes et en examinant les approches utilisées dans les premières tentatives de développement d’un outil de CAAO intégré au processus de conception, on peut conclure que l'approche exploratoire et heuristique serait une meilleure approche qui pourrait être adaptée pour développer un système CAAO en soutien au travail de l’architecte. De plus, une étude plus approfondie a démontré que les deux sous- approches des approches exploratoires et heuristiques (approches basées sur les cas et les contraintes), sont applicables, mais aucune d'elles n'est suffisante. Par conséquent, l’approche hybride qui prend en compte les avantages de chacune des deux sous- approches précitées serait la plus applicable. Elle nous permettrait de développer un outil CAAD qui pourrait vraiment être intégré dans le processus de conception architecturale. Cette conclusion a été vérifiée par une étude complémentaire basée sur des entrevues.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

30.00% 30.00%

Publicador:

Resumo:

De nos jours les cartes d’utilisation/occupation du sol (USOS) à une échelle régionale sont habituellement générées à partir d’images satellitales de résolution modérée (entre 10 m et 30 m). Le National Land Cover Database aux États-Unis et le programme CORINE (Coordination of information on the environment) Land Cover en Europe, tous deux fondés sur les images LANDSAT, en sont des exemples représentatifs. Cependant ces cartes deviennent rapidement obsolètes, spécialement en environnement dynamique comme les megacités et les territoires métropolitains. Pour nombre d’applications, une mise à jour de ces cartes sur une base annuelle est requise. Depuis 2007, le USGS donne accès gratuitement à des images LANDSAT ortho-rectifiées. Des images archivées (depuis 1984) et des images acquises récemment sont disponibles. Sans aucun doute, une telle disponibilité d’images stimulera la recherche sur des méthodes et techniques rapides et efficaces pour un monitoring continue des changements des USOS à partir d’images à résolution moyenne. Cette recherche visait à évaluer le potentiel de telles images satellitales de résolution moyenne pour obtenir de l’information sur les changements des USOS à une échelle régionale dans le cas de la Communauté Métropolitaine de Montréal (CMM), une métropole nord-américaine typique. Les études précédentes ont démontré que les résultats de détection automatique des changements dépendent de plusieurs facteurs tels : 1) les caractéristiques des images (résolution spatiale, bandes spectrales, etc.); 2) la méthode même utilisée pour la détection automatique des changements; et 3) la complexité du milieu étudié. Dans le cas du milieu étudié, à l’exception du centre-ville et des artères commerciales, les utilisations du sol (industriel, commercial, résidentiel, etc.) sont bien délimitées. Ainsi cette étude s’est concentrée aux autres facteurs pouvant affecter les résultats, nommément, les caractéristiques des images et les méthodes de détection des changements. Nous avons utilisé des images TM/ETM+ de LANDSAT à 30 m de résolution spatiale et avec six bandes spectrales ainsi que des images VNIR-ASTER à 15 m de résolution spatiale et avec trois bandes spectrales afin d’évaluer l’impact des caractéristiques des images sur les résultats de détection des changements. En ce qui a trait à la méthode de détection des changements, nous avons décidé de comparer deux types de techniques automatiques : (1) techniques fournissant des informations principalement sur la localisation des changements et (2)techniques fournissant des informations à la fois sur la localisation des changements et sur les types de changement (classes « de-à »). Les principales conclusions de cette recherche sont les suivantes : Les techniques de détection de changement telles les différences d’image ou l’analyse des vecteurs de changements appliqués aux images multi-temporelles LANDSAT fournissent une image exacte des lieux où un changement est survenu d’une façon rapide et efficace. Elles peuvent donc être intégrées dans un système de monitoring continu à des fins d’évaluation rapide du volume des changements. Les cartes des changements peuvent aussi servir de guide pour l’acquisition d’images de haute résolution spatiale si l’identification détaillée du type de changement est nécessaire. Les techniques de détection de changement telles l’analyse en composantes principales et la comparaison post-classification appliquées aux images multi-temporelles LANDSAT fournissent une image relativement exacte de classes “de-à” mais à un niveau thématique très général (par exemple, bâti à espace vert et vice-versa, boisés à sol nu et vice-versa, etc.). Les images ASTER-VNIR avec une meilleure résolution spatiale mais avec moins de bandes spectrales que LANDSAT n’offrent pas un niveau thématique plus détaillé (par exemple, boisés à espace commercial ou industriel). Les résultats indiquent que la recherche future sur la détection des changements en milieu urbain devrait se concentrer aux changements du couvert végétal puisque les images à résolution moyenne sont très sensibles aux changements de ce type de couvert. Les cartes indiquant la localisation et le type des changements du couvert végétal sont en soi très utiles pour des applications comme le monitoring environnemental ou l’hydrologie urbaine. Elles peuvent aussi servir comme des indicateurs des changements de l’utilisation du sol. De techniques telles l’analyse des vecteurs de changement ou les indices de végétation son employées à cette fin.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Au Québec, la Loi sur les services de santé et les services sociaux, Chapitre S-4.2, à son article 233, demande à ce que chacun des établissements de santé, dispose d’un code d’éthique qui essentiellement demande de préciser les droits des usagers et de fixer les conduites attendues du personnel. Le législateur souhaitait améliorer les conduites du personnel dès le début des années 1990 et envisageait désigner un organisme de surveillance pour s’en assurer. Cette contrainte ne fut pas retenue et 20 ans plus tard, la volonté d’assurer des conduites attendues n’est toujours pas assujettie de contraintes ou de contrôles même si elle est toujours souhaitée. En 2003 toutefois, le Ministre a mis en place un processus de visites ministérielles dans les milieux d’hébergement et à ce jour quelques 150 établissements ont été visités. Ces équipes se sont préoccupées entre autre de la fonction du code d’éthique pour soutenir les directions de ces établissements. Elles ne réussissent pas à pouvoir s’appuyer sur le code d’éthique pour qu’il soit l’assise pour baser les décisions cliniques, organisationnelles et de gestion de chacune des organisations du réseau de la santé et des services sociaux du Québec. Il faut à ce moment-ci faire le constat que le code d’éthique, obligatoire, figure au nombre des nombreuses contraintes rencontrées par les organisations. Les établissements doivent passer un processus d’agrément aux trois ans et le code d’éthique n’est pas davantage un élément dynamique retenu à ce processus de validation de normes de qualité. De plus, une revue québécoise spécialisée en gestion de la santé a consacré un numéro complet de 15 articles sur « éthique et comportements » et le code d’éthique y est absent sauf pour deux articles qui s’y attardent spécifiquement. Est-ce une question d’éthique dont il est question par ce code, ou si ce n’est pas davantage de la déontologie, d’autant que le législateur veut avant tout s’assurer de comportements adéquats de la part des employés et des autres personnes qui exercent leur profession. Est-ce qu’un code de conduite ne serait pas plus approprié pour atteindre les fins visées? Cette question est répondue dans ce mémoire qui regarde les concepts d’éthique, de déontologie, de codes, de régulation des comportements. De plus, des analyses détaillées de 35 codes d’éthique actuels de divers établissements et de diverses régions du Québec iv sont présentées. La littérature nous donne les conditions de réussite pour un code et outre l’importance à accorder aux valeurs énoncées dans l’organisation, il est également question des sanctions à prévoir au non-respect de ces valeurs. Elles se doivent d’être claires et appliquées. Enfin, beaucoup d’organisations parlent maintenant de code de conduite et ce terme serait tout à fait approprié pour rejoindre le souhait du législateur qui veut assurer des conduites irréprochables des employés et autres personnes qui y travaillent. C’est la conclusion de ce travail, énoncée sous forme de recommandation.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les deux fonctions principales de la main sont la manipulation d’objet et l’exploration tactile. La détection du glissement, rapportée par les mécanorécepteurs de la peau glabre, est essentielle pour l’exécution de ces deux fonctions. Durant la manipulation d’objet, la détection rapide du micro-glissement (incipient slip) amène la main à augmenter la force de pince pour éviter que l’objet ne tombe. À l’opposé, le glissement est un aspect essentiel à l’exploration tactile puisqu’il favorise une plus grande acuité tactile. Pour ces deux actions, les forces normale et tangentielle exercées sur la peau permettent de décrire le glissement mais également ce qui arrive juste avant qu’il y ait glissement. Toutefois, on ignore comment ces forces contrôlées par le sujet pourraient être encodées au niveau cortical. C’est pourquoi nous avons enregistré l’activité unitaire des neurones du cortex somatosensoriel primaire (S1) durant l’exécution de deux tâches haptiques chez les primates. Dans la première tâche, deux singes devaient saisir une pastille de métal fixe et y exercer des forces de cisaillement sans glissement dans une de quatre directions orthogonales. Des 144 neurones enregistrés, 111 (77%) étaient modulés à la direction de la force de cisaillement. L’ensemble de ces vecteurs préférés s’étendait dans toutes les directions avec un arc variant de 50° à 170°. Plus de 21 de ces neurones (19%) étaient également modulés à l’intensité de la force de cisaillement. Bien que 66 neurones (59%) montraient clairement une réponse à adaptation lente et 45 autres (41%) une réponse à adaptation rapide, cette classification ne semblait pas expliquer la modulation à l’intensité et à la direction de la force de cisaillement. Ces résultats montrent que les neurones de S1 encodent simultanément la direction et l’intensité des forces même en l’absence de glissement. Dans la seconde tâche, deux singes ont parcouru différentes surfaces avec le bout des doigts à la recherche d’une cible tactile, sans feedback visuel. Durant l’exploration, les singes, comme les humains, contrôlaient les forces et la vitesse de leurs doigts dans une plage de valeurs réduite. Les surfaces à haut coefficient de friction offraient une plus grande résistance tangentielle à la peau et amenaient les singes à alléger la force de contact, normale à la peau. Par conséquent, la somme scalaire des composantes normale et tangentielle demeurait constante entre les surfaces. Ces observations démontrent que les singes contrôlent les forces normale et tangentielle qu’ils appliquent durant l’exploration tactile. Celles-ci sont également ajustées selon les propriétés de surfaces telles que la texture et la friction. Des 230 neurones enregistrés durant la tâche d’exploration tactile, 96 (42%) ont montré une fréquence de décharge instantanée reliée aux forces exercées par les doigts sur la surface. De ces neurones, 52 (54%) étaient modulés avec la force normale ou la force tangentielle bien que l’autre composante orthogonale avait peu ou pas d’influence sur la fréquence de décharge. Une autre sous-population de 44 (46%) neurones répondait au ratio entre la force normale et la force tangentielle indépendamment de l’intensité. Plus précisément, 29 (30%) neurones augmentaient et 15 (16%) autres diminuaient leur fréquence de décharge en relation avec ce ratio. Par ailleurs, environ la moitié de tous les neurones (112) étaient significativement modulés à la direction de la force tangentielle. De ces neurones, 59 (53%) répondaient à la fois à la direction et à l’intensité des forces. L’exploration de trois ou quatre différentes surfaces a permis d’évaluer l’impact du coefficient de friction sur la modulation de 102 neurones de S1. En fait, 17 (17%) neurones ont montré une augmentation de leur fréquence de décharge avec l’augmentation du coefficient de friction alors que 8 (8%) autres ont montré le comportement inverse. Par contre, 37 (36%) neurones présentaient une décharge maximale sur une surface en particulier, sans relation linéaire avec le coefficient de friction des surfaces. La classification d’adaptation rapide ou lente des neurones de S1 n’a pu être mise en relation avec la modulation aux forces et à la friction. Ces résultats montrent que la fréquence de décharge des neurones de S1 encode l’intensité des forces normale et tangentielle, le ratio entre les deux composantes et la direction du mouvement. Ces résultats montrent que le comportement d’une importante sous-population des neurones de S1 est déterminé par les forces normale et tangentielle sur la peau. La modulation aux forces présentée ici fait le pont entre les travaux évaluant les propriétés de surfaces telles que la rugosité et les études touchant à la manipulation d’objets. Ce système de référence s’applique en présence ou en absence de glissement entre la peau et la surface. Nos résultats quant à la modulation des neurones à adaptation rapide ou lente nous amènent à suggérer que cette classification découle de la manière que la peau est stimulée. Nous discuterons aussi de la possibilité que l’activité des neurones de S1 puisse inclure une composante motrice durant ces tâches sensorimotrices. Finalement, un nouveau cadre de référence tridimensionnel sera proposé pour décrire et rassembler, dans un même continuum, les différentes modulations aux forces normale et tangentielle observées dans S1 durant l’exploration tactile.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’accouchement et ses conséquences demeurent une des principales causes d’incapacité et de décès pour les femmes dans les pays en développement et comprendre l’utilisation tardive des soins obstétricaux d’urgence au moment d’une complication obstétricale constitue un véritable défi en santé publique. La présente étude qualitative relate l’expérience d’accouchement difficile au Mali, en milieu rural. Dans un contexte de pluralité de systèmes de soins, l’objet de cette étude consiste à déterminer les raisons de l’arrivée tardive des femmes au centre de santé de 1ier ligne, à saisir la compréhension qu’elles ont de l’utilisation des services sanitaires, enfin à reconstruire les processus de prise de décisions de recourir aux soins modernes. Cette étude s’inscrit dans une démarche de type ethnographique. Des entretiens semi dirigés et l’observation des interactions entre les femmes et les professionnels de santé ont constitué le corpus de données. Nous retenons qu’une série de facteurs entrent en jeu pour comprendre le problème de l’utilisation tardive des soins obstétricaux d’urgence. Des contraintes exogènes liées à la distance et l’immédiateté de l’urgence obstétricale c'est-à-dire la mobilisation des ressources et des moyens de transport, accompagnées de contraintes endogènes telles que la subordination des femmes au consentement familial, la perception de la qualité des soins et de la compétence des soignants, influencent systématiquement le choix de recourir aux soins modernes. Le phénomène de gestion collective de la complication obstétricale s’inscrit dans un contexte d’intéractions complexes où l’opinion des femmes est totalement minimisée.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Depuis les années 1980, la formation des enseignants a fait l’objet de réformes majeures dans la plupart des sociétés développées, souvent en étant directement articulée à un processus de «professionnalisation» (Tardif, Lessard & Gauthier, 1998). La professionnalisation de l’enseignement est aujourd’hui considérée comme un mouvement international (OCDE, 2005). Dans cette recherche de maîtrise, nous analysons la mise en œuvre de la professionnalisation et son articulation à l’organisation des programmes de formation des enseignants du primaire dans deux contextes : Finlande et Québec. L’intérêt d’une comparaison du Québec avec la Finlande découle des enquêtes PISA 2000, 2003, et 2006, qui ont permis de faire reconnaître le système éducatif finlandais comme l’exemple d’un système performant qui combine avec succès la qualité, l’équité et la cohésion sociale (Sahlberg, 2007). Or, parmi les nombreuses raisons présentées pour expliquer ce succès, une des plus importantes serait la formation des enseignants. En Finlande les enseignants réalisent une formation initiale de 5 ans. Mais au Québec les enseignants sont aussi hautement éduqués : ils réalisent une formation universitaire de 4 ans après deux années d’études pré-universitaires. Dans les deux contextes, les enseignants complètent 17 ans de scolarité. Quelles sont les similitudes et les différences entre les programmes de formation des enseignants du primaire en Finlande et au Québec? Comment et en quoi ce processus de professionnalisation, comme tendance internationale, a-t-il marqué les systèmes de formation d’enseignants finlandais et québécois ? Peut-on dégager, à partir de cette comparaison, des éléments d’un système de formation à l’enseignement de meilleure qualité pour le Québec?

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le Québec est une immense province à l’intérieur de laquelle existe une grande diversité de conditions bioclimatiques et où les perturbations anthropiques et naturelles du couvert végétal sont nombreuses. À l’échelle provinciale, ces multiples facteurs interagissent pour sculpter la composition et la distribution des paysages. Les objectifs généraux de cette recherche visaient à explorer et comprendre la distribution spatiale des patrons des paysages du Québec, de même qu’à caractériser les patrons observés à partir d’images satellitaires. Pour ce faire, les patrons des paysages ont été quantifiés avec un ensemble complet d’indices calculés à partir d’une cartographie de la couverture végétale. Plusieurs approches ont été développées et appliquées pour interpréter les valeurs d’indices sur de vastes étendues et pour cartographier la distribution des patrons des paysages québécois. Les résultats ont révélé que les patrons de la végétation prédits par le Ministère des Ressources naturelles du Québec divergent des patrons de la couverture végétale observée. Ce mémoire dresse un portrait des paysages québécois et les synthétise de manière innovatrice, en plus de démontrer le potentiel d’utilisation des indices comme attributs biogéographiques à l’échelle nationale.