49 resultados para Substance concept
Resumo:
Alors que certains mécanismes pourtant jugés cruciaux pour la transformation de la pluie en débit restent peu ou mal compris, le concept de connectivité hydrologique a récemment été proposé pour expliquer pourquoi certains processus sont déclenchés de manière épisodique en fonction des caractéristiques des événements de pluie et de la teneur en eau des sols avant l’événement. L’adoption de ce nouveau concept en hydrologie reste cependant difficile puisqu’il n’y a pas de consensus sur la définition de la connectivité, sa mesure, son intégration dans les modèles hydrologiques et son comportement lors des transferts d’échelles spatiales et temporelles. Le but de ce travail doctoral est donc de préciser la définition, la mesure, l’agrégation et la prédiction des processus liés à la connectivité hydrologique en s’attardant aux questions suivantes : 1) Quel cadre méthodologique adopter pour une étude sur la connectivité hydrologique ?, 2) Comment évaluer le degré de connectivité hydrologique des bassins versants à partir de données de terrain ?, et 3) Dans quelle mesure nos connaissances sur la connectivité hydrologique doivent-elles conduire à la modification des postulats de modélisation hydrologique ? Trois approches d’étude sont différenciées, soit i) une approche de type « boite noire », basée uniquement sur l’exploitation des données de pluie et de débits sans examiner le fonctionnement interne du bassin versant ; ii) une approche de type « boite grise » reposant sur l’étude de données géochimiques ponctuelles illustrant la dynamique interne du bassin versant ; et iii) une approche de type « boite blanche » axée sur l’analyse de patrons spatiaux exhaustifs de la topographie de surface, la topographie de subsurface et l’humidité du sol. Ces trois approches sont ensuite validées expérimentalement dans le bassin versant de l’Hermine (Basses Laurentides, Québec). Quatre types de réponses hydrologiques sont distingués en fonction de leur magnitude et de leur synchronisme, sachant que leur présence relative dépend des conditions antécédentes. Les forts débits enregistrés à l’exutoire du bassin versant sont associés à une contribution accrue de certaines sources de ruissellement, ce qui témoigne d’un lien hydraulique accru et donc d’un fort degré de connectivité hydrologique entre les sources concernées et le cours d’eau. Les aires saturées couvrant des superficies supérieures à 0,85 ha sont jugées critiques pour la genèse de forts débits de crue. La preuve est aussi faite que les propriétés statistiques des patrons d’humidité du sol en milieu forestier tempéré humide sont nettement différentes de celles observées en milieu de prairie tempéré sec, d’où la nécessité d’utiliser des méthodes de calcul différentes pour dériver des métriques spatiales de connectivité dans les deux types de milieux. Enfin, la double existence de sources contributives « linéaires » et « non linéaires » est mise en évidence à l’Hermine. Ces résultats suggèrent la révision de concepts qui sous-tendent l’élaboration et l’exécution des modèles hydrologiques. L’originalité de cette thèse est le fait même de son sujet. En effet, les objectifs de recherche poursuivis sont conformes à la théorie hydrologique renouvelée qui prône l’arrêt des études de particularismes de petite échelle au profit de l’examen des propriétés émergentes des bassins versants telles que la connectivité hydrologique. La contribution majeure de cette thèse consiste ainsi en la proposition d’une définition unifiée de la connectivité, d’un cadre méthodologique, d’approches de mesure sur le terrain, d’outils techniques et de pistes de solution pour la modélisation des systèmes hydrologiques.
Resumo:
La thèse présente une analyse conceptuelle de l'évolution du concept d'espace topologique. En particulier, elle se concentre sur la transition des espaces topologiques hérités de Hausdorff aux topos de Grothendieck. Il en ressort que, par rapport aux espaces topologiques traditionnels, les topos transforment radicalement la conceptualisation topologique de l'espace. Alors qu'un espace topologique est un ensemble de points muni d'une structure induite par certains sous-ensembles appelés ouverts, un topos est plutôt une catégorie satisfaisant certaines propriétés d'exactitude. L'aspect le plus important de cette transformation tient à un renversement de la relation dialectique unissant un espace à ses points. Un espace topologique est entièrement déterminé par ses points, ceux-ci étant compris comme des unités indivisibles et sans structure. L'identité de l'espace est donc celle que lui insufflent ses points. À l'opposé, les points et les ouverts d'un topos sont déterminés par la structure de celui-ci. Qui plus est, la nature des points change: ils ne sont plus premiers et indivisibles. En effet, les points d'un topos disposent eux-mêmes d'une structure. L'analyse met également en évidence que le concept d'espace topologique évolua selon une dynamique de rupture et de continuité. Entre 1945 et 1957, la topologie algébrique et, dans une certaine mesure, la géométrie algébrique furent l'objet de changements fondamentaux. Les livres Foundations of Algebraic Topology de Eilenberg et Steenrod et Homological Algebra de Cartan et Eilenberg de même que la théorie des faisceaux modifièrent profondément l'étude des espaces topologiques. En contrepartie, ces ruptures ne furent pas assez profondes pour altérer la conceptualisation topologique de l'espace elle-même. Ces ruptures doivent donc être considérées comme des microfractures dans la perspective de l'évolution du concept d'espace topologique. La rupture définitive ne survint qu'au début des années 1960 avec l'avènement des topos dans le cadre de la vaste refonte de la géométrie algébrique entreprise par Grothendieck. La clé fut l'utilisation novatrice que fit Grothendieck de la théorie des catégories. Alors que ses prédécesseurs n'y voyaient qu'un langage utile pour exprimer certaines idées mathématiques, Grothendieck l'emploie comme un outil de clarification conceptuelle. Ce faisant, il se trouve à mettre de l'avant une approche axiomatico-catégorielle des mathématiques. Or, cette rupture était tributaire des innovations associées à Foundations of Algebraic Topology, Homological Algebra et la théorie des faisceaux. La théorie des catégories permit à Grothendieck d'exploiter le plein potentiel des idées introduites par ces ruptures partielles. D'un point de vue épistémologique, la transition des espaces topologiques aux topos doit alors être vue comme s'inscrivant dans un changement de position normative en mathématiques, soit celui des mathématiques modernes vers les mathématiques contemporaines.
Resumo:
Ce mémoire se propose d’aborder le concept adornien de matériau musical selon deux de ses moments essentiels : l’intégration et la désintégration. Dans un premier temps, il s’agira d’analyser la critique de l’Aufklärung, selon laquelle la rationalité éclairée, par la domination progressive de la nature, se transforme en son contraire, le mythe. Cette analyse servira de base théorique pour la compréhension du concept de matériau. Dans un deuxième temps, il conviendra d’examiner la tendance progressiste—exemplifiée dans la sonate classique de Beethoven—vers l’intégration du matériau musical, comprise comme un moment dans le processus plus large de rationalisation sociale identifié par Max Weber. Dans un troisième temps, il conviendra d’examiner la tendance régressive—exemplifiée dans les œuvres du Beethoven tardif, de Mahler et de Berg—vers la désintégration du matériau musical, une tendance qui reflète les aspects noirs de l’Aufklärung, à savoir la fragmentation sociale et la réification. Enfin, nous évaluerons quelques commentaires critiques soulevant des doutes quant à la validité d’un concept de matériau musical basé sur une philosophie de l’histoire qui, malgré ses distances, ne s’échappe pas de ses origines hégéliennes.
Resumo:
Contexte : Les premières implantations PACS (Picture Archiving and Communication System) remontent aux années 80. Le rehaussement récent du PACS au sein d’un centre hospitalier universitaire a permis d’étudier l’introduction d’innovations dans une technologie mature. Objectif : Dans un premier temps, effectuer une revue de la littérature sur les études évaluant la perceptions des utilisateurs de l’implantation des PACS. Deuxièmement, évaluer dans une étude de cas si le niveau d’alignement entre les tâches et la technologie prédit l’utilisation et la perception des bénéfices. Méthodes : Il y a eu une revue systématique de la littérature afin d’identifier les études sur la perception des utilisateurs du PACS. Une adaptation du modèle TTF (Task-Technology-Fit) développé par Goodhue (1995) a servi de base théorique pour l’étude de cas effectuée par questionnaire auto-administré. Résultats : Les modèles recensés dans la revue systématique sont mieux adaptés à des nouvelles implantions PACS qu’à des systèmes matures en évolution. Il y a une corrélation significative entre le niveau de l’alignement, tel que perçu par les utilisateurs, et la perception des bénéfices nets, ainsi que l’utilisation de la technologie. L’étude a démontré un écart entre la perception des utilisateurs et celle des développeurs interviewés. Conclusions : Cette étude supporte la validité du concept alignement tâche-technologie dans l’analyse d’un rehaussement PACS. Il est important de maintenir une interaction soutenue entre développeurs et utilisateurs, qui va audelà de la phase initiale de développement.
Resumo:
Problématique : Les effets de la constitutionnalisation du droit du travail sur le contrôle arbitral du pouvoir de réglementation de l’employeur. La problématique de notre projet de recherche consiste à évaluer les effets du phénomène de la constitutionnalisation du droit du travail sur le pouvoir de l’employeur d’établir de la réglementation d’entreprise relative au travail, lequel pouvoir est une manifestation concrète de ses droits de direction. Notre projet de recherche, qui se limite au contexte syndiqué, met donc en relation deux grandes dimensions lesquelles sont le pouvoir de réglementation de l’employeur et le phénomène de la constitutionnalisation du droit du travail. Mentionnons que notre projet de recherche s’attarde aux limites, se trouvant tant dans la législation que dans la convention collective, permettant l’encadrement du pouvoir de réglementation de l’employeur. Concernant le phénomène de la constitutionnalisation du droit du travail, notre projet de recherche s’attarde tant à ses fondements qu’à ses effets sur le pouvoir de réglementation de l’employeur, ces derniers effets découlant principalement de la décision Parry Sound, laquelle est à l’effet que tous les droits et obligations prévus dans les lois sont contenus implicitement dans chaque convention collective, quelles que soient les intentions des parties contractantes. Ainsi, notre projet de recherche vise à démontrer empiriquement, en observant la jurisprudence arbitrale, dans quelle mesure le phénomène de la constitutionnalisation du droit du travail, en contexte syndiqué, modifie l’encadrement du pouvoir de réglementation de l’employeur puisque ce dernier doit dorénavant composer avec des normes étatiques fondamentales qu’il n’a ni négociées, ni déterminées. Mentionnons que le concept central de notre recherche se trouve à être le contrôle arbitral du pouvoir de réglementation de l’employeur relativement à la réglementation d’entreprise susceptible de faire intervenir les dispositions 1, 3, 4 et 5 de la Charte des droits et libertés de la personne et qu’il vise la classification dudit contrôle arbitral en deux grandes logiques : la logique I préalablement à la décision Parry Sound et la logique II postérieurement à cette même décision. Ainsi, notre hypothèse dominante est à l’effet qu’en matière de contrôle arbitral du pouvoir de réglementation de l’employeur, deux logiques existent et que dans une logique II, le contrôle arbitral est modifié en ce que les arbitres, situent au sommet de la hiérarchie des aspects à évaluer, la conformité de la réglementation d’entreprise aux dispositions de la Charte susmentionnées.
Resumo:
Les projets interdisciplinaires constituent rarement le terrain des études sur le processus de conception en design. Les théories générales du design, en tentant de définir ce qui est commun à toutes les disciplines du design, ont davantage étudié les cas typiques que les cas atypiques. Or, nous croyons qu’il existe dans les projets interdisciplinaires une négociation argumentative et une ouverture vers l’autre, propice à l’analyse du processus de conception en design. Pour réaliser l’étude de ce processus, la stratégie empruntée a été la «recherche-projet» qui propose une participation active sur le terrain. À l’intérieur de cette stratégie méthodologique, nous avons réalisé l’étude de cas d’un projet hybride, une signalétique identitaire destinée à marquer les écocentres montréalais et orienter leurs usagers. Comme plusieurs autres pratiques du design, la complexité des projets interdisciplinaires demande l’apport de plusieurs acteurs dans le processus. Ces personnes conçoivent le projet à travers des représentations visuelles et des échanges verbaux, nous avons choisi de faire porter notre étude principalement sur le second. Pour ce faire, nous avons choisi comme cadre théorique le Traité de l’argumentation de Chaïm Perelman et Lucie Olbrechts-Tyteca en nous intéressant plus spécifiquement aux concepts d’«accord» et d’«auditoire». Parce que le véhicule de l’action en design est la notion de «projet», l’Anthropologie du projet de Jean-Pierre Boutinet sera notre guide à travers cette conduite. L’objet de recherche de ce mémoire sera donc le processus de conception en design qui sera étudié à travers le regard de l’argumentation. L’argumentation s'est révélée la clé du problème que posent les jugements de valeur, commune à toutes les disciplines du design. Qu’est-ce qu’un «bon» projet réalisé? Est-il possible de répondre à cette question, sans tomber dans un cadre argumentatif, sans devoir révéler les arguments qui nous permettent de croire vraisemblable une telle proposition? C’est en mettant en lien la théorie du projet en design et la théorie de l’argumentation que nous avons éclairé la pratique du designer, sa relation à ses collègues et ultimement avec lui-même. L’argumentation s’est avérée un outil permettant la construction de la réalité dans le projet interdisciplinaire.
Resumo:
Au début de son Traité fondamental de la foi, Karl Rahner avise le lecteur que l’introduction au concept de christianisme qu’il propose se déploie à ce qu’il nomme un « premier niveau de réflexion » (erste Reflexionsstufe). S’il le distingue explicitement du niveau de réflexion des sciences entendues au sens usuel, il n’en donne pas de définition formelle, s’employant plutôt à le mettre en œuvre. Curieusement, eu égard à l’importance que lui accorde Rahner, la question de ce « plan » alternatif de compréhension et de justification de la foi chrétienne est demeurée pratiquement sans écho (un constat formulé par Max Seckler en 1984 et renouvelé par Karl H. Neufeld en 2006). C'est à cette question du « premier niveau de réflexion » chez Rahner que s'attache la présente étude. Après avoir dressé un état de la question, nous y présentons les jalons du déve-loppement du concept chez Rahner, depuis ses articles sur la formation des prêtres en contexte de pluralisme jusqu’au Traité fondamental de la foi. Nous y montrons ensuite en quoi la référence de Rahner à l'illative sense newmanien, contestée lorsqu’elle n’est pas négligée par les commentateurs, peut être une clé d’interprétation de la notion qui nous occupe, le « sens illatif » (et la Grammar of Assent) éclairant le « premier niveau de réflexion » (et le Traité fondamental), et vice versa. Nous y voyons enfin comment cette référence à Newman met sur la voie des Exercices spirituels d’Ignace de Loyola, lequel aura été pour Rahner non seulement un maître spirituel, mais également un maître de théologie. Ce qui paraissait n’être au début qu’une indication d’ordre didactique se révèle dès lors comme une caractérisation fondamentale de la théologie telle que la com-prend Rahner.
Resumo:
Avec la complexité croissante des systèmes sur puce, de nouveaux défis ne cessent d’émerger dans la conception de ces systèmes en matière de vérification formelle et de synthèse de haut niveau. Plusieurs travaux autour de SystemC, considéré comme la norme pour la conception au niveau système, sont en cours afin de relever ces nouveaux défis. Cependant, à cause du modèle de concurrence complexe de SystemC, relever ces défis reste toujours une tâche difficile. Ainsi, nous pensons qu’il est primordial de partir sur de meilleures bases en utilisant un modèle de concurrence plus efficace. Par conséquent, dans cette thèse, nous étudions une méthodologie de conception qui offre une meilleure abstraction pour modéliser des composants parallèles en se basant sur le concept de transaction. Nous montrons comment, grâce au raisonnement simple que procure le concept de transaction, il devient plus facile d’appliquer la vérification formelle, le raffinement incrémental et la synthèse de haut niveau. Dans le but d’évaluer l’efficacité de cette méthodologie, nous avons fixé l’objectif d’optimiser la vitesse de simulation d’un modèle transactionnel en profitant d’une machine multicoeur. Nous présentons ainsi l’environnement de modélisation et de simulation parallèle que nous avons développé. Nous étudions différentes stratégies d’ordonnancement en matière de parallélisme et de surcoût de synchronisation. Une expérimentation faite sur un modèle du transmetteur Wi-Fi 802.11a a permis d’atteindre une accélération d’environ 1.8 en utilisant deux threads. Avec 8 threads, bien que la charge de travail des différentes transactions n’était pas importante, nous avons pu atteindre une accélération d’environ 4.6, ce qui est un résultat très prometteur.
Resumo:
Contexte Autant dans une population schizophrène que non schizophrène, l‘abus de substance a pour conséquence la manifestation de symptômes psychiatriques et neurologiques. Dans les présentes études cas-témoins, nous avons examiné les différences initiales ainsi que les changements suite au traitement de 12 semaines à la quetiapine au niveau de la sévérité de la toxicomanie et des symptômes psychiatriques et neurologiques chez 3 groupes distincts. Ces 3 groupes sont: des patients schizophrènes avec une toxicomanie (double diagnostic: DD), des patients schizophrènes sans toxicomanie concomittante (SCZ) et finalement, des toxicomanes non schizophrènes (SUD). Parallèlement, afin de nous aider à interpréter nos résultats, nous avons mené deux revues systématiques: la première regardait l‘effet d‘antipsychotiques dans le traitement de troubles d‘abus/dépendance chez des personnes atteintes ou non de psychoses, la deuxième comparait l‘efficacité de la quetiapine et sa relation dose-réponse parmi différents désordres psychiatriques. Méthodes Pour nos études cas-témoins, l‘ensemble des symptômes psychiatriques et neurologiques ont été évalués via l‘Échelle du syndrome positif et négatif (PANSS), l‘Échelle de dépression de Calgary, l‘Échelle des symptômes extrapyramidaux (ESRS) ainsi qu‘avec l‘Échelle d‘akathisie de Barnes. Résultats À la suite du traitement de 12 semaines avec la quetiapine, les groupes SCZ et DD recevaient des doses de quetiapine significativement plus élevées (moyenne = 554 et 478 mg par jour, respectivement) par rapport au groupe SUD (moyenne = 150 mg par jour). Aussi, nous avons observé chez ces mêmes patients SUD une plus importante baisse du montant d‘argent dépensé par semaine en alcool et autres drogues, ainsi qu‘une nette amélioration de la sévérité de la toxicomanie comparativement aux patients DD. Par conséquent, à la fin de l‘essai de 12 semaines, il n‘y avait pas de différence significative dans l‘argent dépensé en alcool et drogues entre les deux groupes de toxicomanes iv or, les patients DD présentait, comme au point de départ, un score de toxicomanie plus sévère que les SUD. Étonnamment, aux points initial et final de l‘étude, le groupe DD souffrait de plus de symptômes parkinsoniens et de dépression que le groupe SCZ. Par ailleurs, nous avons trouvé qu‘initiallement, les patients SUD présentaient significativement plus d‘akathisie, mais qu‘en cours de traitement, cette akathisie reliée à l‘abus/dépendance de cannabis s‘est nettement améliorée en comparaison aux patients SCZ. Enfin, les patients SUD ont bénéficié d‘une plus grande diminution de leurs symptômes positifs que les 2 groupes atteints de schizophrénie. Conclusions Bref, l‘ensemble de nos résultats fait montre d‘une vulnérabilité accentuée par les effets négatifs de l‘alcool et autres drogues dans une population de patients schizophrènes. Également, ces résultats suggèrent que l‘abus de substance en combinaison avec les états de manque miment certains symptômes retrouvés en schizophrénie. De futures études seront nécessaires afin de déterminer le rôle spécifique qu‘a joué la quetiapine dans ces améliorations.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l'Université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Les mauvais traitements représentent un facteur de risque pouvant entraver le développement normal des enfants qui en sont victimes. L’objectif général de cette thèse est de mieux comprendre le concept d’état de stress post-traumatique-complexe (ÉSPT-C) et ce, en permettant l’évaluation rigoureuse de ses symptômes et en documentant sa relation avec d’autres variables. La présente thèse est composée de deux articles empiriques. L’objectif du premier article est d’obtenir une mesure de l’ÉSPT-C pour une population francophone. Pour ce faire, les qualités psychométriques de la traduction francophone du Structured Interview of Disorders of Extreme Stress-Self-Report (SIDES-SR) ont été testées par le biais d’analyses préliminaires auprès de 438 adultes canadiens-français provenant de la population générale et de l’Université de Montréal. Les résultats démontrent que l’instrument possède une structure factorielle de 5 facteurs comparable à celle obtenue pour l’instrument en anglais dans sa version originale. Les facteurs obtenus sont : 1) les croyances pessimistes par rapport aux autres et au futur, 2) la gestion des affects, 3) l’évitement des contacts physiques et sexuels, 4) la somatisation et 5) la prise de risques. La cohérence interne de 4 facteurs sur 5 varie d’acceptable à très satisfaisante alors que leur stabilité temporelle et leur validité convergente, divergente et concurrente ressortent comme étant assez satisfaisantes. Le but du deuxième article de cette thèse est d’examiner l’apport des symptômes d’ÉSPT-C retrouvés chez les mères et de leurs pratiques parentales (supervision et utilisation abusive de la punition) pour expliquer les symptômes d’ordre psychologique chez leurs enfants victimes d’agression sexuelle (AS). Les symptômes d’ÉSPT-C des mères et leurs pratiques éducatives ont été évalués auprès de 96 mères à l’aide de mesures auto-rapportées alors que les symptômes de leur enfant ont été mesurés à partir d’un instrument qui leur était destiné. Les résultats suggèrent qu’en contrôlant les variables sociodémographiques et les caractéristiques de l’AS de l’enfant, les symptômes d’ÉSPT-C des mères sont liés à plusieurs symptômes retrouvés chez les enfants après le dévoilement de l’AS qu’ils ont subie. Le rôle modérateur de la supervision maternelle dans la relation entre l’ÉSPT-C des mères et les symptômes de dépression et d’opposition des enfants a également été démontré. Les implications théoriques et cliniques concernant les résultats obtenus dans le cadre de ce projet doctoral sont finalement abordées.
Resumo:
/Face à l’innovation apportée par les technologies de l’information, il est loisible de s’interroger sur la pertinence des concepts juridiques qui ont été arrêtés en un autre siècle et sous une autre technologie. Il s’agira donc dans une perspective préliminaire, d’envisager l’influence de ces innovations sur le droit de la vie privée. Aussi, en utilisant le concept de « neutralité technologique », nous mesurerons la réalité de son application dans ce domaine d’activité en vérifiant sa pertinence et en identifiant les éléments qui pourraient, au contraire, laisser croire à une différence de traitement entre le papier et l’électronique. Une fois ce constat fait, nous évaluerons les changements opérés respectivement sur le plan de la forme du droit et de sa substance. Concernant en premier lieu sa forme, nous examinerons principalement la façon de faire des lois en nous interrogeant sur l’attitude du législateur qui nous semble quelque peu varier dés lors qu’il s’agit d’encadrer la spécificité des renseignements personnels sur support électronique. Dans la seconde partie, si les principes généraux relatifs à la gestion des renseignements personnels sont désormais connus, il faudra s’interroger sur le fait de savoir si une évolution n’est pas nécessaire.