107 resultados para coût de la schizophrénie
Resumo:
Les systèmes multiprocesseurs sur puce électronique (On-Chip Multiprocessor [OCM]) sont considérés comme les meilleures structures pour occuper l'espace disponible sur les circuits intégrés actuels. Dans nos travaux, nous nous intéressons à un modèle architectural, appelé architecture isométrique de systèmes multiprocesseurs sur puce, qui permet d'évaluer, de prédire et d'optimiser les systèmes OCM en misant sur une organisation efficace des nœuds (processeurs et mémoires), et à des méthodologies qui permettent d'utiliser efficacement ces architectures. Dans la première partie de la thèse, nous nous intéressons à la topologie du modèle et nous proposons une architecture qui permet d'utiliser efficacement et massivement les mémoires sur la puce. Les processeurs et les mémoires sont organisés selon une approche isométrique qui consiste à rapprocher les données des processus plutôt que d'optimiser les transferts entre les processeurs et les mémoires disposés de manière conventionnelle. L'architecture est un modèle maillé en trois dimensions. La disposition des unités sur ce modèle est inspirée de la structure cristalline du chlorure de sodium (NaCl), où chaque processeur peut accéder à six mémoires à la fois et où chaque mémoire peut communiquer avec autant de processeurs à la fois. Dans la deuxième partie de notre travail, nous nous intéressons à une méthodologie de décomposition où le nombre de nœuds du modèle est idéal et peut être déterminé à partir d'une spécification matricielle de l'application qui est traitée par le modèle proposé. Sachant que la performance d'un modèle dépend de la quantité de flot de données échangées entre ses unités, en l'occurrence leur nombre, et notre but étant de garantir une bonne performance de calcul en fonction de l'application traitée, nous proposons de trouver le nombre idéal de processeurs et de mémoires du système à construire. Aussi, considérons-nous la décomposition de la spécification du modèle à construire ou de l'application à traiter en fonction de l'équilibre de charge des unités. Nous proposons ainsi une approche de décomposition sur trois points : la transformation de la spécification ou de l'application en une matrice d'incidence dont les éléments sont les flots de données entre les processus et les données, une nouvelle méthodologie basée sur le problème de la formation des cellules (Cell Formation Problem [CFP]), et un équilibre de charge de processus dans les processeurs et de données dans les mémoires. Dans la troisième partie, toujours dans le souci de concevoir un système efficace et performant, nous nous intéressons à l'affectation des processeurs et des mémoires par une méthodologie en deux étapes. Dans un premier temps, nous affectons des unités aux nœuds du système, considéré ici comme un graphe non orienté, et dans un deuxième temps, nous affectons des valeurs aux arcs de ce graphe. Pour l'affectation, nous proposons une modélisation des applications décomposées en utilisant une approche matricielle et l'utilisation du problème d'affectation quadratique (Quadratic Assignment Problem [QAP]). Pour l'affectation de valeurs aux arcs, nous proposons une approche de perturbation graduelle, afin de chercher la meilleure combinaison du coût de l'affectation, ceci en respectant certains paramètres comme la température, la dissipation de chaleur, la consommation d'énergie et la surface occupée par la puce. Le but ultime de ce travail est de proposer aux architectes de systèmes multiprocesseurs sur puce une méthodologie non traditionnelle et un outil systématique et efficace d'aide à la conception dès la phase de la spécification fonctionnelle du système.
Resumo:
L'attaque de retransmission sélective est une menace sérieuse dans les réseaux de capteurs sans fil (WSN), en particulier dans les systèmes de surveillance. Les noeuds peuvent supprimer de manière malicieuse certains paquets de données sensibles, ce qui risque de détruire la valeur des données assemblées dans le réseau et de diminuer la disponibilité des services des capteurs. Nous présentons un système de sécurité léger basé sur l'envoi de faux rapports pour identifier les attaques de retransmission sélective après avoir montré les inconvénients des systèmes existants. Le grand avantage de notre approche est que la station de base attend une séquence de faux paquets à un moment précis sans avoir communiqué avec les noeuds du réseau. Par conséquent, elle sera capable de détecter une perte de paquets. L'analyse théorique montre que le système proposé peut identifier ce type d'attaque et peut alors améliorer la robustesse du réseau dans des conditions d'un bon compromis entre la fiabilité de la sécurité et le coût de transmission. Notre système peut atteindre un taux de réussite élevé d‟identification face à un grand nombre de noeuds malicieux, tandis que le coût de transmission peut être contrôlé dans des limites raisonnables.
Resumo:
La politique québécoise de l’adaptation scolaire confirme que le plan d’intervention (PI) constitue l’outil privilégié pour répondre aux besoins des élèves handicapés ou en difficulté d’adaptation ou d’apprentissage. Toutefois, la recension des écrits nous informe que le plan d’intervention est encore loin d’être efficace. Le Ministère de l’Éducation, des Loisirs et des Sports du Québec (MELS, 2004) ainsi que l’Office of Special Education and Rehabilitative Services des U.S. department of Education (dans Eichler, 1999) ont bien identifié et présenté explicitement cinq à six fonctions du PI mais, aucun des deux organismes ne définit ce qu’est une fonction, à quoi elle sert, son importance relative et ce qu’elle implique. De plus, on retrouve, explicitement ou implicitement, soit dans le cadre de référence pour l’établissement des PI (MELS, 2004), soit dans la revue de la littérature, soit dans les milieux de pratique plusieurs autres fonctions que le PI remplit ou devrait remplir. Ce flou entourant le concept de fonction entraîne un manque de rigueur dans la conception des PI, car « lorsque la totalité des fonctions a été identifiée, elle permet le développement d’un produit répondant à l’usage attendu » (Langevin et coll., 1998). Il y a d’emblée une somme de fonctions qu’un PI remplit déjà et d’autres sûrement à remplir. Or, cela n’a pas été élucidé, précisé et validé. Le but de la présente recherche a été de définir les rôles du PI au regard des besoins de ses différents utilisateurs. Les objectifs spécifiques ont été les suivants, 1) Identifier les différents utilisateurs d’un PI, 2) Identifier les besoins des différents utilisateurs d’un PI, 3) Identifier les fonctions qu’un PI doit remplir afin de satisfaire les besoins de ses utilisateurs, 4) Créer un cahier des charges fonctionnel pour la conception et l’évaluation d’un PI, 5) Identifier certains coûts reliés à la conception d’un PI. Afin d’atteindre les objectifs précités, nous avons eu recours à la méthode de l’analyse de la valeur pédagogique (AVP) (Langevin, Rocque et Riopel, 2008). La méthode d’AVP comportait une analyse des besoins des différents utilisateurs potentiels, une analyse de la recension des écrits, une analyse des encadrements légaux, une analyse de produits types et une analyse écosystémique. En conclusion, nous avons identifié les différents utilisateurs potentiels d’un PI, identifié les différents besoins de ces utilisateurs, identifié les fonctions qu’un PI doit remplir pour satisfaire leurs besoins, crée un cahier des charges fonctionnel (CdCF) pour la conception et l’évaluation des PI et identifié certains coûts liés à la conception d’un PI. Le CdCF pourra servir à concevoir des PI et à évaluer leur efficience. Une partie du CdCF pourra aussi remplir un rôle prescriptif pour la conception d’outil de soutien à l’élaboration du PI. Enfin, le CdCF pourra servir à la formation et à la recherche en éducation.
Resumo:
En 1997, dans un souci de justice sociale et de solidarité entre tous les québécois, le gouvernement a instauré un Régime général d’assurance médicaments (RGAM) devant permettre de fournir à moindre coût et de manière équitable, des médicaments prescrits assurant une meilleure prise en charge de la maladie des individus. Depuis sa mise en place, le rythme soutenu d’évolution des coûts des médicaments remboursés par le Régime est le sujet d’un nombre croissant de débats. Le Québec ne fait pas figure d’exception car au cours des dernières décennies, la croissance des dépenses de médicaments des régimes d’assurance médicaments des pays industrialisés a connu un rythme de progression élevé, cela malgré l’instauration successive de mécanismes de régulation ciblant une utilisation optimale des médicaments et un meilleur contrôle de la trajectoire de leurs dépenses. La recherche propose une réflexion sur les cadres communs d’action dans lesquels ces outils de régulation sont implantés et évoluent. Elle s’intéresse à l’ensemble des facteurs relationnels et contextuels qui les constituent. Le devis de recherche s’appuie sur une étude de cas unique qu’est le processus menant à l’utilisation du médicament prescrit couvert par le RGAM. Il se compose de trois unités d’analyse identifiées comme étant des cibles importantes de régulation : l’inscription du médicament à la liste du RGAM, la prescription et l’accès au médicament couvert par le Régime. La perspective conceptuelle retenue est celle de l’analyse stratégique de Crozier et Friedberg (1987). La démarche analytique s’appuie sur des entrevues réalisées auprès des régulateurs, de fabricants de médicaments brevetés et de génériques, de médecins, de pharmaciens et de patients impliqués dans l’utilisation des médicaments remboursés par le RGAM et sur une revue du cadre réglementaire concernant ces acteurs, le médicament d’ordonnance et le RGAM. La recherche décrit et analyse la structuration du processus menant à l’utilisation du médicament couvert par le RGAM. Elle conduit au développement d’un construit organisationnel- le système d’action concret- fondé sur les interdépendances des cinq groupes d’acteurs et les relations de pouvoir qu’ils entretiennent entre eux. Ceux-ci évoluent dans des contextes organisationnels singuliers constitués d’enjeux, de stratégies et de ressources. Ils développent diverses stratégies pour accroître leurs possibilités d’action (capacités stratégiques) face aux problèmes qu’ils ont à résoudre. Les capacités stratégiques, inégales entre les groupes d’acteurs, découlent des relations de pouvoir qu’ils exercent entre eux et les amènent à occuper des positions différentes dans le système d’action concret. La recherche démontre qu’en fonction des capacités stratégiques dont ils disposent, les acteurs sont portés à s’approprier certaines règles en tentant de les influencer, de les contourner ou de ne pas les respecter. La connaissance empirique des cadres communs d’action permet d’établir les bases d’un système d’action concret dans un contexte de « phénomène organisation » (Friedberg, 1997). Cette connaissance d’une part, établit que les retombées de certaines stratégies d’acteurs peuvent s’avérer peu compatibles avec les objectifs du RGAM et, d’autre part, pose les limites de certains mécanismes de régulation en vigueur tout en questionnant les façons de concevoir la régulation dans un système complexe.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.
Resumo:
Une communication honnête entre l’adolescent(e) et son parent est associée à un développement plus sain chez l’adolescent(e) (Stattin & Kerr, 2000). La présente étude s’intéresse à la façon dont les parents peuvent favoriser l’honnêteté chez leurs adolescents. En nous basant sur la Théorie de l’Autodétermination (Deci & Ryan, 2000), nous postulons que plus les parents soutiennent l’autonomie de leurs adolescents, plus ceux-ci sont honnêtes avec leurs parents. Nous postulons également qu’il y aurait deux variables médiatrices de cette relation : l’intégration de la valeur de l’honnêteté chez les adolescents ainsi que leur perception des coûts et des bénéfices vis-à-vis du fait d’être honnête avec leurs parents. Des analyses de modélisation par équations structurales se basant sur 174 dyades parent-adolescent ont démontré que plus les parents soutiennent l’autonomie de leurs adolescents, plus les adolescents intègrent la valeur de l’honnêteté et plus ils perçoivent des bénéfices élevés, et de faibles coûts, à être honnêtes avec leurs parents. L’intégration de la valeur de l’honnêteté et le fait de percevoir davantage de bénéfices que de coûts à être honnête prédisaient par la suite une communication plus honnête entre l’adolescent(e) et son parent. Le fait que le parent valorise l’honnêteté contribuait aussi à l’intégration de la valeur de l’honnêteté chez l’adolescent(e).
Resumo:
Les normes minimales relatives à la durée du travail tracent une frontière entre le temps de travail pendant lequel le salarié exécute sa prestation de travail sous l'autorité de l'employeur moyennant rémunération et le temps de repos pendant lequel il a la libre disposition de son temps sans être soumis au pouvoir de contrôle de l'employeur. Il existe cependant un troisième temps où le salarié, sans être considéré au travail, ne dispose pas de la liberté de vaquer à ses occupations personnelles et reste subordonné à une éventuelle demande de l'employeur. Après avoir présenté le cadre général de cette obligation de disponibilité du salarié en vertu du Code civil du Québec, des lois du travail et de la Charte des droits et libertés de la personne, le présent article en explore les effets particuliers dans le contexte actuel marqué par l'émergence de formes d'emploi atypiques et de nouvelles technologies. A l'aide d'illustrations tirées de la jurisprudence, il veut montrer que cette obligation de disponibilité permet aux entreprises de disposer à moindre coût d'un bassin de main-d'oeuvre flexible dont le volume peut varier en fonction des besoins momentanés de la production et du service et que cette situation a des effets très importants sur les droits, notamment les libertés et droits fondamentaux, des salariés en cause.
Resumo:
Contexte Malgré les conséquences néfastes bien connues de la consommation de cannabis chez les patients souffrant de schizophrénie (SCZ), ces derniers en font usage dans une proportion atteignant 40%. Plusieurs études ont tenté d’éclaircir la nature du lien qui existe entre ces deux problématiques, mais cela demeure à ce jour un sujet d’incertitude. Des études précédentes, dont certaines de notre groupe, ont montré que les patients souffrant de schizophrénie et d’un trouble d’abus de cannabis (SCZCAN) présentaient moins de symptômes négatifs, de meilleures capacités cognitives et un processus de traitement des émotions se rapprochant davantage de la normale. Objectif La présente étude vise à évaluer la mémoire émotionnelle ainsi que ses corrélats neurobiologiques par imagerie par résonance magnétique fonctionnelle (IRMf) chez les SCZCAN en comparaison avec les SCZ. Notre hypothèse est que les SCZCAN vont mieux performer lors d’une tâche de mémoire émotionnelle en comparaison avec les SCZ et qu’ils démontreront des activités dans des régions cérébrales plus étendues et impliquées dans la mémoire et le traitement émotionnel. Méthode Trois groupes de sujets, soit un groupe de SCZ (N=14), un groupe de SCZCAN (N=14) et un groupe contrôle (N=21) ont participé à une tâche de mémoire émotionnelle lors d’une imagerie par IRMf. Résultats Les résultats de notre étude ont montré que les SCZCAN performaient mieux que les SCZ dans une tâche de mémoire émotionnelle et montraient des activations dans des régions cérébrales plus étendues à l’IRMf, en particulier celles impliquées dans mémoire et dans le traitement des émotions (cortex orbitofrontal et temporal, hippocampe). Conclusion Les SCZCAN ont une préservation relative de leur mémoire émotionnelle en comparaison aux SCZ, ce qui est corrélé avec de plus grandes activations cérébrales dans les régions qui jouent un rôle dans la mémoire et le traitement émotionnel.
Resumo:
Bien que la douleur soit une expérience subjective universelle, la façon de la percevoir et de l’interpréter est modulée par une multitude de facteurs. Plusieurs interventions cognitives se sont montrées efficaces pour réduire la douleur dans des conditions cliniques et expérimentales. Cette thèse s’intéressera particulièrement aux mécanismes psychophysiologiques impliqués dans les stratégies de modulation volontaire de la douleur. Ces stratégies sont intéressantes puisqu’elles encouragent une prise en charge par l’individu, lui permettant de jouer un rôle actif dans la régulation de sa douleur. La première étude s’intéresse à l’efficacité du biofeedback comme moyen de modulation volontaire de la douleur. Il s’agissait de déterminer si le fait de présenter une rétroaction de l’amplitude du réflex RIII (évoqué par une stimulation électrique du nerf sural) au cours d’un entraînement de plusieurs essais permettrait au participant d’adopter des stratégies de modulation de la douleur et d’activer volontairement des mécanismes de contrôle descendant de la douleur. De façon à évaluer spécifiquement les changements induits par le biofeedback, la modulation du réflexe RIII et de la douleur était comparée dans trois groupes (biofeedback valide, faux biofeedback et groupe contrôle sans rétroaction). Dans les trois groupes, il était suggéré aux participants d’utiliser des stratégies cognitives de modulation de la douleur (attention, modulation de la respiration, réévaluation cognitive et imagerie mentale) afin d’augmenter ou de diminuer leur réflexe RIII comparativement à leur niveau de base. Les résultats de notre étude indiquent que les participants des 3 groupes ont réussi à moduler leur réflexe RIII (p<0,001) ainsi que leurs évaluations de douleur (p<0,001) (intensité et désagrément). Les résultats de notre étude montrent que l’entraînement au biofeedback n’était pas nécessaire pour obtenir une modulation du réflexe RIII et de la douleur, ce qui suggère que l’utilisation de stratégies cognitives pourrait être suffisante pour déclencher des mécanismes de contrôle de la douleur. La deuxième étude découle de la première et s’intéressait à l’influence de la fréquence et de la phase respiratoire sur la nociception spinale, l’activité cérébrale et la perception de douleur. Le contrôle volontaire de la respiration est un moyen commun de régulation des émotions et est fréquemment utilisé en combinaison avec d’autres techniques (ex. : relaxation, méditation) dans le but de réguler la douleur. Les participants étaient invités à synchroniser leur respiration à des indices sonores indiquant le moment de l’inspiration et de l’expiration. Trois patrons de respiration étaient proposés (respiration à 0,1Hz avec une inspiration de 4 secondes, respiration à 0,1Hz avec une inspiration de 2 secondes et respiration à 0,2Hz avec une inspiration de 2 secondes. La moitié des stimulations étaient données durant l’inspiration et l’autre moitié durant l’expiration. Afin d’évaluer l’effet de ces manipulations, l’amplitude du RIII, l’évaluation subjective d’intensité de la douleur et de l’anxiété suscitée par le choc en plus des potentiels évoqués étaient mesurés. Les résultats de cette étude démontrent que les évaluations d’intensité de la douleur n’étaient pas affectées par le patron respiratoire (p=0,3), mais étaient statistiquement plus basses durant l’inspiration comparativement à l’expiration (p=0,02). Un effet de phase (p=0,03) était également observé sur les potentiels évoqués durant la condition de respiration à 0,1hHz avec une inspiration de 2 secondes comparativement au patron de respiration de 0,2Hz. Paradoxalement, l’amplitude du réflexe RIII était augmenté durant l’inspiration (p=0,02) comparativement à l’expiration. Ces résultats montrent que la manipulation de la fréquence et de la phase respiratoires (par une synchronisation imposée) a un effet marginal sur les évaluations de douleur et sur l’activité cérébrale et spinale évoquée par une stimulation électrique (douleur aigüe). Cela suggère que d’autres mécanismes contribuent aux effets analgésiques observés dans la relaxation et la méditation. Plus largement, nos résultats font état de la nécessité d’études plus approfondies avec une méthodologie plus rigoureuse afin de contrôler les effets non spécifiques aux traitements évalués. Une meilleure connaissance des mécanismes sous-tendant chaque stratégie permettrait de mieux cibler les clientèles susceptibles d’y répondre et de mieux considérer le ratio coût bénéfice de chaque traitement.
Resumo:
Pourquoi faire un effort pour la communauté sans rien recevoir en retour? C’est habituellement par conviction ou pour répondre à une norme sociale. En s’intéressant au problème du recyclage, nous définissons un modèle de comportement qui intègre ces deux facteurs. Nous déterminons sous quelles conditions un individu décide d’agir bénévolement, puis nous étudions comment ce comportement se propage dans la population. Cela nous permet de déduire comment un gouvernement doit pondérer ses efforts entre la publicité et la consigne pour tendre vers un taux de recyclage parfait au coût minimal. Nous prouvons aussi que dans certaines circonstances, il est préférable de ne pas encourager la participation au bien public. En effet, à mesure que plus de gens y participent, des tensions sociales émergent entre ceux qui font un effort et ceux qui n’en font pas. Celles-ci peuvent être assez fortes pour contrebalancer les bénéfices attendus du bien public
Resumo:
Le but de cette étude est de vérifier l'apport de la stéréoscopie dans le phénomène de la constance de forme. La méthode utilisée consiste à mesurer la performance de différents participants (temps de réponse et de taux d'erreurs) à une tâche de prospection visuelle. Quatre groupes de participants ont effectué la tâche. Le premier groupe a été exposé à une présentation stéréoscopique des stimuli, le deuxième groupe à une présentation des stimuli en stéréoscopie inversée (la disparité binoculaire était inversée), le troisième groupe à des stimuli comprenant une information de texture, mais sans stéréoscopie et le quatrième groupe à des stimuli bi-dimensionnels, sans texture. Une interaction entre les effets de rotation (points de vue familiers vs. points de vue non familiers) et le type d'information de profondeur disponible (stéréoscopie, stéréoscopie inversée, texture ou ombrage) a été mise en évidence, le coût de rotation étant plus faible au sein du groupe exposé à une présentation en stéréoscopie inversée. Ces résultats appuient l'implication de représentations tridimensionnelles dans le traitement de l'information visuelle.