387 resultados para Caméra-Linéaire


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les antipsychotiques (APs) sont fréquemment prescrits pour les troubles comportementaux associés à la démence. Or, ces produits ont fait l'objet de trois mises en garde (2002, 2004, 2005) en raison d'une augmentation du risque d'événement cérébrovasculaire et de décès. L’objectif de ce mémoire est d’évaluer l'utilisation d’APs dans la population de personnes âgées démentes vivant à domicile, et de déterminer l’effet des mises en garde sur les profils observés. Une cohorte rétrospective de 10,969 personnes âgées démentes ayant débuté un traitement par AP entre le 1er janvier 2000 et le 31 décembre 2009 fut identifiée à partir des banques de données de la Régie de l'assurance maladie du Québec (RAMQ). Des séries chronologiques segmentées ont permis de quantifier l’effet des mises en garde sur l'utilisation d’APs. L'effet de la mise en garde de 2005 sur les caractéristiques des patients traités ainsi que sur les profils d'utilisation (dose et durée) a été évalué, respectivement par des modèles de régression logistique et de régression linéaire multivariés. Le taux délivrance d'APs atypiques a augmenté au cours du temps jusqu'à la mise en garde de 2005 pour ensuite diminuer de 8.96% (IC 95% : -11.91% – -6.02%). L'analyse par produit a révélé la même tendance pour la rispéridone, le seul AP approuvé au Canada pour les personnes âgées démentes. En revanche, le taux de délivrance de quétiapine, qui est hors-indication, a continué d'augmenter. Le taux d'initiation de traitement par APs a cependant diminué au cours du temps pour tous les produits. Les mises en garde ne semblent pas être associées avec un changement dans les caractéristiques des patients traités, ni avec les doses et durées d’utilisation. Le manque d'efficacité des mises en garde est probablement en partie lié à l'absence d'alternatives thérapeutiques pour le traitement des troubles psychologiques et comportementaux chez les patients atteints de démence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse est composée de trois articles en économie des ressources naturelles non-renouvelables. Nous considérons tour à tour les questions suivantes : le prix in-situ des ressources naturelles non-renouvelables ; le taux d’extraction optimal et le prix des res- sources non-renouvelables et durables. Dans le premier article, nous estimons le prix in-situ des ressources naturelles non-renouvelables en utilisant les données sur le coût moyen d’extraction pour obtenir une approximation du coût marginal. En utilisant la Méthode des Moments Généralisés, une dynamique du prix de marché derivée des conditions d’optimalité du modèle d’Hotelling est estimée avec des données de panel de 14 ressources naturelles non-renouvelables. Nous trouvons des résultats qui tendent à soutenir le modèle. Premièrement, le modèle d’Hotelling exhibe un bon pouvoir explicatif du prix de marché observé. Deuxièmement, bien que le prix estimé présente un changement structurel dans le temps, ceci semble n’avoir aucun impact significatif sur le pouvoir explicatif du modèle. Troisièmement, on ne peut pas rejeter l’hypothèse que le coût marginal d’extraction puisse être approximé par les données sur le coût moyen. Quatrièmement, le prix in-situ estimé en prenant en compte les changements structurels décroît ou exhibe une forme en U inversé dans le temps et semble être corrélé positivement avec le prix de marché. Cinquièmement, pour neuf des quatorze ressources, la différence entre le prix in-situ estimé avec changements structurels et celui estimé en négligeant les changements structurels est un processus de moyenne nulle. Dans le deuxième article, nous testons l’existence d’un équilibre dans lequel le taux d’extraction optimal des ressources non-renouvelables est linéaire par rapport au stock de ressource en terre. Tout d’abord, nous considérons un modèle d’Hotelling avec une fonction de demande variant dans le temps caractérisée par une élasticité prix constante et une fonction de coût d’extraction variant dans le temps caractérisée par des élasticités constantes par rapport au taux d’extraction et au stock de ressource. Ensuite, nous mon- trons qu’il existe un équilibre dans lequel le taux d’extraction optimal est proportionnel au stock de ressource si et seulement si le taux d’actualisation et les paramètres des fonctions de demande et de coût d’extraction satisfont une relation bien précise. Enfin, nous utilisons les données de panel de quatorze ressources non-renouvelables pour vérifier empiriquement cette relation. Dans le cas où les paramètres du modèle sont supposés invariants dans le temps, nous trouvons qu’on ne peut rejeter la relation que pour six des quatorze ressources. Cependant, ce résultat change lorsque nous prenons en compte le changement structurel dans le temps des prix des ressources. En fait, dans ce cas nous trouvons que la relation est rejetée pour toutes les quatorze ressources. Dans le troisième article, nous étudions l’évolution du prix d’une ressource naturelle non-renouvelable dans le cas où cette ressource est durable, c’est-à-dire qu’une fois extraite elle devient un actif productif détenu hors terre. On emprunte à la théorie de la détermination du prix des actifs pour ce faire. Le choix de portefeuille porte alors sur les actifs suivant : un stock de ressource non-renouvelable détenu en terre, qui ne procure aucun service productif ; un stock de ressource détenu hors terre, qui procure un flux de services productifs ; un stock d’un bien composite, qui peut être détenu soit sous forme de capital productif, soit sous forme d’une obligation dont le rendement est donné. Les productivités du secteur de production du bien composite et du secteur de l’extraction de la ressource évoluent de façon stochastique. On montre que la prédiction que l’on peut tirer quant au sentier de prix de la ressource diffère considérablement de celle qui découle de la règle d’Hotelling élémentaire et qu’aucune prédiction non ambiguë quant au comportement du sentier de prix ne peut être obtenue de façon analytique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Contexte: À date, il existe peu de données sur l’adhésion, la persistance et les coûts associés aux antidépresseurs selon le type d’assurance médicament (privé ou public). Objectif: Comparer selon le régime d’assurance médicament (privé ou public), l'adhésion, la persistance et les coûts des antidépresseurs. Méthodes de recherche: Une étude de cohorte appariée a été réalisée en utilisant des bases de données du Québec. Sujets: Nous avons sélectionné 194 patients assurés par un régime privé et 1923 patients assurés par le régime public de la Régie de l’assurance maladie du Québec (RAMQ) (18-64 ans) qui ont rempli au moins une ordonnance pour un antidépresseur entre décembre 2007 et septembre 2009. Mesures: L’adhésion, mesurée sur une période d’un an, a été estimée en utilisant le proportion of prescribed days covered (PPDC). Un modèle de régression linéaire a été utilisé afin d’estimer la différence moyenne en PPDC entre les patients assurés par un régime privé et ceux assurés par le régime public de la RAMQ. La persistance a été comparé entre ces deux groupes avec un modèle de régression de survie Cox, et le coût mensuel d'antidépresseurs ($ CAN) a été comparé entre ces deux groupes en utilisant un modèle de régression linéaire. Résultats: Le PPDC parmi les patients assurés par un régime privé était de 86,4% (intervalle de confiance (IC) 95%: 83,3%-89,5%) versus 81,3% (IC 95%: 80,1%-82,5%) pour les patients assurés par le régime public de la RAMQ, pour une différence moyenne ajustée de 6,7% (IC 95%: 3,0%-10,4%). La persistance après un an parmi les patients assurés par un régime privé était de 49,5% versus 18,9% pour les patients assurés par le régime public de la RAMQ (p <0,001), et le rapport de risque ajusté était de 0,48 (IC 95%: 0,30-0,76). Comparativement aux patients assurés par le régime public de la RAMQ, les patients ayant une assurance privée ont payé 14,94 $ CAD (95% CI: $12,30-$17,58) de plus par mois en moyenne pour leurs antidépresseurs. Conclusion: Les patients assurés par un régime privé avaient une meilleure adhésion, persistance, mais avaient aussi un plus haut coût pour leurs antidépresseurs que ceux assurés par le régime public de la RAMQ. Cette différence de coûts peut être due aux différentes exigences de paiement en pharmacie entre les deux régimes ainsi qu’aux limites des honoraires des pharmaciens imposés par le régime public.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

De nombreux problèmes en transport et en logistique peuvent être formulés comme des modèles de conception de réseau. Ils requièrent généralement de transporter des produits, des passagers ou encore des données dans un réseau afin de satisfaire une certaine demande tout en minimisant les coûts. Dans ce mémoire, nous nous intéressons au problème de conception de réseau avec coûts fixes et capacités. Ce problème consiste à ouvrir un sous-ensemble des liens dans un réseau afin de satisfaire la demande, tout en respectant les contraintes de capacités sur les liens. L'objectif est de minimiser les coûts fixes associés à l'ouverture des liens et les coûts de transport des produits. Nous présentons une méthode exacte pour résoudre ce problème basée sur des techniques utilisées en programmation linéaire en nombres entiers. Notre méthode est une variante de l'algorithme de branch-and-bound, appelée branch-and-price-and-cut, dans laquelle nous exploitons à la fois la génération de colonnes et de coupes pour la résolution d'instances de grande taille, en particulier, celles ayant un grand nombre de produits. En nous comparant à CPLEX, actuellement l'un des meilleurs logiciels d'optimisation mathématique, notre méthode est compétitive sur les instances de taille moyenne et supérieure sur les instances de grande taille ayant un grand nombre de produits, et ce, même si elle n'utilise qu'un seul type d'inégalités valides.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Doctorat réalisé en cotutelle entre l'Université de Montréal et l'Université Paul Sabatier-Toulouse III

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pour respecter les droits d'auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les deux fonctions principales de la main sont la manipulation d’objet et l’exploration tactile. La détection du glissement, rapportée par les mécanorécepteurs de la peau glabre, est essentielle pour l’exécution de ces deux fonctions. Durant la manipulation d’objet, la détection rapide du micro-glissement (incipient slip) amène la main à augmenter la force de pince pour éviter que l’objet ne tombe. À l’opposé, le glissement est un aspect essentiel à l’exploration tactile puisqu’il favorise une plus grande acuité tactile. Pour ces deux actions, les forces normale et tangentielle exercées sur la peau permettent de décrire le glissement mais également ce qui arrive juste avant qu’il y ait glissement. Toutefois, on ignore comment ces forces contrôlées par le sujet pourraient être encodées au niveau cortical. C’est pourquoi nous avons enregistré l’activité unitaire des neurones du cortex somatosensoriel primaire (S1) durant l’exécution de deux tâches haptiques chez les primates. Dans la première tâche, deux singes devaient saisir une pastille de métal fixe et y exercer des forces de cisaillement sans glissement dans une de quatre directions orthogonales. Des 144 neurones enregistrés, 111 (77%) étaient modulés à la direction de la force de cisaillement. L’ensemble de ces vecteurs préférés s’étendait dans toutes les directions avec un arc variant de 50° à 170°. Plus de 21 de ces neurones (19%) étaient également modulés à l’intensité de la force de cisaillement. Bien que 66 neurones (59%) montraient clairement une réponse à adaptation lente et 45 autres (41%) une réponse à adaptation rapide, cette classification ne semblait pas expliquer la modulation à l’intensité et à la direction de la force de cisaillement. Ces résultats montrent que les neurones de S1 encodent simultanément la direction et l’intensité des forces même en l’absence de glissement. Dans la seconde tâche, deux singes ont parcouru différentes surfaces avec le bout des doigts à la recherche d’une cible tactile, sans feedback visuel. Durant l’exploration, les singes, comme les humains, contrôlaient les forces et la vitesse de leurs doigts dans une plage de valeurs réduite. Les surfaces à haut coefficient de friction offraient une plus grande résistance tangentielle à la peau et amenaient les singes à alléger la force de contact, normale à la peau. Par conséquent, la somme scalaire des composantes normale et tangentielle demeurait constante entre les surfaces. Ces observations démontrent que les singes contrôlent les forces normale et tangentielle qu’ils appliquent durant l’exploration tactile. Celles-ci sont également ajustées selon les propriétés de surfaces telles que la texture et la friction. Des 230 neurones enregistrés durant la tâche d’exploration tactile, 96 (42%) ont montré une fréquence de décharge instantanée reliée aux forces exercées par les doigts sur la surface. De ces neurones, 52 (54%) étaient modulés avec la force normale ou la force tangentielle bien que l’autre composante orthogonale avait peu ou pas d’influence sur la fréquence de décharge. Une autre sous-population de 44 (46%) neurones répondait au ratio entre la force normale et la force tangentielle indépendamment de l’intensité. Plus précisément, 29 (30%) neurones augmentaient et 15 (16%) autres diminuaient leur fréquence de décharge en relation avec ce ratio. Par ailleurs, environ la moitié de tous les neurones (112) étaient significativement modulés à la direction de la force tangentielle. De ces neurones, 59 (53%) répondaient à la fois à la direction et à l’intensité des forces. L’exploration de trois ou quatre différentes surfaces a permis d’évaluer l’impact du coefficient de friction sur la modulation de 102 neurones de S1. En fait, 17 (17%) neurones ont montré une augmentation de leur fréquence de décharge avec l’augmentation du coefficient de friction alors que 8 (8%) autres ont montré le comportement inverse. Par contre, 37 (36%) neurones présentaient une décharge maximale sur une surface en particulier, sans relation linéaire avec le coefficient de friction des surfaces. La classification d’adaptation rapide ou lente des neurones de S1 n’a pu être mise en relation avec la modulation aux forces et à la friction. Ces résultats montrent que la fréquence de décharge des neurones de S1 encode l’intensité des forces normale et tangentielle, le ratio entre les deux composantes et la direction du mouvement. Ces résultats montrent que le comportement d’une importante sous-population des neurones de S1 est déterminé par les forces normale et tangentielle sur la peau. La modulation aux forces présentée ici fait le pont entre les travaux évaluant les propriétés de surfaces telles que la rugosité et les études touchant à la manipulation d’objets. Ce système de référence s’applique en présence ou en absence de glissement entre la peau et la surface. Nos résultats quant à la modulation des neurones à adaptation rapide ou lente nous amènent à suggérer que cette classification découle de la manière que la peau est stimulée. Nous discuterons aussi de la possibilité que l’activité des neurones de S1 puisse inclure une composante motrice durant ces tâches sensorimotrices. Finalement, un nouveau cadre de référence tridimensionnel sera proposé pour décrire et rassembler, dans un même continuum, les différentes modulations aux forces normale et tangentielle observées dans S1 durant l’exploration tactile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’utilisation d’une méthode d’assimilation de données, associée à un modèle de convection anélastique, nous permet la reconstruction des structures physiques d’une partie de la zone convective située en dessous d’une région solaire active. Les résultats obtenus nous informent sur les processus d’émergence des tubes de champ magnétique au travers de la zone convective ainsi que sur les mécanismes de formation des régions actives. Les données solaires utilisées proviennent de l’instrument MDI à bord de l’observatoire spatial SOHO et concernent principalement la région active AR9077 lors de l’ ́évènement du “jour de la Bastille”, le 14 juillet 2000. Cet évènement a conduit à l’avènement d’une éruption solaire, suivie par une importante éjection de masse coronale. Les données assimilées (magnétogrammes, cartes de températures et de vitesses verticales) couvrent une surface de 175 méga-mètres de coté acquises au niveau photosphérique. La méthode d’assimilation de données employée est le “coup de coude direct et rétrograde”, une méthode de relaxation Newtonienne similaire à la méthode “quasi-linéaire inverse 3D”. Elle présente l’originalité de ne pas nécessiter le calcul des équations adjointes au modèle physique. Aussi, la simplicité de la méthode est un avantage numérique conséquent. Notre étude montre au travers d’un test simple l’applicabilité de cette méthode à un modèle de convection utilisé dans le cadre de l’approximation anélastique. Nous montrons ainsi l’efficacité de cette méthode et révélons son potentiel pour l’assimilation de données solaires. Afin d’assurer l’unicité mathématique de la solution obtenue nous imposons une régularisation dans tout le domaine simulé. Nous montrons enfin que l’intérêt de la méthode employée ne se limite pas à la reconstruction des structures convectives, mais qu’elle permet également l’interpolation optimale des magnétogrammes photosphériques, voir même la prédiction de leur évolution temporelle.