109 resultados para Écart de Temps d’Échantillonnage


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire a pour objectif d’analyser et de répertorier les productions historiographiques sur la race et le racisme dans l’Atlantique français au XVIIIe siècle. À travers nos lectures, nous avons pu constater que l’historiographie sur les colonies françaises, de plus en plus abondante, et l’approche privilégiant l’espace atlantique ont pris beaucoup d’importance depuis les vingt dernières années et cela a grandement influencé notre choix de diviser les productions historiographiques en trois catégories qui seront les trois chapitres de ce mémoire. Dans un premier temps, nous traiterons des travaux portant plus spécifiquement sur la race et le racisme où nous présenterons le débat quant à l’origine temporelle du racisme. Par la suite, nous présenterons certains travaux en histoire de l’esclavage dans l’Atlantique français qui relient le développement de l’esclavage et celui de la pensée raciale. Finalement, nous aborderons la question du racisme dans la métropole française au XVIIIe siècle en analysant les études qui ont été faites sur les questions des minorités noires et juives en France ainsi que les études sur la question coloniale à l’heure de la Révolution française. Par ailleurs, nous allons aussi présenter le désaccord qu’il y a entre les historiens quant à l’authenticité de la croyance des philosophes des Lumières en leur idéologie prônant la tolérance. Avec les nouvelles productions en histoire atlantique, il est évident que la conception de la race en France est le résultat d’une multitude de facteurs : culturels, scientifiques, économiques et politiques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les questions abordées dans les deux premiers articles de ma thèse cherchent à comprendre les facteurs économiques qui affectent la structure à terme des taux d'intérêt et la prime de risque. Je construis des modèles non linéaires d'équilibre général en y intégrant des obligations de différentes échéances. Spécifiquement, le premier article a pour objectif de comprendre la relation entre les facteurs macroéconomiques et le niveau de prime de risque dans un cadre Néo-keynésien d'équilibre général avec incertitude. L'incertitude dans le modèle provient de trois sources : les chocs de productivité, les chocs monétaires et les chocs de préférences. Le modèle comporte deux types de rigidités réelles à savoir la formation des habitudes dans les préférences et les coûts d'ajustement du stock de capital. Le modèle est résolu par la méthode des perturbations à l'ordre deux et calibré à l'économie américaine. Puisque la prime de risque est par nature une compensation pour le risque, l'approximation d'ordre deux implique que la prime de risque est une combinaison linéaire des volatilités des trois chocs. Les résultats montrent qu'avec les paramètres calibrés, les chocs réels (productivité et préférences) jouent un rôle plus important dans la détermination du niveau de la prime de risque relativement aux chocs monétaires. Je montre que contrairement aux travaux précédents (dans lesquels le capital de production est fixe), l'effet du paramètre de la formation des habitudes sur la prime de risque dépend du degré des coûts d'ajustement du capital. Lorsque les coûts d'ajustement du capital sont élevés au point que le stock de capital est fixe à l'équilibre, une augmentation du paramètre de formation des habitudes entraine une augmentation de la prime de risque. Par contre, lorsque les agents peuvent librement ajuster le stock de capital sans coûts, l'effet du paramètre de la formation des habitudes sur la prime de risque est négligeable. Ce résultat s'explique par le fait que lorsque le stock de capital peut être ajusté sans coûts, cela ouvre un canal additionnel de lissage de consommation pour les agents. Par conséquent, l'effet de la formation des habitudes sur la prime de risque est amoindri. En outre, les résultats montrent que la façon dont la banque centrale conduit sa politique monétaire a un effet sur la prime de risque. Plus la banque centrale est agressive vis-à-vis de l'inflation, plus la prime de risque diminue et vice versa. Cela est due au fait que lorsque la banque centrale combat l'inflation cela entraine une baisse de la variance de l'inflation. Par suite, la prime de risque due au risque d'inflation diminue. Dans le deuxième article, je fais une extension du premier article en utilisant des préférences récursives de type Epstein -- Zin et en permettant aux volatilités conditionnelles des chocs de varier avec le temps. L'emploi de ce cadre est motivé par deux raisons. D'abord des études récentes (Doh, 2010, Rudebusch and Swanson, 2012) ont montré que ces préférences sont appropriées pour l'analyse du prix des actifs dans les modèles d'équilibre général. Ensuite, l'hétéroscedasticité est une caractéristique courante des données économiques et financières. Cela implique que contrairement au premier article, l'incertitude varie dans le temps. Le cadre dans cet article est donc plus général et plus réaliste que celui du premier article. L'objectif principal de cet article est d'examiner l'impact des chocs de volatilités conditionnelles sur le niveau et la dynamique des taux d'intérêt et de la prime de risque. Puisque la prime de risque est constante a l'approximation d'ordre deux, le modèle est résolu par la méthode des perturbations avec une approximation d'ordre trois. Ainsi on obtient une prime de risque qui varie dans le temps. L'avantage d'introduire des chocs de volatilités conditionnelles est que cela induit des variables d'état supplémentaires qui apportent une contribution additionnelle à la dynamique de la prime de risque. Je montre que l'approximation d'ordre trois implique que les primes de risque ont une représentation de type ARCH-M (Autoregressive Conditional Heteroscedasticty in Mean) comme celui introduit par Engle, Lilien et Robins (1987). La différence est que dans ce modèle les paramètres sont structurels et les volatilités sont des volatilités conditionnelles de chocs économiques et non celles des variables elles-mêmes. J'estime les paramètres du modèle par la méthode des moments simulés (SMM) en utilisant des données de l'économie américaine. Les résultats de l'estimation montrent qu'il y a une évidence de volatilité stochastique dans les trois chocs. De plus, la contribution des volatilités conditionnelles des chocs au niveau et à la dynamique de la prime de risque est significative. En particulier, les effets des volatilités conditionnelles des chocs de productivité et de préférences sont significatifs. La volatilité conditionnelle du choc de productivité contribue positivement aux moyennes et aux écart-types des primes de risque. Ces contributions varient avec la maturité des bonds. La volatilité conditionnelle du choc de préférences quant à elle contribue négativement aux moyennes et positivement aux variances des primes de risque. Quant au choc de volatilité de la politique monétaire, son impact sur les primes de risque est négligeable. Le troisième article (coécrit avec Eric Schaling, Alain Kabundi, révisé et resoumis au journal of Economic Modelling) traite de l'hétérogénéité dans la formation des attentes d'inflation de divers groupes économiques et de leur impact sur la politique monétaire en Afrique du sud. La question principale est d'examiner si différents groupes d'agents économiques forment leurs attentes d'inflation de la même façon et s'ils perçoivent de la même façon la politique monétaire de la banque centrale (South African Reserve Bank). Ainsi on spécifie un modèle de prédiction d'inflation qui nous permet de tester l'arrimage des attentes d'inflation à la bande d'inflation cible (3% - 6%) de la banque centrale. Les données utilisées sont des données d'enquête réalisée par la banque centrale auprès de trois groupes d'agents : les analystes financiers, les firmes et les syndicats. On exploite donc la structure de panel des données pour tester l'hétérogénéité dans les attentes d'inflation et déduire leur perception de la politique monétaire. Les résultats montrent qu'il y a évidence d'hétérogénéité dans la manière dont les différents groupes forment leurs attentes. Les attentes des analystes financiers sont arrimées à la bande d'inflation cible alors que celles des firmes et des syndicats ne sont pas arrimées. En effet, les firmes et les syndicats accordent un poids significatif à l'inflation retardée d'une période et leurs prédictions varient avec l'inflation réalisée (retardée). Ce qui dénote un manque de crédibilité parfaite de la banque centrale au vu de ces agents.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La progression de l’espérance de vie au Québec reflète l’amélioration de la santé de la population. Toutefois, des décès continuent à survenir prématurément avant l’âge de 75 ans. Une part de cette mortalité prématurée est potentiellement évitable. L'objectif de ce mémoire est d’estimer la mortalité évitable au Québec de 1981-1985 à 2005-2009. Pour cela, la méthode de Tobias et Jackson (2001) a été appliquée sur des données de décès, fournies par l’Institut national de santé publique du Québec, pour estimer les taux de mortalité évitable totale et pour chacun des sexes. Cette approche nous a, par ailleurs, permis d’estimer des taux de mortalité évitable selon trois paliers de prévention : primaire, secondaire et tertiaire. Nos résultats démontrent une tendance à la baisse de la mortalité évitable à travers le temps. Cette baisse a été enregistrée chez les deux sexes, mais des disparités de mortalité évitable existent entre les hommes et les femmes. En effet, la mortalité évitable des hommes est plus élevée que celle des femmes et cet écart de mortalité est principalement dû à la mortalité évitable associée à la prévention primaire. L’analyse de la mortalité évitable par cause de décès fait ressortir que le cancer du poumon est la principale cause de décès évitable tant chez les hommes que chez les femmes en 2005-2009. Durant cette même période, le cancer du sein et les cardiopathies ischémiques étaient la deuxième cause de décès évitable respectivement chez les femmes et chez les hommes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse présente des reconstructions de l'irradiance totale et spectrale durant les 400 dernières années à l'aide des modèles pour l'irradiance totale et l'irradiance spectrale dans l'ultraviolet développés à l'Université de Montréal. Tous deux sont basés sur la simulation de l'émergence, de la fragmentation et de l'érosion des taches solaires, qui permet d'obtenir une distribution de l'aire des taches sombres et des facules brillantes en fonction du temps. Ces deux composantes sont principalement responsables de la variation de l'irradiance sur l'échelle de temps de la décennie, qui peut être calculée en sommant leur émissivité à celle de la photosphère inactive. La version améliorée du modèle d'irradiance solaire spectrale MOCASSIM inclut une extension de son domaine spectral entre 150 et 400 nm ainsi que de son domaine temporel, débutant originalement en 1874 et couvrant maintenant la période débutant en 1610 jusqu'au présent. Cela permet de reconstruire le spectre ultraviolet durant le minimum de Maunder et de le comparer à celui du minimum de 2009. Les conclusions tirées de cette étude spécifient que l'émissivité dans l'ultraviolet était plus élevée en 2009 que durant le minimum de Maunder, que le niveau de base de la photosphère non magnétisée contribuait pour environ les deux tiers de cette différence et que les structures magnétiques restantes étaient responsables pour le tiers restant. Le modèle d'irradiance totale a vu son domaine temporel étendu sur la même période et une composante représentant le réseau magnétique de façon réaliste y a été ajoutée. Il a été démontré que les observations des 30 dernières années ne sont bien reproduites qu'en incluant la composante du Soleil non magnétisé variable à long terme. Le processus d'optimisation des paramètres libres du modèle a été effectué en minimisant le carré de la somme de l'écart journalier entre les résultats des calculs et les données observées. Les trois composites disponibles, soit celui du PMOD (Physikalisch Meteorologisches Observatorium Davos), d'ACRIM (ACtive Radiometer Irradiance Monitor) et du IRMB (Institut Royal Météorologique de Belgique), ne sont pas en accord entre eux, en particulier au niveau des minima du cycle d'activité, et le modèle permet seulement de reproduire celui du PMOD avec exactitude lorsque la composante variable à long terme est proportionnelle au flux radio à 10.7 cm. Toutefois, en utilisant des polynômes de Lagrange pour représenter la variation du Soleil inactif, l'accord est amélioré pour les trois composites durant les minima, bien que les relations entre le niveau minimal de l'irradiance et la longueur du cycle précédent varient d'un cas à l'autre. Les résultats obtenus avec le modèle d'irradiance spectrale ont été utilisés dans une étude d'intercomparaison de la réponse de la photochimie stratosphérique à différentes représentations du spectre solaire. Les simulations en mode transitoire d'une durée de 10 jours ont été effectuées avec un spectre solaire constant correspondant soit à une période d'activité minimale ou à une période d'activité maximale. Ceci a permis d'évaluer la réponse de la concentration d'ozone à la variabilité solaire au cours d'un cycle et la différence entre deux minima. En plus de ceux de MOCASSIM, les spectres produits par deux modèles ont été utilisés (NRLSSI et MGNM) ainsi que les données de SIM et SOLSTICE/SORCE. La variabilité spectrale de chacun a été extraite et multipliée à un spectre de base représentant le minimum d'activité afin de simuler le spectre au maximum d'activité. Cela a été effectué dans le but d'isoler l'effet de la variabilité seule et d'exclure celui de la valeur absolue du spectre. La variabilité spectrale d'amplitude relativement élevée des observations de SORCE n'a pas provoqué l'inversion de la réponse de l'ozone à hautes altitudes obtenues par d'autres études, ce qui peut être expliqué par la nature même du modèle utilisé ainsi que par sa limite supérieure en altitude. Finalement, la réponse de l'ozone semble être à peu près proportionnelle à la variabilité de l'intégrale du flux pour lambda<241 nm. La comparaison des concentrations d'ozone obtenues avec les spectres originaux au minimum d'activité démontre que leur différence est du même ordre de grandeur que la variabilité entre le minimum et le maximum d'un cycle typique. Le problème du choix de la reconstruction de l'irradiance à utiliser pour les simulations climatiques dans le passé demeure non résolu.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La production de biodiésel par des microalgues est intéressante à plusieurs niveaux. Dans le premier chapitre, un éventail de pour et contres concernant l’utilisation de microalgues pour la production de biocarburant sont ici révisés. La culture d’algues peut s'effectuer en utilisant des terres non-arables, de l’eau non-potable et des nutriments de base. De plus, la biomasse produite par les algues est considérablement plus importante que celle de plantes vasculaires. Plusieurs espèces on le contenu lipidique en forme de triacylglycérols (TAGs), qui peut correspondre jusqu'à 30% - 40% du poids sec de la biomasse. Ces proportions sont considérablement plus élevées que celui des huiles contenues dans les graines actuellement utilisées pour le biodiésel de première génération. Par contre, une production pratique et peu couteuse de biocarburant par des microalgues requiert de surpasser plusieurs obstacles. Ceci inclut le développement de systèmes de culture efficace à faible coût, de techniques de récupération requérant peu d’énergie, et de méthodes d’extraction et de conversion de l’huile non-dommageables pour l’environnement et peu couteuses. Le deuxième chapitre explore l'une des questions importantes soulevées dans le premier chapitre: la sélection d'une souche pour la culture. Une collection de souches de microalgues d'eau douce indigène au Québec a été établi et examiné au niveau de la diversité physiologique. Cette collection est composée de cent souches, que apparaissaient très hétérogènes en terme de croissance lorsque mises en culture à 10±2 °C ou 22±2 °C sur un effluent secondaire d’une usine municipale de traitement des eaux usées (EU), défini comme milieu Bold's Basal Medium (BBM). Des diagrammes de dispersion ont été utilisés pour étudier la diversité physiologique au sein de la collection, montrant plusieurs résultats intéressants. Il y avait une dispersion appréciable dans les taux de croissance selon les différents types de milieux et indépendamment de la température. De manière intéressante, en considérant que tous les isolats avaient initialement été enrichis sur milieu BBM, la distribution était plutôt symétrique autour de la ligne d’iso-croissance, suggérant que l’enrichissement sur BBM n’a pas semblé biaiser la croissance des souches sur ce milieu par rapport aux EU. Également, considérant que les isolats avaient d’abord été enrichis à 22°C, il est assez surprenant que la distribution de taux de croissance spécifiques soit aussi symétrique autour de la ligne d’iso-croissance, avec grossièrement des nombres égaux d’isolats de part et d’autre. Ainsi, l’enrichissement à 22°C ne semble pas biaiser les cellules vers une croissance à cette température plutôt que vers 10°C. Les diagrammes de dispersion obtenus lorsque le pourcentage en lipides de cultures sur BBM ont été comparées à des cultures ayant poussé sur EU soit à 10°C ou 22°C rendent évident que la production de lipides est favorisée par la culture sur EU aux deux températures, et que la production lipidique ne semble pas particulièrement plus favorisée par l’une ou l’autre de ces températures. Lorsque la collection a été examinée pour y déceler des différences avec le site d’échantillonnage, une analyse statistique a montré grossièrement que le même degré de diversité physiologique était retrouvé dans les échantillons des deux différents sites. Le troisième chapitre a poursuivi l'évaluation de la culture d'algues au Québec. L’utilisation de déchets industriels riches en nutriments minéraux et en sources de carbone pour augmenter la biomasse finale en microalgues et le produit lipidique à faible coût est une stratégie importante pour rendre viable la technologie des biocarburants par les algues. Par l’utilisation de souches de la collection de microalgues de l’Université de Montréal, ce rapport montre pour la première fois que des souches de microalgues peuvent pousser en présence de xylose, la source de carbone majoritairement retrouvée dans les eaux usées provenant des usines de pâte et papier, avec une hausse du taux de croissance de 2,8 fois par rapport à la croissance photoautotrophe, atteignant jusqu’à µ=1,1/jour. En présence de glycérol, les taux de croissance atteignaient des valeurs aussi élevées que µ=1,52/jour. La production lipidique augmentait jusqu’à 370% en présence de glycérol et 180% avec le xylose pour la souche LB1H10, démontrant que cette souche est appropriée pour le développement ultérieur de biocarburants en culture mixotrophe. L'ajout de xylose en cultures d'algues a montré certains effets inattendus. Le quatrième chapitre de ce travail a porté à comprendre ces effets sur la croissance des microalgues et la production de lipides. Quatre souches sauvages indigènes ont été obersvées quotidiennement, avant et après l’ajout de xylose, par cytométrie en flux. Avec quelques souches de Chlorella, l’ajout de xylose induisait une hausse rapide de l’accumulation de lipide (jusqu’à 3,3 fois) pendant les premières six à douze heures. Aux temps subséquents, les cellules montraient une diminution du contenu en chlorophylle, de leur taille et de leur nombre. Par contre, l’unique membre de la famille des Scenedesmaceae avait la capacité de profiter de la présence de cette source de carbone sous culture mixotrophe ou hétérotrophe sans effet négatif apparent. Ces résultats suggèrent que le xylose puisse être utilisé avant la récolte afin de stimuler l’augmentation du contenu lipidique de la culture d’algues, soit en système de culture continu ou à deux étapes, permettant la biorestauration des eaux usées provenant de l’industrie des pâtes et papiers. Le cinquième chapitre aborde une autre déché industriel important: le dioxyde de carbone et les gaz à effet de serre. Plus de la moitié du dioxyde de carbone qui est émis dans l'atmosphère chaque jour est dégagé par un processus stationnaire, soit pour la production d’électricité ou pour la fabrication industrielle. La libération de CO2 par ces sources pourrait être atténuée grâce à la biorestauration avec microalgues, une matière première putative pour les biocarburants. Néanmoins, toutes les cheminées dégagent un gaz différent, et la sélection des souches d'algues est vitale. Ainsi, ce travail propose l'utilisation d’un état de site particulier pour la bioprospection de souches d'algues pour être utilisé dans le processus de biorestauration. Les résultats montrent que l'utilisation d'un processus d'enrichissement simple lors de l'étape d'isolement peut sélectionner des souches qui étaient en moyenne 43,2% mieux performantes dans la production de biomasse que les souches isolées par des méthodes traditionnelles. Les souches isolées dans ce travail étaient capables d'assimiler le dioxyde de carbone à un taux supérieur à la moyenne, comparées à des résultats récents de la littérature.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le problème de la direction du temps est un problème classique autant en physique qu’en philosophie. Quoiqu’il existe plusieurs façons de s’interroger sur ce problème, l’approche thermodynamique est la plus fréquemment utilisée. Cette approche consiste à considérer la flèche du temps thermodynamique comme la flèche fondamentale de laquelle les autres flèches ne sont que des manifestations. Ce mémoire vise à fournir une analyse philosophique de cette approche. Pour ce faire, nous esquisserons la problématique générale, nous exposerons les différentes approches et théories alternatives visant à résoudre ce problème et nous présenterons la thèse forte soutenant l’approche thermodynamique. Ensuite, nous évaluerons la pertinence du recours à la mécanique statistique et à la cosmologie visant à remédier aux déficiences de cette même approche. Enfin, nous analyserons en quoi cette approche, et plus particulièrement la notion d’entropie, est en mesure de fournir un cadre conceptuel pour la résolution du problème de la flèche du temps.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En synthèse d’images, reproduire les effets complexes de la lumière sur des matériaux transluminescents, tels que la cire, le marbre ou la peau, contribue grandement au réalisme d’une image. Malheureusement, ce réalisme supplémentaire est couteux en temps de calcul. Les modèles basés sur la théorie de la diffusion visent à réduire ce coût en simulant le comportement physique du transport de la lumière sous surfacique tout en imposant des contraintes de variation sur la lumière incidente et sortante. Une composante importante de ces modèles est leur application à évaluer hiérarchiquement l’intégrale numérique de l’illumination sur la surface d’un objet. Cette thèse révise en premier lieu la littérature actuelle sur la simulation réaliste de la transluminescence, avant d’investiguer plus en profondeur leur application et les extensions des modèles de diffusion en synthèse d’images. Ainsi, nous proposons et évaluons une nouvelle technique d’intégration numérique hiérarchique utilisant une nouvelle analyse fréquentielle de la lumière sortante et incidente pour adapter efficacement le taux d’échantillonnage pendant l’intégration. Nous appliquons cette théorie à plusieurs modèles qui correspondent à l’état de l’art en diffusion, octroyant une amélioration possible à leur efficacité et précision.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les champignons mycorhizien à arbuscules (CMA) sont des organismes pouvant établir des symbioses avec 80% des plantes terrestres. Les avantages d'une telle symbiose sont de plus en plus caractérisés et exploités en agriculture. Par contre, jusqu'à maintenant, il n'existe aucun outil permettant à la fois l'identification et la quantification de ces champignons dans le sol de façon fiable et rapide. Un tel outil permettrait, entre autres, de mieux comprendre les dynamiques des populations des endomycorhizes dans le sol. Pour les producteurs d'inoculum mycorhiziens, cela permettrait également d'établir un suivi de leurs produits en champs et d'avoir un contrôle de qualité de plus sur leurs inoculants. C'est ce que nous avons tenté de développer au sein du laboratoire du Dr. Hijri. Depuis environ une trentaine d'années, des outils d'identification et/ou de quantification ont été développés en utilisant les profiles d'acides gras, les isozymes, les anticorps et finalement l'ADN nucléaire. À ce jour, ces méthodes d’identification et de quantification sont soit coûteuses, soit imprécises. Qui plus est, aucune méthode ne permet à la fois la quantification et l’identification de souches particulières de CMA. L’ADN mitochondrial ne présente pas le même polymorphisme de séquence que celui qui rend l’ADN nucléaire impropre à la quantification. C'est pourquoi nous avons analysé les séquences d’ADN mitochondrial et sélectionné les régions caractéristiques de deux espèces de champignons mycorhiziens arbusculaires (CMA). C’est à partir de ces régions que nous avons développé des marqueurs moléculaires sous forme de sondes et d’amorces TaqMan permettant de quantifier le nombre de mitochondries de chacune de ces espèces dans un échantillon d’ADN. Nous avons ensuite tenté de déterminer une unité de quantification des CMA, soit un nombre de mitochondries par spore. C’est alors que nous avons réalisé que la méthode de préparation des échantillons de spores ainsi que la méthode d’extraction d’ADN avaient des effets significatifs sur l’unité de quantification de base. Nous avons donc optimisé ces protocoles, avant d’en e tester l’application sur des échantillons de sol et de racines ayant été inoculés avec chacune des deux espèces cibles. À ce stade, cet outil est toujours semi-quantificatif, mais il permet 9 l’identification précise de deux espèces de CMA compétentes dans des milieux saturés en phosphore inorganique. Ces résultats , en plus d’être prometteurs, ont permis d’augmenter les connaissances méthodologiques reliées à la quantification des CMA dans le sol, et suggèrent qu’à cause de leurs morphologies différentes, l’élaboration d’un protocole de quantification standardisé pour toutes les espèces de CMA demeure un objectif complexe, qui demande de nouvelles études in vivo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La douleur chronique non cancéreuse (DCNC) est un phénomène complexe et des interventions multimodales qui abordent à la fois ses dimensions biologiques et psychosociales sont considérées comme l’approche optimale pour traiter ce type de désordre. La prescription d'opioïdes pour la DCNC a augmenté d’une façon fulgurante au cours des deux dernières décennies, mais les preuves supportant l'efficacité à long terme de ce type de médicament en termes de réduction de la sévérité de la douleur et d’amélioration de la qualité de vie des patients souffrant de DCNC sont manquantes. L'objectif de cette étude était d'investiguer dans un contexte de vraie vie l'efficacité à long terme des opioïdes pour réduire l’intensité et l’impact de la douleur et améliorer la qualité de vie reliée à la santé des patients souffrant de DCNC sur une période d’une année. Méthodes: Les participants à cette étude étaient 1490 patients (âge moyen = 52,37 (écart-type = 13,9); femmes = 60,9%) enrôlés dans le Registre Québec Douleur entre octobre 2008 et Avril 2011 et qui ont complété une série de questionnaires avant d'initier un traitement dans un centre multidisciplinaire tertiaire de gestion de la douleur ainsi qu’à 6 et 12 mois plus tard. Selon leur profil d'utilisation d'opioïdes (PUO), les patients ont été classés en 1) non-utilisateurs, 2) utilisateurs non persistants, et 3) utilisateurs persistants. Les données ont été analysées à l'aide du modèle d'équation d'estimation généralisée. Résultats: Chez les utilisateurs d’opioïdes, 52% en ont cessé la prise à un moment ou à un autre pendant la période de suivi. Après ajustement pour l'âge et le sexe, le PUO a prédit d’une manière significative l’intensité de la douleur ressentie en moyenne sur des périodes de 7 jours (p <0,001) ainsi que la qualité de vie physique (pQDV) dans le temps (p <0,001). Comparés aux non-utilisateurs, les utilisateurs persistants avaient des niveaux significativement plus élevés d'intensité de douleur et une moins bonne pQDV. Une interaction significative a été trouvée entre le PUO et le temps dans la prédiction de l’intensité de douleur ressentie à son maximum (p = 0,001), les utilisateurs persistants sont ceux rapportant les scores les plus élevés à travers le temps. Une interaction significative a aussi été observée entre le PUO et le type de douleur dans la prédiction de l'impact de la douleur dans diverses sphères de la vie quotidienne (p = 0,048) et de la mQDV (p = 0,042). Indépendamment du type de douleur, les utilisateurs persistants ont rapporté des scores plus élevés d'interférence de douleur ainsi qu’une moins bonne mQDV par rapport aux non-utilisateurs. Cependant, la magnitude de ces effets était de petite taille (d de Cohen <0,5), une observation qui remet en question la puissance et la signification clinique des différences observées entre ces groupes. Conclusion: Nos résultats contribuent à maintenir les doutes sur l'efficacité d’une thérapie à long terme à base d’opioïdes et remettent ainsi en question le rôle que peut jouer ce type de médicament dans l'arsenal thérapeutique pour la gestion de la DCNC.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La violence conjugale peut prendre différentes formes et évoluer à travers le temps. On ne peut écarter la possibilité que les différentes trajectoires soient influencées par le contexte de vie dans lequel la victime se présente. Dans cet ordre d’idée, la perspective des parcours de vie se présente comme un cadre théorique approprié pour comprendre les différents changements temporels qui s’opèrent dans les trajectoires de victimisation en contexte conjugal. Toutefois, le soutien empirique sur les facteurs derrière le nombre d’épisodes de la violence et ses variations au fil du temps est mince; notamment en raison de la rareté des données longitudinales ou rétrospectives requises pour ce type de recherche. Cette étude propose de combler ces lacunes dans l’analyse des trajectoires individuelles des femmes qui ont été victimes de violence conjugale. Plus spécifiquement, elle analyse l’évolution de l’occurrence et de l’intensité de la violence physique à travers le temps. L’échantillon est composé de 53 femmes, toutes victimes de violence conjugale au courant des 36 derniers mois référées par plusieurs milieux (par exemple : maisons d’hébergement, Cour municipale, centres d’aide aux victimes d’acte criminel, centres de thérapie, maisons de transition). Cette recherche est basée sur des données rétrospectives des circonstances entourant la vie de ces femmes au cours des 36 derniers mois. Les trajectoires individuelles ont été reconstruites en utilisant la méthode des calendriers d’histoire de la vie. Cette méthode qui a fait ses preuves dans l’étude des carrières criminelles et de la victimisation permet de situer les trajectoires dans leur contexte de vie et de reconstruire la dynamique derrière les victimisations. L’utilisation de la modélisation de type multiniveaux comme stratégie d’analyse est privilégiée dans cette étude. Combiné avec le calendrier d’histoire de vie, ce type de modèle permet d’examiner les changements dans la chronicité et l’intensité de la violence au sein des trajectoires individuelles des victimes. Les résultats permettent une meilleure compréhension des éléments statiques et dynamiques dernières trajectoires des femmes victimes. Cette recherche se veut avant tout exploratoire et ouvre la porte à une multitude de possibilités à de futures recherches.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La détection et la caractérisation des nanoparticules manufacturées (NPM) est l’une des premières étapes pour contrôler et diminuer leurs risques potentiels sur la santé humaine et l’environnement. Différents systèmes d’échantillonnage dans l’air existent pour l’évaluation d’une exposition aux NPM. Cependant, ils ne mesurent pas le risque potentiel de cette exposition à la santé humaine ni les mécanismes cellulaires qui en seraient responsables. Nos objectifs de recherche sont 1) Évaluer les effets de différents types de nanoparticules sur des cellules pulmonaires humaines et 2) Identifier de nouveaux mécanismes intracellulaires activés lors de l’exposition à divers types de NPM. Méthodologie: La lignée de cellules A549 a été utilisée. Trois types de NPM ont été étudiés (différentes concentrations et temps d’exposition): les nanoparticules de dioxyde de titane de type anatase (TiO2), les nanotubes de carbone simple paroi (NTCSP) et les nanoparticules de noir de carbone (NC). La viabilité cellulaire a été mesurée par le test MTS, le test PrestoBlue et le test d’exclusion du bleu de Trypan (uniquement pour les NTCSP). La mesure du stress oxydatif a été déterminée par la mesure des dérivés réactifs de l’oxygène (ROS) en utilisant l’essai DCFH-DA. L’activation d’une réponse anti-oxydative a été déterminée par la mesure de la forme réduite (GSH) et oxydée (GSSG) du glutathion, ainsi que du ratio GSH/GSSG (seulement avec NTCSP et TiO2). Résultats: Les trois nanoparticules ne semblent pas être toxiques pour les cellules A549 car il y a une diminution significative mais minime de la viabilité cellulaire. Cependant, elles induisent une augmentation du contenu intracellulaire en ROS qui est à la fois dépendante du temps et de la concentration. Aucun changement dans les concentrations de GSH et GSSG n’a été observé. En conclusion, nos données indiquent que la mesure de la viabilité n’est pas un critère suffisant pour conclure à la toxicité des NPM. La production de ROS est un critère intéressant, cependant il faudra démontrer l’activation de systèmes anti-oxydatifs pour expliquer l’absence de mortalité cellulaire suite à l’exposition aux NPM.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les deux premiers récits d'Anne Cuneo, « Gravé au diamant » et « Mortelle maladie », répondent bien peu à la définition traditionnelle de l'autobiographie comme reconstitution d'une individualité cohérente et unique. Ils se présentent plutôt comme la construction conflictuelle d'un sujet en devenir. Le présent article essaiera de montrer comment, dans « Mortelle maladie » , cette construction est liée à une expérience de la temporalité, qui ne se réduit ni à l'image d'un temps objectif (celui que dessinent les ressources narratives du texte), ni à l'illustration de quelque philosophie d'un temps vécu. L'interaction de divers plans de manifestation discursifs du temps (intrigue, narration et déploiement rythmique) offre une « réplique » (Ricoeur) singulière à l'énigme temporelle, qui est discursive, et donc inséparable d'une situation particulière, historique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Au cours des années comprises entre 1744 et 1763, le monde atlantique connaît deux guerres majeures. La France et ses colonies américaines sont impliquées dans une lutte acharnée contre l’Empire britannique. Les deux puissances rivales misent alors largement sur la guerre de course. Au-dedes conséquences commerciales et militaires évidentes, la guerre de course perturba aussi les communications transatlantiques. En effet, la prise d’un navire signifiait le plus souvent la perte des lettres qu’il transportait ou, dans le meilleur des cas, leur saisie, interrompant du même coup l’acheminement maritime du courrier. Les archives des Prize Papers, conservant des lettres et autres documents saisis par des corsaires britanniques, incarnent bien cette réalité. On y trouve notamment de nombreuses lettres françaises interceptées dans ces circonstances. Considérant que l’intérêt historique de ce fonds d’archives mérite d’être davantage souligné, cette recherche analysera donc certaines de ces correspondances françaises trouvées au sein des Prize Papers. À travers celles-ci, nous tenterons de reconstituer le système de communication transatlantique français et de ses acteurs en temps de guerre. Nous nous pencherons d’abord sur l’histoire de la constitution de ce fonds d’archives bien particulier, avant de présenter les pratiques de communication employées par les correspondants transatlantiques et les façons dont la guerre a pu les affecter. Il sera ensuite question des informations elles-mêmes qui furent véhiculées dans ce contexte si difficile.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cet article propose un tableau précis des liens étroits qui unirent le cinéma des premiers temps à l’institution théâtrale montréalaise existante. À cette époque, le cinéma joue un rôle central dans les stratégies d’émergence du théâtre francophone qui s’éloigne alors du théâtre anglophone, son rival issu de la ville de New York, tout autant qu’il joue un rôle d’attrait dans un contexte de vive concurrence. Non seulement cela donne-t-il lieu à des scènes mixtes (théâtrales et cinématographiques), mais également à une interprétation plus profonde de deux arts qui aboutit aux premières manifestations d’un cinéma-théâtre québécois.