119 resultados para Intensité
Resumo:
Objectif : Cette thèse a pour objectif de mieux comprendre l’effet du stress sur la douleur aiguë et chronique. Devis expérimental : 16 patients souffrant de douleur chronique lombalgique et 18 sujets contrôles ont participé à une étude d’imagerie par résonance magnétique (IRM) et ont collecté des échantillons de salive afin de quantifier les niveaux d’hormone de stress (i.e. cortisol) la journée de l’étude (réponse réactive) et durant les sept jours consécutifs suivants (réponse basale). Étude 1 : Une première étude a examiné le lien entre les niveaux de cortisol basal, le volume de l’hippocampe et l’activité cérébrale évoquée par la douleur thermique chez des patients souffrant de douleur chronique et les sujets contrôles. Les résultats révèlent que les patients souffrant de douleur chronique avaient des niveaux de cortisol plus élevés que ceux des sujets contrôles. Chez ces patients, un niveau élevé de cortisol était associé à un plus petit volume de l'hippocampe et à davantage d’activation dans le gyrus parahippocampique antérieure (une région impliquée dans l'anxiété anticipatoire et l'apprentissage associatif). De plus, une analyse de médiation a montré que le niveau de cortisol basal et la force de la réponse parahippocampique explique statistiquement l’association négative entre le volume de l'hippocampe et l'intensité de la douleur chronique. Ces résultats suggèrent que l’activité endocrinienne plus élevée chez les patients ayant un plus petit hippocampe modifie le fonctionnement du complexe hippocampique et contribue à l’intensité de la douleur chronique. Étude 2 : La deuxième étude a évalué la contribution de la réponse de stress réactif aux différences interindividuelles dans la perception de la douleur aiguë chez des patients souffrant de douleur chronique et chez des sujets normaux. Les deux groupes ont montré des augmentations significatives du niveau de cortisol en réponse à des stimulations nocives administrées dans un contexte d’IRM suggérant ainsi que la réactivité de l’axe hypothalamo-hypophyso-surrénalien est préservée chez les patients lombalgiques. De plus, les individus présentant une réponse hormonale de stress plus forte ont rapporté moins de douleur et ont montré une réduction de l'activation cérébrale dans le noyau accumbens, dans le cortex cingulaire antérieur (CCA), le cortex somatosensoriel primaire, et l'insula postérieure. Des analyses de médiation ont indiqué que la douleur liée à l'activité du CCA explique statistiquement la relation entre la réponse de stress et le désagrément de la douleur rapportée par les participants. Enfin, des analyses complémentaires ont révélé que le stress réduit la connectivité fonctionnelle entre le CCA et le tronc cérébral pendant la douleur aiguë. Ces résultats indiquent que le stress réactif module la douleur et contribue à la variabilité interindividuelle de l'activité cérébrale et la réponse affective à la douleur. Discussion : Conjointement, ces études suggèrent dans un premier temps que la douleur chronique peut être exacerbée par une réponse physiologique inadéquate de l'organisme exposé à un stress récurrent, et en un second temps, que le CCA contribuerait à l'analgésie induite par le stress. Sur le plan conceptuel, ces études renforcent le point de vue prédominant suggérant que la douleur chronique induit des changements dans les systèmes cérébraux régissant les fonctions motivationnelles et affective de la douleur.
Resumo:
Depuis quelques années, il y a un intérêt de la communauté en dosimétrie d'actualiser les protocoles de dosimétrie des faisceaux larges tels que le TG-51 (AAPM) et le TRS-398 (IAEA) aux champs non standard qui requièrent un facteur de correction additionnel. Or, ces facteurs de correction sont difficiles à déterminer précisément dans un temps acceptable. Pour les petits champs, ces facteurs augmentent rapidement avec la taille de champ tandis que pour les champs d'IMRT, les incertitudes de positionnement du détecteur rendent une correction cas par cas impraticable. Dans cette étude, un critère théorique basé sur la fonction de réponse dosimétrique des détecteurs est développé pour déterminer dans quelles situations les dosimètres peuvent être utilisés sans correction. Les réponses de quatre chambres à ionisation, d'une chambre liquide, d'un détecteur au diamant, d'une diode, d'un détecteur à l'alanine et d'un détecteur à scintillation sont caractérisées à 6 MV et 25 MV. Plusieurs stratégies sont également suggérées pour diminuer/éliminer les facteurs de correction telles que de rapporter la dose absorbée à un volume et de modifier les matériaux non sensibles du détecteur pour pallier l'effet de densité massique. Une nouvelle méthode de compensation de la densité basée sur une fonction de perturbation est présentée. Finalement, les résultats démontrent que le détecteur à scintillation peut mesurer les champs non standard utilisés en clinique avec une correction inférieure à 1%.
Resumo:
Contexte: Le centrosome est un petit organite bien connu pour son rôle dans l'établissement du fuseau bipolaire pendant la division cellulaire. Les déficiences de la fonction du centrosome donnent souvent lieu à des maladies humaines, y compris le cancer et la formation de kystes rénaux. Nous sommes intéressés à étudier la fonction d'une nouvelle protéine centrosomale nommée CEP78, identifiée dans un criblage protéomique pour de nouveaux composants centrosomaux. Méthodes et résultats : Le traitement des cellules avec le nocodazole, un agent qui dépolymérise spécifiquement les microtubules cytoplasmiques mais pas les microtubules stabilisés du centrosome, a montré que CEP78 est un composant centrosomal stable. La colocalisation de cette protéine avec d'autres marqueurs centrosomaux tels que CEP164, SAS6, Centrine, tubuline polyglutamylée et POC5, à différentes phases du cycle cellulaire a indiqué que CEP78 est précisément à l'extrémité distale des centrioles, mères et filles. Il existe deux pointts CEP78 au cours de l’interphase et les cellules passent par la mitose, procentrioles maturent, et le nombre de points de CEP78 augmente à 4 par cellule et, à la fin de la télophase chaque cellule fille possède 2 points CEP78. La caractérisation des domaines fonctionnels de CEP78 a montré que des répétitions riches en leucine sont nécessaires pour la localisation centrosomale de la protéine. En outre, nous avons constaté que la surexpression de CEP78 ne change pas le nombre de mères/procentrioles mais diminue le nombre et l'intensité des points de CEP170 (protéine d'appendice sous-distal) sans diminution du niveau d'expression de cette protéine. D'autres études ont montré qu'il n'y a pas d'interaction entre ces deux protéines. Enfin, la surexpression de CEP78 protège des microtubules contre la dépolymérisation en présence de nocodazole, ce qui suggère qu'il possède la capacité de lier les microtubules. Conclusion : Nos résultats suggèrent que CEP78 est destiné à l'extrémité distale des centrioles matures par ses répétitions riche en lecuine, où il pourrait être impliqué dans la maturation ou la régulation de l'assemblage ou de la rénovation de l'appendice sous-distal centriolaire, une structure connue dans la nucléation des microtubules et d'ancrage. Comprendre la fonction de Cep78 contribuera à éclaircir le rôle du centrosome dans le cycle cellulaire.
Resumo:
Ce mémoire présente une analyse photométrique et spectroscopique d'un échantillon de 16 naines blanches magnétiques froides riches en hydrogène. L'objectif principal de cette étude est de caractériser leurs propriétés atmosphériques et magnétiques afin d'obtenir une vision d'ensemble représentative de cette population d'étoiles. Pour ce faire, il a fallu réunir le plus d'information possible sur toutes les candidates sous la forme de spectres visibles à haut signal-sur-bruit et de données photométriques. Il a également été nécessaire de mettre à jour les modèles d'atmosphère de Bergeron et al. (1992) à l'aide des avancées réalisées par Tremblay & Bergeron (2009). Les paramètres atmosphériques de chacune des étoiles ont ensuite été déterminés en modélisant les distributions d'énergie photométriques observées tandis que la topologie et l'intensité du champ magnétique ont été obtenues en comparant des spectres synthétiques magnétiques au profil d'absorption Zeeman autour de H-alpha. Qui plus est, un processus de déconvolution combinant ces deux approches a aussi été créé afin de traiter adéquatement les systèmes binaires présents dans l'échantillon. Les résultats de ces analyses sont ensuite exposés, incluant une discussion sur la possible corrélation entre les paramètres atmosphériques et les propriétés magnétiques de ces naines blanches. Finalement, cette étude démontre que les données spectroscopiques de la majorité de ces étoiles peuvent uniquement être reproduites si ces dernières se trouvent dans un système binaire composé d'une seconde naine blanche. De plus, les résultats suggèrent que le champ magnétique de ces naines blanches froides ne peut pas être d'origine fossile et doit être généré par un mécanisme physique devant encore être identifié.
Resumo:
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’université de Montréal (www.bib.umontreal.ca/MU).
Resumo:
Les orientations ministérielles du Québec encouragent une pratique interprofessionnelle centrée sur le patient (ICP), au cours de la trajectoire de soins, pour soutenir les patients diagnostiqués d’un cancer. Cette pratique assure une meilleure communication entre les professionnels et la sécurité des patients, et améliore les soins et l'accès aux services (Santé Canada, 2010). Cependant, les études rapportent généralement les perceptions des professionnels en regard des soins et des services et informent sur les facteurs organisationnels, procéduraux et relationnels liés à cette pratique. Considérant l’importance de celle-ci, il semble nécessaire de la documenter selon les perceptions de patients, de proches et de professionnels dans un contexte réel de soins. L’étude avait pour but de décrire la pratique ICP au cours de la trajectoire de soins en oncologie. Pour soutenir cette description, l’adaptation du cadre de référence Person centred nursing framework (PCNF) de McCormack et McCance (2010) a été réalisée en incluant l’interprofessionnalité, telle que définie par Couturier (2009) et utilisée. Une étude qualitative de cas multiples a été réalisée auprès de deux équipes interprofessionnelles d’un centre hospitalier universitaire de la région de Montréal. L’échantillon (N=31) était composé de 8 patients, 3 proches, 18 professionnels et 2 gestionnaires. Vingt-huit entrevues ont été réalisées ainsi que 57,6 heures d’observation d’activités cliniques auxquelles participait le patient (ex., rendez-vous, traitement). Les résultats suggèrent que la pratique ICP des équipes est empreinte d’un dualisme de cultures (culture centrée sur le traitement versus culture davantage centrée sur le patient). De plus, les équipes étudiées ont présenté une pratique ICP fluctuante en raison de l’influence de nombreux facteurs tels le « fonctionnement de l’équipe », l’« environnement physique » et le « positionnement » des patients et des professionnels. Les résultats ont aussi suggéré que le déploiement des équipes de soins se fait à intensité variable au cours de la trajectoire. Il a été soulevé que les patients ont pu faire l’expérience d’une pratique ICP changeante, de bris dans la continuité des soins et de transition difficile entre les différentes périodes de la trajectoire. De plus, la description d’une pratique ICP souhaitée par les patients, leurs proches et les professionnels propose un accompagnement respectant le rythme du patient, sans prédominance des valeurs du professionnel ainsi qu’une assiduité dans la collaboration des membres de l’équipe. Cette étude suggère que les sciences infirmières peuvent ajouter aux connaissances interprofessionnelles actuelles en utilisant une perspective centrée sur le patient, perspective cohérente avec ses valeurs disciplinaires. De plus, de nombreuses pistes de réflexion sont proposées pour la pratique, la recherche, la gestion et la formation.
Resumo:
Le système trigéminal –tout comme l’olfaction et la gustation– est un sens chimique qui permet la perception des informations chimiosensorielles de notre environnement. Contrairement à l’olfaction et à la gustation, notre connaissance du traitement des mélanges par le système trigéminal est limitée. Nous avons donc utilisé des mélanges de trois agonistes relativement spécifiques à des récepteurs (eucalyptol, agoniste TRPM8; aldéhyde cinnamique, agoniste TRPA1 ; camphre, agoniste TRPV1) et d’une odeur pure (alcool phényléthylique) dans différentes proportions afin de déterminer les dimensions de base de la perception trigéminale. Quatre dimensions principales se sont avérées pertinentes: l’intensité, la sensation de chaleur, la sensation de froid et la douleur. Nous avons utilisé ces dimensions pour étudier la perception de mélanges et de combinaisons dans différentes proportions d’un stimulus qui procure une sensation de froid (eucalyptol) et d’un stimulus qui procure une sensation de chaleur (aldéhyde cinnamique). Les résultats indiquent que les mélanges obtiennent généralement des scores plus élevés que les combinaisons sur les dimensions « intensité », « sensation de chaleur » et « douleur » alors que les combinaisons obtiennent des scores plus élevés sur la dimension « sensation de froid ». Ces résultats suggèrent des interactions spécifiques pour les différentes dimensions de la perception trigéminale. Nous en venons à la conclusion d’un effet d’additivité pour les mélanges sur les dimensions « intensité », « sensation de chaleur » et « douleur » alors que nous observons plutôt un effet de suppression de la perception de froid pour les deux stimuli dans les mélanges, ce qui semble indiquer des interactions particulières pouvant prendre place aux niveaux périphérique ou central.
Resumo:
Essai doctoral présenté à la Faculté des études supérieures en vue de l’obtention du grade de Docteur en psychologie (D.Psy.) en psychologie option clinique
Resumo:
Ma thèse est composée de trois essais sur l'inférence par le bootstrap à la fois dans les modèles de données de panel et les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peut être faible. La théorie asymptotique n'étant pas toujours une bonne approximation de la distribution d'échantillonnage des estimateurs et statistiques de tests, je considère le bootstrap comme une alternative. Ces essais tentent d'étudier la validité asymptotique des procédures bootstrap existantes et quand invalides, proposent de nouvelles méthodes bootstrap valides. Le premier chapitre #co-écrit avec Sílvia Gonçalves# étudie la validité du bootstrap pour l'inférence dans un modèle de panel de données linéaire, dynamique et stationnaire à effets fixes. Nous considérons trois méthodes bootstrap: le recursive-design bootstrap, le fixed-design bootstrap et le pairs bootstrap. Ces méthodes sont des généralisations naturelles au contexte des panels des méthodes bootstrap considérées par Gonçalves et Kilian #2004# dans les modèles autorégressifs en séries temporelles. Nous montrons que l'estimateur MCO obtenu par le recursive-design bootstrap contient un terme intégré qui imite le biais de l'estimateur original. Ceci est en contraste avec le fixed-design bootstrap et le pairs bootstrap dont les distributions sont incorrectement centrées à zéro. Cependant, le recursive-design bootstrap et le pairs bootstrap sont asymptotiquement valides quand ils sont appliqués à l'estimateur corrigé du biais, contrairement au fixed-design bootstrap. Dans les simulations, le recursive-design bootstrap est la méthode qui produit les meilleurs résultats. Le deuxième chapitre étend les résultats du pairs bootstrap aux modèles de panel non linéaires dynamiques avec des effets fixes. Ces modèles sont souvent estimés par l'estimateur du maximum de vraisemblance #EMV# qui souffre également d'un biais. Récemment, Dhaene et Johmans #2014# ont proposé la méthode d'estimation split-jackknife. Bien que ces estimateurs ont des approximations asymptotiques normales centrées sur le vrai paramètre, de sérieuses distorsions demeurent à échantillons finis. Dhaene et Johmans #2014# ont proposé le pairs bootstrap comme alternative dans ce contexte sans aucune justification théorique. Pour combler cette lacune, je montre que cette méthode est asymptotiquement valide lorsqu'elle est utilisée pour estimer la distribution de l'estimateur split-jackknife bien qu'incapable d'estimer la distribution de l'EMV. Des simulations Monte Carlo montrent que les intervalles de confiance bootstrap basés sur l'estimateur split-jackknife aident grandement à réduire les distorsions liées à l'approximation normale en échantillons finis. En outre, j'applique cette méthode bootstrap à un modèle de participation des femmes au marché du travail pour construire des intervalles de confiance valides. Dans le dernier chapitre #co-écrit avec Wenjie Wang#, nous étudions la validité asymptotique des procédures bootstrap pour les modèles à grands nombres de variables instrumentales #VI# dont un grand nombre peu être faible. Nous montrons analytiquement qu'un bootstrap standard basé sur les résidus et le bootstrap restreint et efficace #RE# de Davidson et MacKinnon #2008, 2010, 2014# ne peuvent pas estimer la distribution limite de l'estimateur du maximum de vraisemblance à information limitée #EMVIL#. La raison principale est qu'ils ne parviennent pas à bien imiter le paramètre qui caractérise l'intensité de l'identification dans l'échantillon. Par conséquent, nous proposons une méthode bootstrap modifiée qui estime de facon convergente cette distribution limite. Nos simulations montrent que la méthode bootstrap modifiée réduit considérablement les distorsions des tests asymptotiques de type Wald #$t$# dans les échantillons finis, en particulier lorsque le degré d'endogénéité est élevé.
Resumo:
Nurse Managers need today more than ever instruments that can be used to justify the billions of dollars that are invested in the healthcare sector annually. The objective of the study was to establish the validity and reliability of the Nursing Intensity Critical Care Questionnaire (NICCQ) in a cardiac surgery intensive care unit (CSICU) of a tertiary hospital. An expert panel evaluated the questionnaire’s content validity while generalizability theory was used to estimate the G and D coefficients. Decision studies enabled the investigators to determine if the current ward functioning of having one nurse rate one patient is adequate. Also, exploratory factorial analyses (EFA) preceded by principal component analyses (PCA) looked at establishing the factorial structure for the NICCQ. Finally, the NICCQ was correlated with a severity of illness score known as the Acute Physiology And Chronic Health Evaluation II (APACHE II) to estimate the correlation between patient illness and nursing intensity of care. The NICCQ was used by nurses using a sample of patients who had undergone cardiac surgery and were hospitalized on a CSICU of a tertiary teaching hospital. A convenience sample of nurses and patients on the CSICU was used to reflect the procedures and usual functioning of the unit. Each item on the questionnaire measured nursing intensity of care using a three point ordinal scale (Light, Moderate, and Severe) for the first 11 items, and a five point ordinal scale for the global assessment item (including the intermediate categories light/moderate and moderate/severe). The questionnaire proved to be both valid and able to be generalized to all nurses working in the CSICU. Overall results showed that 94.4% of the item generalizability coefficients indicated acceptable to excellent reliability, with most (86.1%) being larger than .90. The EFA established a simple 4 factor structure that explained little of the variance (32%). A correlation coefficient of 0.36 indicated that patient’ severity of illness is somewhat correlated with nursing intensity of care. The study showed that the NICCQ is a valid questionnaire with a generalizability coefficient that is large enough to be used by nurses’ managers for administrative purposes. Further research using larger samples would be needed to further test the factor structure of the NICCQ.
Resumo:
Ce présent mémoire examine la probabilité qu'une Canadienne française née entre 1700-1749 et mariée fasse l’expérience d'au moins une naissance au cours de la quarantaine, en tenant compte des particularités de la trajectoire individuelle, des caractéristiques familiales et du contexte historique. Nos analyses confirment que sur les 14 727 femmes à risque d'une maternité entre 40 et 49 ans, 62 % d'entre elles donnent naissance après l'âge de 40 ans. Selon les différentes trajectoires féminines, des disparités tangibles se manifestent dans le fait d'enfanter à un âge avancé. Nos résultats suggèrent que la possibilité qu'une femme accouche dans la quarantaine est positivement associée à un ensemble de facteurs liés à son parcours de vie: une première union entre l’âge de 20 et de 24 ans, un conjoint du même âge ou un conjoint plus jeune, une union continue (ou sans décès du conjoint) jusqu’à 40 ans ou passé cet âge, un enfant précédent non survivant et un historique familial dans lequel la mère de cette femme et au moins l’une de ses sœurs ont donné naissance à un âge avancé. De plus, l'intensité du phénomène de la maternité tardive diminue de manière perceptible au court du temps, particulièrement chez les cohortes de femmes ayant accouché après 1765. La vie en milieu « urbain » influence également de manière négative les chances d'enfanter à un âge avancé. Il se peut que la détérioration des conditions de vie générales vers la fin du 18e siècle, cousinées à la récurrence de maladies infectieuses et l'insalubrité des villes durant cette période, explique la diminution du risque d'une maternité durant la quarantaine. Les résultats obtenus témoignent de la forte contribution des Canadiennes françaises en matière de fécondité tardive en contexte naturel. Notre étude exploratoire offre aussi une perspective utile permettant de mieux comprendre la maternité tardive contemporaine, sujet qui fait l’objet de nombreux débats actuellement.
Resumo:
Dans cette thèse, je me suis intéressé aux effets des fluctuations du prix de pétrole sur l'activité macroéconomique selon la cause sous-jacente ces fluctuations. Les modèles économiques utilisés dans cette thèse sont principalement les modèles d'équilibre général dynamique stochastique (de l'anglais Dynamic Stochastic General Equilibrium, DSGE) et les modèles Vecteurs Autorégressifs, VAR. Plusieurs études ont examiné les effets des fluctuations du prix de pétrole sur les principaux variables macroéconomiques, mais très peu d'entre elles ont fait spécifiquement le lien entre les effets des fluctuations du prix du pétrole et la l'origine de ces fluctuations. Pourtant, il est largement admis dans les études plus récentes que les augmentations du prix du pétrole peuvent avoir des effets très différents en fonction de la cause sous-jacente de cette augmentation. Ma thèse, structurée en trois chapitres, porte une attention particulière aux sources de fluctuations du prix de pétrole et leurs impacts sur l'activité macroéconomique en général, et en particulier sur l'économie du Canada. Le premier chapitre examine comment les chocs d'offre de pétrole, de demande agrégée, et de demande de précaution de pétrole affectent l'économie du Canada, dans un Modèle d'équilibre Général Dynamique Stochastique estimé. L'estimation est réalisée par la méthode Bayésienne, en utilisant des données trimestrielles canadiennes sur la période 1983Q1 à 2010Q4. Les résultats montrent que les effets dynamiques des fluctuations du prix du pétrole sur les principaux agrégats macro-économiques canadiens varient en fonction de leurs sources. En particulier, une augmentation de 10% du prix réel du pétrole causée par des chocs positifs sur la demande globale étrangère a un effet positif significatif de l'ordre de 0,4% sur le PIB réel du Canada au moment de l'impact et l'effet reste positif sur tous les horizons. En revanche, une augmentation du prix réel du pétrole causée par des chocs négatifs sur l'offre de pétrole ou par des chocs positifs de la demande de pétrole de précaution a un effet négligeable sur le PIB réel du Canada au moment de l'impact, mais provoque une baisse légèrement significative après l'impact. En outre, parmi les chocs pétroliers identifiés, les chocs sur la demande globale étrangère ont été relativement plus important pour expliquer la fluctuation des principaux agrégats macroéconomiques du Canada au cours de la période d'estimation. Le deuxième chapitre utilise un modèle Structurel VAR en Panel pour examiner les liens entre les chocs de demande et d'offre de pétrole et les ajustements de la demande de travail et des salaires dans les industries manufacturières au Canada. Le modèle est estimé sur des données annuelles désagrégées au niveau industriel sur la période de 1975 à 2008. Les principaux résultats suggèrent qu'un choc positif de demande globale a un effet positif sur la demande de travail et les salaires, à court terme et à long terme. Un choc négatif sur l'offre de pétrole a un effet négatif relativement faible au moment de l'impact, mais l'effet devient positif après la première année. En revanche, un choc positif sur la demande précaution de pétrole a un impact négatif à tous les horizons. Les estimations industrie-par-industrie confirment les précédents résultats en panel. En outre, le papier examine comment les effets des différents chocs pétroliers sur la demande travail et les salaires varient en fonction du degré d'exposition commerciale et de l'intensité en énergie dans la production. Il ressort que les industries fortement exposées au commerce international et les industries fortement intensives en énergie sont plus vulnérables aux fluctuations du prix du pétrole causées par des chocs d'offre de pétrole ou des chocs de demande globale. Le dernier chapitre examine les implications en terme de bien-être social de l'introduction des inventaires en pétrole sur le marché mondial à l'aide d'un modèle DSGE de trois pays dont deux pays importateurs de pétrole et un pays exportateur de pétrole. Les gains de bien-être sont mesurés par la variation compensatoire de la consommation sous deux règles de politique monétaire. Les principaux résultats montrent que l'introduction des inventaires en pétrole a des effets négatifs sur le bien-être des consommateurs dans chacun des deux pays importateurs de pétrole, alors qu'il a des effets positifs sur le bien-être des consommateurs dans le pays exportateur de pétrole, quelle que soit la règle de politique monétaire. Par ailleurs, l'inclusion de la dépréciation du taux de change dans les règles de politique monétaire permet de réduire les coûts sociaux pour les pays importateurs de pétrole. Enfin, l'ampleur des effets de bien-être dépend du niveau d'inventaire en pétrole à l'état stationnaire et est principalement expliquée par les chocs sur les inventaires en pétrole.
Resumo:
En synthèse d'images réalistes, l'intensité finale d'un pixel est calculée en estimant une intégrale de rendu multi-dimensionnelle. Une large portion de la recherche menée dans ce domaine cherche à trouver de nouvelles techniques afin de réduire le coût de calcul du rendu tout en préservant la fidelité et l'exactitude des images résultantes. En tentant de réduire les coûts de calcul afin d'approcher le rendu en temps réel, certains effets réalistes complexes sont souvent laissés de côté ou remplacés par des astuces ingénieuses mais mathématiquement incorrectes. Afin d'accélerer le rendu, plusieurs avenues de travail ont soit adressé directement le calcul de pixels individuels en améliorant les routines d'intégration numérique sous-jacentes; ou ont cherché à amortir le coût par région d'image en utilisant des méthodes adaptatives basées sur des modèles prédictifs du transport de la lumière. L'objectif de ce mémoire, et de l'article résultant, est de se baser sur une méthode de ce dernier type[Durand2005], et de faire progresser la recherche dans le domaine du rendu réaliste adaptatif rapide utilisant une analyse du transport de la lumière basée sur la théorie de Fourier afin de guider et prioriser le lancer de rayons. Nous proposons une approche d'échantillonnage et de reconstruction adaptative pour le rendu de scènes animées illuminées par cartes d'environnement, permettant la reconstruction d'effets tels que les ombres et les réflexions de tous les niveaux fréquentiels, tout en préservant la cohérence temporelle.
Resumo:
Il est bien établi dans la littérature en criminologie que les pairs délinquants peuvent avoir un effet néfaste sur les comportements d’un jeune. L’analyse des caractéristiques de l’entourage social est donc essentielle à une compréhension globale des conduites individuelles. Puisqu’il est impossible pour un jeune, délinquant ou non, de se distancer complètement du monde conventionnel (Sykes et Matza, 1957; Warr 2002), il importe de considérer le chevauchement des relations conventionnelles et délinquantes pour saisir l’ampleur du phénomène de l’influence social. De surcroît, le réseau social des jeunes ne se limite pas à leurs amis, les membres de la famille, les collègues de classe et de travail pouvant aussi avoir une influence sur les comportements. La présente étude propose une analyse de l’entourage social de 237 jeunes âgés de 14 à 24 ans, fréquentant les organismes communautaires au Québec. Les résultats révèlent que: 1) la participation à un délit chez les jeunes en communauté est fréquente, 2) les caractéristiques du réseau social, reflétant l’enchâssement social, ne se trouvent pas révélatrices de la participation à un délit, 3) côtoyer les membres de son réseau social en grande intensité réduit de manière significative le volume de délits de marché commis dans une année, et ce, même en contrôlant la présence de contacts délinquants dans le réseau, 4) la présence de contacts délinquants dans plus d’une sphère relationnelle composant le réseau social permet de créer un index de dispersion de la délinquance reflétant ainsi l’enchâssement criminel des jeunes et finalement 5) plus les contacts délinquants sont dispersés à travers les sphères relationnelles, plus le risque de participation à un délit augmente. Toutefois, la dispersion des contacts délinquants dans le réseau social ne prédit pas la fréquence des délits commis. À des fins d’intervention, connaître la dispersion de la délinquance dans le réseau social peut aider à la prévention des comportements délinquants.
Resumo:
L’objectif général de cette thèse de doctorat est de mieux comprendre comment le public interprète les nouvelles scientifiques portant sur la génétique humaine, plus précisément les nouvelles portant sur la génétique des comportements et celles portant sur la génétique des groupes raciaux. L’ouvrage prend la forme d’une thèse par article. Le Chapitre 1 introduit le lecteur aux buts et aux pratiques de la vulgarisation scientifique, présente un sommaire de la recherche sur les effets des médias, résume les principaux travaux produits par le champ de la génopolitique, et définit la structure des croyances du public à l’égard de l’influence de la génétique sur les traits humains. Le Chapitre 2 présente les fondements de la méthode expérimentale, il en explique les atouts et il offre des exemples de différents types de devis expérimentaux utilisés en science politique. Toutes les recherches produites dans cette thèse reposent au moins en partie sur cette méthode. Le Chapitre 3 présente les résultats d’une expérience de sondage qui vise à mesurer l’effet de la lecture d’une nouvelle à propos de la recherche en génétique des comportements sur des participants. L’étude démontre que le public interprète la nouvelle avec maladresse et tend à généraliser l’influence de la génétique à d’autres traits humains qui n’y sont pas mentionnés. J’avance l’hypothèse qu’un raccourci psychologique amplement documenté puisse expliquer cette réaction : l’heuristique de l’ancrage et de l’ajustement. Le Chapitre 4 présente lui aussi les résultats d’une expérience de sondage. L’étude consiste à manipuler certaines informations du contenu d’une nouvelle sur la génopolitique de manière à vérifier si certains éléments sont particulièrement susceptibles de mener à la généralisation hâtive mise en évidence dans le Chapitre 3. Les analyses suggèrent que cette généralisation est amplifiée lorsque la nouvelle présente de hauts niveaux d’héritabilité tirés d’études de jumeaux, ainsi que lorsqu’elle présente des travaux de génétique des populations visant à étudier l’origine des différences géographiques. Ce chapitre présente des recommandations à l’égard des journalistes scientifiques. Le Chapitre 5 s’intéresse à un aspect différent de la génétique humaine : celui de la génétique des races. L’objectif de cette recherche est de comprendre comment le public réagit aux travaux qui invalident l’idée selon laquelle les humains sont divisés en différentes races génétiquement distinctes. Les analyses de données transversales ainsi que les résultats d’une expérience de sondage convergent et indiquent que les conservateurs et les libéraux réagissent de manière diamétralement opposée à cette information. D’un côté, les libéraux acceptent le constat scientifique et réduisent leur impression que la génétique explique en partie les inégalités sociales; de l’autre, les conservateurs rejettent l’argument avec une intensité si forte que le rôle qu’ils attribuent aux différences génétiques s’en voit bonifié. Ces résultats sont interprétés à partir de la théorie du raisonnement motivé. Enfin, le Chapitre 6 résume les principaux constats, met en évidence les contributions que ma thèse apporte à la science politique et à la communication scientifique, et présente quelques pistes pour la recherche future.