198 resultados para Intensité structurelle
Resumo:
"Il est une question centrale que la science politique au Canada a quelque peu délaissée : qui gouverne? Ainsi, les nombreux analystes du pouvoir judiciaire, dont plusieurs n’ont pas manqué depuis 1982 de critiquer l’accroissement de son influence dans la gouverne démocratique du pays, n’ont pas vraiment cherché à enquêter sur l’emprise des juristes sur la politique au-delà des juges. La présente étude tente de combler cette lacune en livrant, d’une part, les résultats d’une enquête empirique sur la présence des juristes au sein des assemblées élues fédérale et québécoise, ainsi que dans leurs exécutifs respectifs, de 1984 à 2006 ; et d’autre part, en fournissant un jeu d’hypothèses et d’interprétations en vue de comprendre les facteurs à l’origine de la surreprésentation structurelle et persistante des juristes dans la classe politique canadienne et québécoise. Plusieurs auteurs, dont John Porter, Guy Bouthillier, Jean-Charles Falardeau et Yoland Sénécal, avaient déjà étudié le phénomène et avancé des éléments d’explication de cette surreprésentation, historiquement plus marquée parmi les parlementaires et les ministres québécois des deux capitales. La présente étude montre que la baisse tendancielle de la surreprésentation des juristes dans les assemblées élues, observée à partir des années 1960, s’est poursuivie au-delà de 1984 dans le cas de la Chambre des communes , alors qu’elle s’est arrêtée à l’Assemblée nationale et que les juristes ont continué à être surreprésentés au sein de l’exécutif, dans une proportion plus forte encore que dans la chambre élue. La surreprésentation des juristes est plus prononcée chez certains partis (les partis libéraux fédéral et québécois) et tout indique que les candidats juristes aux élections fédérales connaissent un taux d’élection élevé, en particulier chez les deux grands partis gouvernementaux. En comparaison avec les États-Unis, le cas canadien présente des particularismes dont on ne peut rendre compte en se référant aux seules théories générales de Tocqueville et de Weber sur la « prédisposition » à gouverner des juristes en démocratie. Certains facteurs plus spécifiques semblent aussi jouer, tels que le régime fédéral et le système de partis canadien, les avantages « concurrentiels » dont jouissent les avocats par rapport à d’autres professions, la culture politique au Québec et le rôle anthropologique des juristes, dont la parole au Québec vaudrait celle d’un clerc laïque."
Resumo:
Cette recherche-action participative s’inscrit dans un paradigme féministe intersectionnelle. Elle présente la façon dont sept jeunes femmes de la rue (18-23 ans) de Québec ont fait l’expérience de la violence structurelle et ont déployé des stratégies pour y faire face. Elle s’articule autour d’une définition de la violence structurelle inspirée de celle proposée par Farmer, Bourgois, Scheper-Hugues et al. (2004) qui la présentent comme étant le processus à la racine des inégalités sociales et de l’oppression vécue par différents groupes sociaux. Ce processus s’opère dans trois dimensions complémentaires soit : 1) la domination symbolique, 2) la violence institutionnelle et 3) la violence quotidienne. Une analyse de contenu thématique a permis de dégager l’expérience des participantes dans chacune de ces dimensions. L’analyse de la domination symbolique a montré que les participantes ont été perçues à travers le prisme de quatre visions ou préjugés : 1) l’image de la jeune délinquante (Bad girl), 2) le discours haineux envers les personnes assistées sociales, 3) la culture du viol et 4) l’hétéronormativité. Les différentes expériences de violence quotidienne et institutionnelle vécues par les participantes peuvent être mises en lien avec ces manifestations de la domination symbolique. Les participantes ont expérimenté la violence institutionnelle à travers leurs trajectoires au sein des services de protection de l’enfance, durant leurs démarches pour obtenir un emploi, un logement ou du soutien financier de la part des programmes offerts par l’État et pendant leurs demandes d’aide auprès d’organismes communautaires ou d’établissements du réseau de la santé et des services sociaux. L’analyse de l’expérience des participantes a permis de révéler deux processus imbriqués de façon cyclique de violence structurelle : l’exclusion et le contrôle social. La plupart des stratégies ii expérimentées par les participantes pour combler leurs besoins fondamentaux les ont exposées au contrôle social. Le contrôle social a exacerbé les difficultés financières des participantes et a accru leur crainte de subir de l’exclusion. Bien que la violence structurelle expérimentée par les participantes se situe à la croisée des rapports de pouvoir liée au genre, à la classe sociale, à l’âge et à l’orientation sexuelle, il se dégage que la domination masculine s’est traduite dans le quotidien des participantes, car l’exclusion et le contrôle social ont créé des contextes où elles ont été susceptibles de subir une agression sexuelle ou de vivre de la violence de la part d’un partenaire intime. L’analyse de la dimension intersubjective de la grille d’analyse de Yuval-Davis (2006) montre la présence de certains rapports de pouvoir liés à la classe sociale au sein même de la population des jeunes de la rue. Cette analyse souligne également la difficulté des participantes à définir les contours de la violence et d’adopter des rapports égalitaires avec les hommes. Enfin, le processus de recherche-action participative expérimenté dans le cadre de cette thèse a été analysé à partir des critères de scientificité présentés par Reason et Bradbury (2001). L’élaboration de deux projets photos, choisis par le groupe en guise de stratégie de lutte contre la violence structurelle, a contribué à ouvrir le dialogue avec différents acteurs concernés par la violence structurelle envers les jeunes femmes de la rue et s’est inscrit dans une perspective émancipatoire.
Resumo:
L’épilepsie bénigne à pointes centrotemporales (EPCT) est la forme la plus fréquente des épilepsies idiopathiques chez l’enfant (Fastenau et al., 2009). Le pronostic de ces patients est bon, notamment en raison de la rémission spontanée de cette épilepsie à l’adolescence; toutefois plusieurs études suggèrent la présence de troubles cognitifs et de spécificités neuroanatomiques. Il n’existe pas actuellement de consensus sur les liens entre leurs troubles cognitifs et leurs particularités neuroanatomiques et neurofonctionnelles. Dans cette thèse, notre but est de préciser le profil des enfants ayant une épilepsie bénigne à pointes centro-temporales, en investiguant les caractéristiques des patients à plusieurs niveaux: cognitif, fonctionnel, structurel. La thèse est composée de quatre articles, dont deux articles empiriques. Notre premier article a pour objectif de recenser les difficultés cognitives et affectives rapportées par les études s’intéressant aux caractéristiques des enfants ayant une épilepsie bénigne. Bien qu’une certaine variabilité soit retrouvée dans la littérature, cette revue démontre qu’une histoire d’épilepsie, même bénigne, peut être un facteur de risque pour le développement cognitif et socio-affectif des enfants. Notre revue de littérature a indiqué des troubles particuliers du langage chez ces enfants, mais aucune étude n’avait auparavant investigué spécifiquement la compréhension de lecture chez les enfants ayant une EPCT, une compétence essentielle dans le cheminement scolaire des enfants. Ainsi, nous avons développé une tâche novatrice de compréhension de lecture de phrases en imagerie par résonnance magnétique fonctionnelle (IRMf), adaptée à la population pédiatrique. Dans notre second article, nous avons validé cette tâche auprès d’enfants sains et nous avons mis en évidence une mobilisation des régions cérébrales généralement engagées dans des tâches langagières chez l’enfant sain, y compris les régions impliquées dans le traitement sémantique (Berl et al., 2010; Blumenfeld, Booth et Burman, 2006). Le troisième article de cette thèse rapporte notre investigation du réseau cérébral activé durant cette nouvelle tâche de compréhension de lecture de phrases en IRMf chez les enfants ayant une EPCT. Nos résultats suggèrent que ces derniers ont recours à l’activation d’un réseau cérébral plus large, présentant des similarités avec celui retrouvé chez les enfants dyslexiques. Par ailleurs, l’activation du striatum gauche, structure généralement associée à la réalisation de processus cognitifs complexes est uniquement retrouvée chez les enfants épileptiques. Étant donné que les enfants ayant une EPCT obtiennent des performances à la tâche d’IRMf équivalentes à celles des enfants sains, il est possible d’émettre l’hypothèse que ces différences d’activations cérébrales soient adaptatives. L’étude des relations entre les résultats neuropsychologiques, la performance à la tâche et les activations cérébrales a mis en évidence des prédicteurs différents entre les deux groupes d’enfants, suggérant qu’ils ne s’appuient pas exactement sur les mêmes processus cognitifs pour réussir la tâche. De plus, nous avons réalisé un travail d’intégration des diverses méthodologies utilisées dans les études en imagerie pondérée en diffusion chez l’enfant épileptique, ce qui constitue le quatrième article de cette thèse. Nous rapportons les diverses applications de cette méthode dans la caractérisation des anomalies structurelles subtiles de la matière blanche chez les enfants épileptiques en général. Les différentes méthodologies employées, les enjeux, et les biais potentiels relatifs aux traitements des données de diffusion y sont discutés. Enfin, pour mieux comprendre l’origine et les marqueurs de cette épilepsie, nous avons étudié les spécificités structurelles des cerveaux des enfants ayant une EPCT à l’aide d’analyses sur les données d’imagerie par résonnance magnétique. Aucune différence n’a été mise en évidence au niveau de la matière grise entre les cerveaux d’enfants sains et ceux ayant une EPCT. À l’inverse, nous rapportons des différences subtiles au niveau de la matière blanche dans notre population d’enfants épileptiques, avec une diminution de l’anisotropie fractionnelle (FA) au niveau temporal inférieur/moyen de l’hémisphère gauche, ainsi que dans l’hémisphère droit dans les régions frontales moyennes et occipitales inférieures. Ces résultats suggèrent la présence d’altérations de la matière blanche subtiles et diffuses dans le cerveau des enfants ayant une EPCT et concordent avec ceux d’autres études récentes (Ciumas et al., 2014).
Resumo:
Jésus de Nazareth accordait beaucoup d’importance à la commensalité, au point de faire du repas en commun le contexte particulier du double geste sur le pain et le vin accompli à la dernière Cène. Après avoir été réitéré dans son contexte d’origine par plusieurs générations de chrétiens, le rappel de la Cène s’est ensuite complètement dissocié du contexte d’un repas. Le terme koinwnia utilisé au verset 2,42 du livre des Actes des apôtres désigne-t-il ce repas communautaire autour duquel se déroulaient les rassemblements chrétiens? Grâce à une analyse structurelle réalisée en entonnoir sur les chapitres 2 à 5 du livre des Actes, le présent mémoire met en relief l’importance des repas communautaires dans la vie de la communauté primitive, tout en montrant que le terme koinwnia a un sens plus étendu que le seul repas en commun, mais tout aussi concret et actif que les trois autres éléments énumérés au verset 2,42.
Resumo:
Le récit de la Pentecôte (Actes des Apôtres 2) présente au lecteur un élément particulier qui se retrouve rarement dans le canon biblique : les « langues comme de feu ». Seuls les passages d’Isaïe 5,24 et Actes 2,3 utilisent cette expression; pourtant, leurs contextes diffèrent largement. Nous trouvons certains commentaires rabbiniques et fragments de rouleaux de la Mer Morte qui emploient cette même expression, et la littérature gréco-romaine utilise une image similaire où un feu divin se pose sur la tête de certains personnages. Puisque la fonction de cet élément diffère d’un ouvrage littéraire à un autre, comment devons-nous interpréter les langues de feu dans le récit de la Pentecôte? Les commentaires bibliques qui examinent cet élément proposent différentes hypothèses sur la symbolique des langues de feu. Afin de répondre à cette problématique, nous commencerons notre étude avec une présentation sur l’état de la question et des approches synchroniques utilisées. Nous présenterons ensuite l’analyse structurelle du récit de la Pentecôte afin de percevoir la place que notre expression occupe dans cette péricope. Au chapitre trois, nous ferons une analyse grammaticale de notre segment afin de voir la fonction grammaticale de l’expression, et présenter une recension des ouvrages hébraïques et gréco-romains qui utilisent cette expression ou une image similaire. Enfin, l’analyse philologique des termes γλῶσσα et πῦρ sera élaborée et comparée à l’utilisation retrouvée dans le livre des Actes des Apôtres. Subséquemment, nous serons en mesure de porter un regard critique sur quelques interprétations proposées afin de percevoir que la mise en réseau structurel du membre γλῶσσαι ὡσεὶ πυρός, avec les termes répétitifs et synonymiques du récit, nous orientent à percevoir l’accomplissement de la promesse du Saint-Esprit, qui à son tour habilite le croyant à réaliser la mission donnée : la proclamation du message christologique à toutes les ethnies.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Plusieurs facteurs de risque de développement de troubles intériorisés, tels que les troubles d’anxiété et de l’humeur, ont été identifiés dans la littérature. Les deux plus importants facteurs de risques regroupent l’adversité vécue durant l’enfance (par exemple la maltraitance) et le risque parental (c’est-à-dire la présence d’un trouble intériorisé chez l’un ou les deux parents). Ces facteurs de risque ont été liés à des changements neuroanatomiques similaires à ceux observés en lien avec les troubles intériorisés. Ainsi, en présence de ces facteurs de risque, des anomalies anatomiques pourraient laisser présager l’apparition prochaine d’une symptomatologie de troubles intériorisés chez des individus encore asymptomatiques. Chez les quelques populations de jeunes investiguées, les participants présentaient des comorbidités et/ou étaient sous médication, ce qui rend difficile l’interprétation des atteintes cérébrales observées. Ce travail de thèse s’est intéressé aux liens entre ces deux facteurs de risque et les substrats neuroanatomiques associés à chacun d’eux, chez des adolescents asymptomatiques et n’étant sous aucune médication. Une première étude a examiné le lien entre le niveau de pratiques parentales coercitives et le niveau de symptômes d’anxiété, mesurés de manière longitudinale depuis la naissance, et les différences neuroanatomiques observées à l’adolescence (voir Chapitre 2). Une deuxième étude a examiné le lien entre le risque parental de développer des troubles d’anxiété et les différences neuroanatomiques observées à l’adolescence (voir Chapitre 3). Une troisième étude s’est intéressée au lien entre le risque parental de développer un trouble de dépression ou un trouble bipolaire et les différences neuroanatomiques observées à l’adolescence (voir Chapitre 4). Les résultats démontrent des différences de volume et/ou d’épaisseur corticale dans plusieurs structures clés impliquées dans le traitement et la régulation des émotions. C’est le cas du cortex préfrontal, de l’amygdale, de l’hippocampe et du striatum. Ces résultats suggèrent que certaines des différences neuroanatomiques observées dans les troubles intériorisés peuvent être présentes avant que le trouble ne se manifeste, et représenter des marqueurs neuronaux du risque de développer le trouble. Les implications théoriques et les limites de ces trois études sont finalement discutées dans le Chapitre 5.
Resumo:
A wide range of tests for heteroskedasticity have been proposed in the econometric and statistics literature. Although a few exact homoskedasticity tests are available, the commonly employed procedures are quite generally based on asymptotic approximations which may not provide good size control in finite samples. There has been a number of recent studies that seek to improve the reliability of common heteroskedasticity tests using Edgeworth, Bartlett, jackknife and bootstrap methods. Yet the latter remain approximate. In this paper, we describe a solution to the problem of controlling the size of homoskedasticity tests in linear regression contexts. We study procedures based on the standard test statistics [e.g., the Goldfeld-Quandt, Glejser, Bartlett, Cochran, Hartley, Breusch-Pagan-Godfrey, White and Szroeter criteria] as well as tests for autoregressive conditional heteroskedasticity (ARCH-type models). We also suggest several extensions of the existing procedures (sup-type of combined test statistics) to allow for unknown breakpoints in the error variance. We exploit the technique of Monte Carlo tests to obtain provably exact p-values, for both the standard and the new tests suggested. We show that the MC test procedure conveniently solves the intractable null distribution problem, in particular those raised by the sup-type and combined test statistics as well as (when relevant) unidentified nuisance parameter problems under the null hypothesis. The method proposed works in exactly the same way with both Gaussian and non-Gaussian disturbance distributions [such as heavy-tailed or stable distributions]. The performance of the procedures is examined by simulation. The Monte Carlo experiments conducted focus on : (1) ARCH, GARCH, and ARCH-in-mean alternatives; (2) the case where the variance increases monotonically with : (i) one exogenous variable, and (ii) the mean of the dependent variable; (3) grouped heteroskedasticity; (4) breaks in variance at unknown points. We find that the proposed tests achieve perfect size control and have good power.
Resumo:
Les phospholipases A2 sécrétées (sPLA2) font partie d’une grande famille d’enzymes impliquées dans la synthèse d’écosanoïdes, de chimiokines et dans l’expression de molécules d’adhérence. Ce groupe comprend dix isoformes différentes (sPLA2-IB, -IIA, -IIC, -IID, -IIE, -IIF, -III, -V, -X et XII) dont la majorité sont surexprimées en présence de molécules pro-inflammatoires telles que l’interleukine-1β (IL-1 β) et le lipopolysaccharide bactérien (LPS). La sPLA2-IIA fut longtemps considérée comme la principale sPLA2 associée à l’inflammation. Toutefois, un nombre grandissant d’études suggère l’implication d’autres isoformes dans la réponse inflammatoire. Étant donné la similarité structurelle des différentes isoformes de sPLA2, la majorité des inhibiteurs présentement disponibles sont non spécifiques et bloquent simultanément plus d’une sPLA2. De ce fait, encore peu de choses sont connues quant au rôle précis de chacune des sPLA2 dans la réponse inflammatoire. Ayant accès à des souris génétiquement modifiées n’exprimant pas la sPLA2-V (sPLA2-V-/-), nous avons donc investigué le rôle spécifique de la sPLA2-V dans le recrutement leucocytaire induit par le LPS, ainsi que sa capacité à moduler l’expression de certaines molécules d’adhérence. Pour ce faire, nous avons utilisé le modèle inflammatoire de la poche d’air sous-cutanée. L’administration de LPS dans la poche d’air de souris contrôles (WT) entraîne un recrutement leucocytaire important. Cet appel de cellules inflammatoires est cependant significativement diminué chez les souris sPLA2-V-/-. De plus, l’expression des molécules d’adhérence VCAM-1 et ICAM-1 est également diminuée chez les souris sPLA2-V-/- comparativement aux souris WT. Nos résultats démontrent donc le rôle important de la sPLA2-V dans le recrutement leucocytaire et l’expression de molécules d’adhérence induits par le LPS, confirmant ainsi l’implication de cette enzyme dans le processus inflammatoire.
Resumo:
Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps. Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac. Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations. Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps. Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins
Resumo:
Alors que le droit nord-américain des sociétés a longtemps adopté une lecture restrictive de l’entreprise en faisant de l’actionnaire son maillon essentiel, le paysage juridique subi à l’heure actuelle de profondes mutations. En dépit d’une intensité différente, l’entreprise canadienne et l’entreprise américaine s’ouvrent, sous l’influence combinée de la jurisprudence et de la doctrine (qui ne font que rejoindre l’histoire), de plus en plus à leur environnement et font une place grandissante au développement durable, à la responsabilité sociale des entreprises et à la stakeholder theory. Cette étude démontre ad fine le rôle essentiel qu’est amené à jouer l’idée de collectivité. Aussi positives que soient les conséquences attachées à cette observation en termes de construction d’un futur viable dans le long terme, celle-ci est source de questionnements et impose de repenser non seulement le dessin des nouvelles frontières de l’entreprise, mais encore la signification du concept de performance.
Resumo:
Le développement axé sur le transport en commun (transit-oriented development ou TOD) est un concept urbanistique souvent proposé comme solution aux problèmes associés à l’étalement urbain. La majorité des recherches sur ce concept sont descriptives ; rares sont les études qui examinent l’impact des projets de TOD sur les comportements en transport. Certains chercheurs proposent d’étudier les raisons qui expliquent la rareté de véritables TOD en Amérique du Nord. Cette approche s’appuie sur l’hypothèse que ce manque d’exemples est le résultat d’une faible demande, ou d’une multiplicité de barrières, quelles soient financière, réglementaire, politique, organisationnelle ou structurelle. Notre étude s’inscrit dans ce courant, afin d’examiner le développement de TOD dans la région métropolitaine de Montréal. L’étude empirique se concentre sur la perspective des promoteurs immobiliers quant à l’ampleur de la demande et des barrières à l’offre de TOD. La méthodologie de notre étude consiste en des entrevues avec les promoteurs immobiliers travaillant dans la banlieue montréalaise. Les résultats montrent que la demande est en croissance pour les produits ayant certaines caractéristiques de TOD, mais que la demande pour des TOD reste faible. Deux barrières principales ressortent de cette étude, soit le manque de terrains et l’offre insuffisante de service de transport en commun. On peut identifier d’autres obstacles majeurs dont le manque d’une définition commune du TOD et une structure de l’industrie de l’industrie mal adaptée à ces formes de développement. L’étude conclue que la réalisation de TOD dans le contexte montréalais requiert que les acteurs gouvernementaux assument un rôle plus proactif et visionnaire.
Resumo:
Le design d'éclairage est une tâche qui est normalement faite manuellement, où les artistes doivent manipuler les paramètres de plusieurs sources de lumière pour obtenir le résultat désiré. Cette tâche est difficile, car elle n'est pas intuitive. Il existe déjà plusieurs systèmes permettant de dessiner directement sur les objets afin de positionner ou modifier des sources de lumière. Malheureusement, ces systèmes ont plusieurs limitations telles qu'ils ne considèrent que l'illumination locale, la caméra est fixe, etc. Dans ces deux cas, ceci représente une limitation par rapport à l'exactitude ou la versatilité de ces systèmes. L'illumination globale est importante, car elle ajoute énormément au réalisme d'une scène en capturant toutes les interréflexions de la lumière sur les surfaces. Ceci implique que les sources de lumière peuvent avoir de l'influence sur des surfaces qui ne sont pas directement exposées. Dans ce mémoire, on se consacre à un sous-problème du design de l'éclairage: la sélection et la manipulation de l'intensité de sources de lumière. Nous présentons deux systèmes permettant de peindre sur des objets dans une scène 3D des intentions de lumière incidente afin de modifier l'illumination de la surface. De ces coups de pinceau, le système trouve automatiquement les sources de lumière qui devront être modifiées et change leur intensité pour effectuer les changements désirés. La nouveauté repose sur la gestion de l'illumination globale, des surfaces transparentes et des milieux participatifs et sur le fait que la caméra n'est pas fixe. On présente également différentes stratégies de sélection de modifications des sources de lumière. Le premier système utilise une carte d'environnement comme représentation intermédiaire de l'environnement autour des objets. Le deuxième système sauvegarde l'information de l'environnement pour chaque sommet de chaque objet.
Resumo:
Bien que plusieurs chercheurs aient analysé l'influence de divers facteurs sur l'intensité des conflits ethniques, il a été constaté que l'identité ethnique elle-même n'a jamais été correctement examinée. Ce phénomène est essentiellement dû à ce que nous croyons être une classification inexacte des groupes ethniques. Nous proposons une nouvelle méthode de catégorisation pour les identités ethniques présentant que la religion, la langue et la race forment les distinctions les plus précises et nous les classifions alors comme les identités ethniques fondamentales. Subséquemment, une étude comparative de ces identités ethniques a été entreprise avec l'utilisation de deux bases de données différentes: l’ensemble de données Battle Deaths qui est associé avec la base de données sur les conflits armés de l’UCDP/PRIO et la base de données Minorities at Risk. Les résultats, dans leur ensemble, ont indiqué que les identités ethniques avec des attachements émotifs plus intenses mènent à une plus grande intensité de conflit. Les conflits ethniques fondamentaux ont démontré une tendance à mener à des conflits plus intenses que les conflits ethniques non-fondamentaux. De plus, la similitude parmi les groupes ethniques tend à affaiblir l'intensité des conflits. En outre, l'étude a également conclu que plus le nombre d'identités ethnique fondamentales impliquées dans un conflit est grand, plus le conflit sera intense. Cependant, les résultats ne pouvaient pas déterminer une différence conséquente parmi l’influence relative des trois identités ethniques fondamentales.