962 resultados para Overlapping Resonances


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le problème inverse en électroencéphalographie (EEG) est la localisation de sources de courant dans le cerveau utilisant les potentiels de surface sur le cuir chevelu générés par ces sources. Une solution inverse implique typiquement de multiples calculs de potentiels de surface sur le cuir chevelu, soit le problème direct en EEG. Pour résoudre le problème direct, des modèles sont requis à la fois pour la configuration de source sous-jacente, soit le modèle de source, et pour les tissues environnants, soit le modèle de la tête. Cette thèse traite deux approches bien distinctes pour la résolution du problème direct et inverse en EEG en utilisant la méthode des éléments de frontières (BEM): l’approche conventionnelle et l’approche réciproque. L’approche conventionnelle pour le problème direct comporte le calcul des potentiels de surface en partant de sources de courant dipolaires. D’un autre côté, l’approche réciproque détermine d’abord le champ électrique aux sites des sources dipolaires quand les électrodes de surfaces sont utilisées pour injecter et retirer un courant unitaire. Le produit scalaire de ce champ électrique avec les sources dipolaires donne ensuite les potentiels de surface. L’approche réciproque promet un nombre d’avantages par rapport à l’approche conventionnelle dont la possibilité d’augmenter la précision des potentiels de surface et de réduire les exigences informatiques pour les solutions inverses. Dans cette thèse, les équations BEM pour les approches conventionnelle et réciproque sont développées en utilisant une formulation courante, la méthode des résidus pondérés. La réalisation numérique des deux approches pour le problème direct est décrite pour un seul modèle de source dipolaire. Un modèle de tête de trois sphères concentriques pour lequel des solutions analytiques sont disponibles est utilisé. Les potentiels de surfaces sont calculés aux centroïdes ou aux sommets des éléments de discrétisation BEM utilisés. La performance des approches conventionnelle et réciproque pour le problème direct est évaluée pour des dipôles radiaux et tangentiels d’excentricité variable et deux valeurs très différentes pour la conductivité du crâne. On détermine ensuite si les avantages potentiels de l’approche réciproquesuggérés par les simulations du problème direct peuvent êtres exploités pour donner des solutions inverses plus précises. Des solutions inverses à un seul dipôle sont obtenues en utilisant la minimisation par méthode du simplexe pour à la fois l’approche conventionnelle et réciproque, chacun avec des versions aux centroïdes et aux sommets. Encore une fois, les simulations numériques sont effectuées sur un modèle à trois sphères concentriques pour des dipôles radiaux et tangentiels d’excentricité variable. La précision des solutions inverses des deux approches est comparée pour les deux conductivités différentes du crâne, et leurs sensibilités relatives aux erreurs de conductivité du crâne et au bruit sont évaluées. Tandis que l’approche conventionnelle aux sommets donne les solutions directes les plus précises pour une conductivité du crâne supposément plus réaliste, les deux approches, conventionnelle et réciproque, produisent de grandes erreurs dans les potentiels du cuir chevelu pour des dipôles très excentriques. Les approches réciproques produisent le moins de variations en précision des solutions directes pour différentes valeurs de conductivité du crâne. En termes de solutions inverses pour un seul dipôle, les approches conventionnelle et réciproque sont de précision semblable. Les erreurs de localisation sont petites, même pour des dipôles très excentriques qui produisent des grandes erreurs dans les potentiels du cuir chevelu, à cause de la nature non linéaire des solutions inverses pour un dipôle. Les deux approches se sont démontrées également robustes aux erreurs de conductivité du crâne quand du bruit est présent. Finalement, un modèle plus réaliste de la tête est obtenu en utilisant des images par resonace magnétique (IRM) à partir desquelles les surfaces du cuir chevelu, du crâne et du cerveau/liquide céphalorachidien (LCR) sont extraites. Les deux approches sont validées sur ce type de modèle en utilisant des véritables potentiels évoqués somatosensoriels enregistrés à la suite de stimulation du nerf médian chez des sujets sains. La précision des solutions inverses pour les approches conventionnelle et réciproque et leurs variantes, en les comparant à des sites anatomiques connus sur IRM, est encore une fois évaluée pour les deux conductivités différentes du crâne. Leurs avantages et inconvénients incluant leurs exigences informatiques sont également évalués. Encore une fois, les approches conventionnelle et réciproque produisent des petites erreurs de position dipolaire. En effet, les erreurs de position pour des solutions inverses à un seul dipôle sont robustes de manière inhérente au manque de précision dans les solutions directes, mais dépendent de l’activité superposée d’autres sources neurales. Contrairement aux attentes, les approches réciproques n’améliorent pas la précision des positions dipolaires comparativement aux approches conventionnelles. Cependant, des exigences informatiques réduites en temps et en espace sont les avantages principaux des approches réciproques. Ce type de localisation est potentiellement utile dans la planification d’interventions neurochirurgicales, par exemple, chez des patients souffrant d’épilepsie focale réfractaire qui ont souvent déjà fait un EEG et IRM.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les simulations ont été implémentées avec le programme Java.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous présentons la notion de placage développée par DaryushShayegan. Le placage lie dans un espace interépistémique deux épistémès (tradition et modernité) hétéromorphes. Puisque les deux épistémès ne peuvent être mises en relation sans réduction, leur chevauchement aboutit à des distorsions. En adoptant une posture d’herméneute, nous mettons à nu les structures du texte qui définissent la notion de placage. Puis, nous nous interrogeons sur les « implications non claires », ces aprioris de l’auteur qui marquent le texte. Ce processus nous amène à définir la notion de paradigme (Kuhn), celle d’épistémè (Foucault) et de saisir quelle utilisation en fait DaryushShayegan dans la construction du placage. Dans la seconde partie, nous discutons la problématique de la hiérarchisation des épistémès. Alors que la position de DaryushShayegan comporte des relents de néo-orientalisme, nous voyons que les approches rhizomique et traditionaliste dissolvent la problématique en question.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction: Les cadres de lectures alternatifs (CLA) sont utilisés par de multiples virus afin de générer plusieurs protéines à partir d'une seule séquence nucléotidique. Les épitopes dits « cryptiques », c’est-à-dire les épitopes dérivés de protéines codées dans des CLAs, ont étés dernièrement l’objet de différentes études portant sur la réponse immunitaire antivirale et les lymphocytes T cytotoxiques. Méthodologie: Afin de vérifier le potentiel immunogène d'épitopes encodés dans des CLAs programmés, trois cassettes ont été construites pour mener à l'expression de trois épitopes bien caractérisés (épitope GAG77–85 du virus de l'immunodéficience humaine de type 1; épitope NS31406-1415 du virus de l'hépatite C; épitope core18-27 du virus de l'hépatite B) à partir de trois cadres de lectures superposés. La première cassette permet une initiation alternative de la traduction, la deuxième comprend deux signaux bipartites en tandem permettant un frameshift ribosomique et la troisième est une cassette contrôle. Ces éléments ont été introduits dans des vecteurs adénoviraux. Les virions générés ont servi à immuniser des souris C57BL/6 transgéniques pour HLA-A*0201 et HLA-DR1. La réponse immunitaire induite une semaine post-immunisation a été mesurée par essai ELISpot IFN . Résultats: Dans le contexte de cassettes vaccinales, les peptides dérivés d'une initiation alternative de traduction et de changement de cadre de lecture ribosomique ribosomal peuvent être exprimés et détectés par le système immunitaire dans un modèle animal. Conclusion: Ces expériences suggèrent la possibilité de développer de nouvelles stratégies vaccinales dans le but de prévenir ou de guérir certaines maladies associées aux infections virales chroniques telles que celles causées par le virus de l’immunodéficience humaine et le virus de l’hépatite C.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Récemment plusieurs récepteurs couplés aux protéines G (RCPGs) ont été caractérisés au niveau des membranes intracellulaires, dont la membrane nucléaire. Notre objectif était de déterminer si les sous-types de récepteurs β-adrénergiques (βAR) et leurs machineries de signalisation étaient fonctionnels et localisés à la membrane nucléaire des cardiomyocytes. Nous avons démontré la présence des β1AR et β3AR, mais pas du β2AR à la membrane nucléaire de myocytes ventriculaires adultes par immunobuvardage, par microscopie confocale, et par des essais fonctionnels. De plus, certains partenaires de signalisation comme les protéines GαS, Gαi, l’adénylate cyclase II, et V/VI y étaient également localisés. Les sous-types de βAR nucléaires étaient fonctionnels puisqu'ils pouvaient lier leurs ligands et activer leurs effecteurs. En utilisant des noyaux isolés, nous avons observé que l'agoniste non-sélectif isoprotérénol (ISO), et que le BRL37344, un ligand sélectif du β3AR, stimulaient l'initiation de la synthèse de l’ARN, contrairement à l'agoniste sélectif du β1AR, le xamotérol. Cette synthèse était abolie par la toxine pertussique (PTX). Cependant, la stimulation des récepteurs nucléaires de type B de l’endothéline (ETB) causaient une réduction de l'initiation de la synthèse d’ARN. Les voies de signalisations impliquées dans la régulation de la synthèse d’ARN par les RCPGs ont ensuite été étudiées en utilisant des noyaux isolés stimulés par des agonistes en présence ou absence de différents inhibiteurs des voies MAP Kinases (proteines kinases activées par mitogènes) et de la voie PI3K/PKB. Les protéines impliquées dans les voies de signalisation de p38, JNK, ERK MAP Kinase et PKB étaient présents dans les noyaux isolés. L'inhibition de PKB par la triciribine, inhibait la synthèse d’ARN. Nous avons ensuite pu mettre en évidence par qPCR que la stimulation par l’ISO entrainait une augmentation du niveau d'ARNr 18S ainsi qu’une diminution de l'expression d’ARNm de NFκB. En contraste, l’ET-1 n’avait aucun effet sur le niveau d’expression de l’ARNr 18S. Nous avons ensuite montré que la stimulation par l’ISO réduisait l’expression de plusieurs gènes impliqués dans l'activation de NFκB, tandis que l’inhibition de ERK1/2 et PKB renversait cet effet. Un microarray global nous a ensuite permis de démontrer que les βARs et les ETRs nucléaires régulaient un grand nombre de gènes distincts. Finalement, les βARs et ETRs nucléaires augmentaient aussi une production de NO de noyaux isolés, ce qui pouvait être inhibée par le LNAME. Ces résultats ont été confirmés dans des cardiomyocytes intacts en utilisant des analogues cagés et perméables d’ISO et de l'ET-1: l'augmentation de NO nucléaire détectée par DAF2-DA, causée par l'ET-1 et l'ISO, pouvait être prévenue par le LNAME. Finalement, l’augmentation de l’initiation de la transcription induite par l'ISO était aussi bloquée par le L-NAME ou par un inbitheur de PKG, le KT5823, suggérant que la voie NO-GC-PKG est impliquée dans la régulation de la transcription par les βAR. En conclusion, les βARs et les ETRs nucléaires utilisent des voies de signalisation différentes et exercent ainsi des effets distincts sur l’expression des gènes cardiaques. Ils représentent donc une avenue intéressante pour le développement de drogues pharmacologiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quel est le champ d’action des Amérindiens dans le contexte politique canadien? Malgré les tentatives de l’État canadien de briser la structure politique traditionnelle des Autochtones en introduisant le système électif et politique du conseil de bande, ceux-ci sont loin d'avoir été des victimes passives. L'étude du leadership interstitiel est la ligne directrice de cette thèse car il est la clé d’une pratique politique « in the cracks » qui confère un pouvoir marginal aux Amérindiens. En s'intéressant aux conditions historiques et sociales de déploiement de l’arène politique en milieu de réserve, il est possible de comprendre la quotidienneté et la contemporanéité de l’exercice du pouvoir au sein d’une population minoritaire fortement politisée. La recherche ethnographique porte sur la politique locale de la communauté algonquine de Kitigan Zibi (Québec). L’analyse des acteurs anishnabeg a montré une variabilité du leadership politique chez les Algonquins et l’existence de différents types de leader malgré l’imposition d’une fonction de chef par la Loi sur les Indiens. Le contrôle des affaires politiques officielles d’une bande par les agents coloniaux, c'est-à-dire les missionnaires et les agents indiens, n’a pas donné lieu à un contrôle total de sa dynamique politique interne et de ses membres. L'enquête de terrain a dévoilé que les diverses manifestations et actions politiques menées par les Anishnabeg s’avèrent être des stratégies du pouvoir dans la marge, une forme quotidienne de résistance face aux nouvelles façons de faire la politique établies par les autorités canadiennes, des ruses et des tactiques employées pour tenter de changer le système formel en remettant en question le pouvoir des Affaires indiennes. La contestation et la résistance ne sont toutefois pas l’unique moteur du leadership et de la politique amérindienne. En fait, le leadership politique chez les Kitigan Zibi Anishnabeg est aussi basé sur diverses représentations (traditionnelles, spirituelles, symboliques) qui ont permis aux Algonquins de préserver une identité politique malgré certaines ruptures et transformations introduites dans leur société par les colonisateurs. Les ambiguïtés, les contradictions et les paradoxes de la quotidienneté politique d’une bande autochtone ne sont pas que le résultat de la rencontre d’un univers politique Autre, mais aussi l’aboutissement de l’évolution et de la reconstruction d’un système sociopolitique traditionnel et de ses dynamiques internes reliées au pouvoir, d’une redéfinition de l’autorité et de la légitimité du politique, de l'essor de leaders nouveau genre pour répondre adéquatement aux exigences politiques de la vie en réserve. La politique de réserve n’est pas une chose concrète mais plutôt une dynamique dans un temps et dans un lieu donné, au chevauchement culturel de diverses traditions politiques et formes d’autorité, au truchement de divers espaces (imposé ou symbolique) et institutions (formelle et informelle). Les Algonquins se renouvellent continuellement politiquement au sein de leur système. Ceci n’est pas un effet de l’acculturation, d’une hybridité ou de la modernité mais relève bien de la tradition. Le rattachement de fonctions et dynamiques traditionnelles à la structure formelle constitue un début de gouvernance « par le bas ». Cette dernière renouvelle de l’intérieur, par l’établissement d’un dialogue, la relation entre les leaders autochtones et les représentants de l’État, ce qui donne aux acteurs locaux une marge de manœuvre. Les Algonquins ont saisi les incompatibilités des deux systèmes – blanc et autochtone – pour définir un nouveau territoire, « in the cracks », qui devient leur domaine d’action. L'analyse de la flexibilité du leadership algonquin, de la vision eurocanadienne du leadership amérindien, de l’usage instrumental des exigences de l’État, des élections et des éligibles contemporains, de l'empowerment des femmes algonquines et du leadership féminin en milieu de réserve, a révélé que le leadership interstitiel est une force politique pour les Kitigan Zibi Anishnabeg. En portant un regard critique sur la politique locale dans le quotidien d'une bande et en incluant les voix autochtones, il est possible d’observer le processus de décolonisation et des formes embryonnaires de pratiques postcoloniales au sein des réserves. Cette recherche a démontré que le chef et les autres leaders sont au cœur de cette dynamique politique dans les marges, de l’essor et de l’émancipation politique de leur bande.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis is concerned with the interaction between literature and abstract thought. More specifically, it studies the epistemological charge of the literary, the type of knowledge that is carried by elements proper to fictional narratives into different disciplines. By concentrating on two different theoretical methods, the creation of thought experiments and the framing of possible worlds, methods which were elaborated and are still used today in spheres as varied as modal logics, analytic philosophy and physics, and by following their reinsertion within literary theory, the research develops the theory that both thought experiments and possible worlds are in fact short narrative stories that inform knowledge through literary means. By using two novels, Abbott’s Flatland and Vonnegut’s The Sirens of Titan, that describe extra-dimensional existence in radically different ways, respectively as a phenomenologically unknowable space and as an outward perspective on time, it becomes clear that literature is constitutive of the way in which worlds, fictive, real or otherwise, are constructed and understood. Thus dimensions, established through extensional analogies as either experimental knowledge or modal possibility for a given world, generate new directions for thought, which can then take part in the inductive/deductive process of scientia. By contrasting the dimensions of narrative with the way that dimensions were historically constituted, the research also establishes that the literary opens up an infinite potential of abstract space-time domains, defined by their specific rules and limits, and that these different experimental folds are themselves partaking in a dimensional process responsible for new forms of understanding. Over against science fiction literary theories of speculation that posit an equation between the fictive and the real, this thesis examines the complex structure of many overlapping possibilities that can organise themselves around larger compossible wholes, thus offering a theory of reading that is both non-mimetic and non-causal. It consequently examines the a dynamic process whereby literature is always reconceived through possibilities actualised by reading while never defining how the reader will ultimately understand the overarching structure. In this context, the thesis argues that a causal story can be construed out of any one interaction with a given narrative—underscoring, for example, the divinatory strength of a particular vision of the future—even as this narrative represents only a fraction of the potential knowledge of any particular literary text. Ultimately, the study concludes by tracing out how novel comprehensions of the literary, framed by the material conditions of their own space and time, endlessly renew themselves through multiple interactions, generating analogies and speculations that facilitate the creation of new knowledge.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essai doctoral présenté à la Faculté des arts et des sciences en vue de l’obtention du grade de doctorat en psychologie clinique (D.Psy.)

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En raison des présentes transformations du marché du travail, le mouvement syndical est à la recherche d’un nouvel équilibre. Dans ce contexte plutôt changeant, réorganisations et flexibilité se négocient en échange d’une protection accrue pour ceux qui demeurent en emploi. Si d’une part, ceci mène à une prolifération de nouvelles formes d’emploi atypiques et de disparités de traitement, d’autre part la constitutionnalisation du droit du travail change le rapport quant à l’universalisme syndical. Nous nous sommes alors interrogée sur les impacts que cela peut avoir sur le devoir syndical de représentation. Prenant cela en considération, nous avons voulu au cours de notre recherche faire la lumière tant sur certains impacts de la négociation de clauses de disparité de traitement dans les milieux de travail syndiqués que sur les défis contemporains du droit du travail et de l’emploi. Cette thèse propre au champ d’études que sont les relations industrielles se distingue des autres recherches dans le même domaine en se concentrant sur l’effet empirique de la mise en œuvre d’une norme, par l’étude de deux cas suggestifs. Plus précisément, notre thèse avait comme principal objectif de répondre à la question suivante : Quels sont les effets sur l’acteur (action) syndical du recours à la norme d’égalité, à la suite la négociation de clauses « orphelin »? Pour y parvenir, nous avons dû reconstituer comment les acteurs syndicaux s’étaient approprié l’espace ouvert par la constitutionnalisation du droit du travail. Nous avons utilisé une méthode qualitative, impliquant une revue de la littérature sociohistorique, théorique et juridique, une analyse de la jurisprudence existant à ce sujet et l’étude de deux cas portant sur la négociation d’une clause « orphelin » le tout représentant soixante entrevues semi-dirigées dans plusieurs casernes et palais de justice. Les connaissances acquises permettent au plan empirique une meilleure compréhension des interactions possibles entre acteurs, institutions et stratégies lors de la mise en œuvre de la norme d’égalité ainsi que des déterminants de l’action (ou de l’inaction) syndicale. Sur le plan pratique, nous espérons que notre thèse puisse guider toute personne ou tout groupe de personnes désirant mettre en œuvre des mesures égalitaires, tant pour éviter certains écueils reliés à ces actions ou réactions suscitées par la mise en œuvre du droit à l’égalité, que pour mesurer l’efficacité des actions entreprises. De surcroît, sur le plan théorique, nous croyons que de mettre à l’épreuve un modèle théorique recoupant stratégies et institutions permettra d’aborder les problèmes à la fois au niveau de l’acteur et au niveau structurel. Les résultats obtenus aident à comprendre en quoi et comment peut se construire l’action syndicale dans certains (2) cas de mise en œuvre de la norme d’égalité. Le choix de différentes stratégies ne peut pas être dissocié des différents contextes économiques, sociaux et juridiques, ni des capacités stratégiques des différents acteurs en cause. Les principales contraintes identifiées ont pu être imputées tant aux structures de l’association syndicale qu’aux différents univers normatifs mobilisés. Les sources de tensions vécues dans les milieux à l’étude ont été rattachées notamment aux perceptions d’injustice et à la méconnaissance des différentes normes juridiques. En conséquence, il faut conclure que pour les associations syndicales (sans se restreindre à celles à l’étude), la question d’iniquité pourrait avoir de graves conséquences et non seulement sur le devoir de représentation. Nous avons spécialement souligné la fragilisation de leurs assises, dans leurs deux pôles d’actions : d’acteur économique (faille dans la capacité d’action traditionnelle) et d’acteur politique (climat hostile au syndicalisme). Nous souhaitons que l’acteur syndical puisse mobiliser, à la lumière des résultats de notre recherche, des arguments concourant à repenser l’action syndicale, que nous croyons être plus pertinente que jamais. Nous croyons également que les différents acteurs du monde du travail pourraient s’approprier certaines de nos recommandations afin de favoriser une citoyenneté au travail plus inclusive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le flou de mouvement de haute qualité est un effet de plus en plus important en rendu interactif. Avec l'augmentation constante en qualité des ressources et en fidélité des scènes vient un désir semblable pour des effets lenticulaires plus détaillés et réalistes. Cependant, même dans le contexte du rendu hors-ligne, le flou de mouvement est souvent approximé à l'aide d'un post-traitement. Les algorithmes de post-traitement pour le flou de mouvement ont fait des pas de géant au niveau de la qualité visuelle, générant des résultats plausibles tout en conservant un niveau de performance interactif. Néanmoins, des artefacts persistent en présence, par exemple, de mouvements superposés ou de motifs de mouvement à très large ou très fine échelle, ainsi qu'en présence de mouvement à la fois linéaire et rotationnel. De plus, des mouvements d'amplitude importante ont tendance à causer des artefacts évidents aux bordures d'objets ou d'image. Ce mémoire présente une technique qui résout ces artefacts avec un échantillonnage plus robuste et un système de filtrage qui échantillonne selon deux directions qui sont dynamiquement et automatiquement sélectionnées pour donner l'image la plus précise possible. Ces modifications entraînent un coût en performance somme toute mineur comparativement aux implantations existantes: nous pouvons générer un flou de mouvement plausible et temporellement cohérent pour plusieurs séquences d'animation complexes, le tout en moins de 2ms à une résolution de 1280 x 720. De plus, notre filtre est conçu pour s'intégrer facilement avec des filtres post-traitement d'anticrénelage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il est bien établi dans la littérature en criminologie que les pairs délinquants peuvent avoir un effet néfaste sur les comportements d’un jeune. L’analyse des caractéristiques de l’entourage social est donc essentielle à une compréhension globale des conduites individuelles. Puisqu’il est impossible pour un jeune, délinquant ou non, de se distancer complètement du monde conventionnel (Sykes et Matza, 1957; Warr 2002), il importe de considérer le chevauchement des relations conventionnelles et délinquantes pour saisir l’ampleur du phénomène de l’influence social. De surcroît, le réseau social des jeunes ne se limite pas à leurs amis, les membres de la famille, les collègues de classe et de travail pouvant aussi avoir une influence sur les comportements. La présente étude propose une analyse de l’entourage social de 237 jeunes âgés de 14 à 24 ans, fréquentant les organismes communautaires au Québec. Les résultats révèlent que: 1) la participation à un délit chez les jeunes en communauté est fréquente, 2) les caractéristiques du réseau social, reflétant l’enchâssement social, ne se trouvent pas révélatrices de la participation à un délit, 3) côtoyer les membres de son réseau social en grande intensité réduit de manière significative le volume de délits de marché commis dans une année, et ce, même en contrôlant la présence de contacts délinquants dans le réseau, 4) la présence de contacts délinquants dans plus d’une sphère relationnelle composant le réseau social permet de créer un index de dispersion de la délinquance reflétant ainsi l’enchâssement criminel des jeunes et finalement 5) plus les contacts délinquants sont dispersés à travers les sphères relationnelles, plus le risque de participation à un délit augmente. Toutefois, la dispersion des contacts délinquants dans le réseau social ne prédit pas la fréquence des délits commis. À des fins d’intervention, connaître la dispersion de la délinquance dans le réseau social peut aider à la prévention des comportements délinquants.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les immunités législatives pour bonne foi sont une composante importante des règles spécifiques s’appliquant à la responsabilité civile des administrations publiques. Apparues dans les années 1940 au Québec, elles visent à insuffler à la responsabilité civile les considérations propres à l’action étatique (difficulté des tâches, pouvoir discrétionnaire, liberté d’action, etc.). Or, la notion principale de ces immunités, la bonne foi, est d’une nature fragile. Tiraillée entre une vision subjective et objective, elle souffre de nombreuses lacunes. Originalement fondée sur l’évaluation de l’état d’esprit d’une personne, la bonne foi reproduit dorénavant le concept de faute lourde présent en responsabilité civile. Il en résulte un système qui crée de la confusion sur l’état mental nécessaire pour entrainer la responsabilité d’une administration publique. Au surplus, le régime de la bonne foi est variable et change selon les fonctions exercées par les administrations publiques. Ces attributs mettent en exergue le peu d’utilité de cette notion : la bonne foi dédouble plusieurs éléments déjà présents en responsabilité civile québécoise et partant de là, affaiblit sa place comme règle particulière applicable aux administrations publiques. Bref, par son caractère adaptable, la bonne foi est un calque de la responsabilité civile québécoise et son faible apport embrouille le régime de cette dernière.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’organisation cellulaire repose sur une distribution organisée des macromolécules dans la cellule. Deux ARNm, cen et ik2, montrent une colocalisation parfaite aux centrosomes. Ces deux gènes font partie du même locus sur le chromosome 2L de Drosophila melanogaster et leur région 3’ non traduite (3’UTR) se chevauchent. Dans le mutant Cen, le transport de Ik2 est perturbé, mais dans le mutant Ik2, la localisation de cen n’est aucunement affectée. Ces résultats suggèrent que cen est le régulateur principal de la co-localisation de cen et ik2 aux centrosomes et que cette co-localisation se produit par un mécanisme impliquant la région complémentaire au niveau du 3’UTR des deux transcrits. La localisation de cen au niveau des centrosomes dans les cellules épithéliales de l’embryon est conservée dans différentes espèces de Drosophile : D. melanogater, D. simulans, D. virilis et D. mojavensis. Cependant, la localisation de ik2 n’est pas conservée dans D. virilis et D. mojavensis, deux espèces dont les gènes cen et ik2 sont dissociés dans le génome. Ces résultats suggèrent que la proximité de Cen et Ik2 dans le génome est importante afin d’avoir un événement de co-localisation de ces deux transcrits. J’ai généré différentes lignées de mouches transgéniques dans lesquelles un transgène contenant la séquence GFP fusionnée à différentes partie de Cen (partie codante, 3’UTR, Cod+3’UTR) qui sont sous le contrôle du promoteur UAS et qui sont gal4 inductibles. La région codante de l’ARNm cen était suffisante pour avoir un ciblage précis du transcrit aux centrosomes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Connaître le sexe d’un oiseau est important pour divers domaines notamment pour les vétérinaires, les écologistes ainsi que pour les éleveurs d’oiseaux qui veulent former des couples qui serviront à la reproduction. Plusieurs espèces d’oiseaux, juvéniles et adultes, n’ont pas de dimorphisme sexuel. L’utilisation de l’ADN est une façon rapide de déterminer le sexe à partir d’un échantillon de sang, de muscle, de plumes ou de fèces. Par contre, la méthode devrait être validée pour chaque espèce et idéalement, standardisée. Le premier objectif de cette étude est de développer une méthode de sexage par séquençage des oiseaux à partir des séquences du gène CHD, en utilisant les oiseaux de proie et les perroquets vus en clinique au Québec. Un deuxième objectif est de faire l’identification de l’espèce à sexer, à partir du gène mitochondrial COX-1 et aussi à partir des séquences CHD-Z et CHD-W, utilisés pour le sexage. Un troisième objectif est d’évaluer les séquences sorties (CHD-Z, CHD-W et COX-1) en vue d’une étude phylogénique. Une extraction d’ADN a été effectuée chez 27 espèces de perroquets, 34 espèces d’oiseaux de proie, une corneille (Corvus brachyrhynchos) et un poulet (Gallus gallus). Une amplification par PCR a été exécutée pour les exons partiels 23 et 24 du gène CHD. Le séquençage de cet amplicon permettait de savoir s’il s’agissait d’un mâle (séquence simple CHD-Z) ou d’une femelle (séquences CHD-Z et CHD-W qui se chevauchent). Afin d’avoir des séquences CHD-W distinctes, un sous-clonage a été fait chez les femelles de chaque espèce. De cette manière, les séquences partielles du gène CHD, Z et W, ont été trouvées pour les espèces échantillonnées. Une étude phylogénique a été effectuée avec les séquences de COX-1, CHD-Z et CHD-W grâce au site « Clustal-Omega ». La méthode de sexage des oiseaux par séquençage du gène CHD est standard et efficace. Le gène COX-1 permet une meilleure identification des espèces parentes et le gène CHD-Z est le plus utile pour étudier la phylogénie profonde.