92 resultados para implies


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La question de la propriété de l’information est reformulée en tenant compte de la problématique de l’espionnage économique, pratique déloyale ayant pour objet prioritaire l’accès à l’information privée d’un concurrent. L’atteinte aux intérêts légitimes d’un concurrent résulte du seul transfert de connaissance et peut donc être théoriquement indépendante d’une éventuelle contrefaçon ou d’un acte de parasitisme. C’est dans la perspective de cet accès illégitime à la seule information d’un concurrent qu’est ici envisagée la propriété de l’information per se. À l’heure actuelle, l’existence d’une telle propriété de l’information n’est pas démontrée en droit, l’information n’étant qu’une « chose » et non un « bien ». Mais, en reconnaissant que l’information peut être volée indépendamment de tout support, le droit pénal semble admettre indirectement cette propriété. De même, une jurisprudence ancienne relative à la concurrence déloyale protège celui qui ne peut se prévaloir d’un droit privatif, ce qui implique une « réservation » juridique de l’information, forme de « quasi-propriété ». Cela tend à démontrer que la propriété de l’information est juridiquement concevable. Cependant, les débats doctrinaux se sont rarement orientés vers la question de la réparation, essentielle en matière d’espionnage économique. Dans cette perspective, la reconnaissance d’une propriété de l’information est en réalité très limitée compte tenu du préjudice pouvant résulter de la perte d’exclusivité de l’information, préjudice pouvant être bien supérieur à la valeur de l’information elle-même. Plutôt que de reconnaître un droit de propriété sur l’information, la solution serait peut-être d’accorder à l’entreprise un droit subjectif à la protection de ses informations confidentielles, droit protégeant civilement contre la seule appréhension illégitime de telles informations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'analyse en composantes indépendantes (ACI) est une méthode d'analyse statistique qui consiste à exprimer les données observées (mélanges de sources) en une transformation linéaire de variables latentes (sources) supposées non gaussiennes et mutuellement indépendantes. Dans certaines applications, on suppose que les mélanges de sources peuvent être groupés de façon à ce que ceux appartenant au même groupe soient fonction des mêmes sources. Ceci implique que les coefficients de chacune des colonnes de la matrice de mélange peuvent être regroupés selon ces mêmes groupes et que tous les coefficients de certains de ces groupes soient nuls. En d'autres mots, on suppose que la matrice de mélange est éparse par groupe. Cette hypothèse facilite l'interprétation et améliore la précision du modèle d'ACI. Dans cette optique, nous proposons de résoudre le problème d'ACI avec une matrice de mélange éparse par groupe à l'aide d'une méthode basée sur le LASSO par groupe adaptatif, lequel pénalise la norme 1 des groupes de coefficients avec des poids adaptatifs. Dans ce mémoire, nous soulignons l'utilité de notre méthode lors d'applications en imagerie cérébrale, plus précisément en imagerie par résonance magnétique. Lors de simulations, nous illustrons par un exemple l'efficacité de notre méthode à réduire vers zéro les groupes de coefficients non-significatifs au sein de la matrice de mélange. Nous montrons aussi que la précision de la méthode proposée est supérieure à celle de l'estimateur du maximum de la vraisemblance pénalisée par le LASSO adaptatif dans le cas où la matrice de mélange est éparse par groupe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

En Grande-Bretagne et en Amérique du Nord, la police est une institution publique qui suscite de nombreux travaux académiques. En France, elle est perçue comme un objet sale jusqu’aux travaux de Montjardet. En Suisse, la police est le reflet de la structure fédérale du pays. A travers un cadre réglementaire et légal, chaque canton a organisé sa police. Ainsi, le canton de Vaud s’est doté d’une police cantonale et de polices municipales dont le fonctionnement se fonde sur la proximité. Seules la police cantonale et celle de Lausanne disposent d’une compétence maximale. Bien que la police de proximité soit bien documentée au niveau légal, il n’existe pas de recherche compréhensive sur le fonctionnement de cet ensemble de principes policiers. Ce manque de connaissance pratique est problématique car le canton a entrepris une réforme policière qui est entrée en vigueur au 1er Janvier 2012. Dans ses pratiques liées à l’information, la police de proximité semble s’inspirer de deux modèles incompatibles que sont la police de communauté et l’intelligence led policing. C’est pourquoi, dans cette recherche, nous souhaitons comprendre comment les modèles théoriques trouvent à s’appliquer dans la pratique de la police de proximité. Nous avons opté pour une démarche qualitative semi-dirigée en réalisant 23 entretiens avec des policiers vaudois. L’analyse thématique a été réalisée à l’aide du logiciel Atlas Ti. Trois résultats ont retenu notre attention. Tout d’abord, notre analyse a permis de clarifier la notion de proximité par rapport à celle de communauté tout en tenant compte des particularismes locaux de redevabilité. Ensuite, nous avons identifié les divers circuits de l’information et mis en évidence les divergences dans le vocabulaire lié à l’analyse criminelle. Enfin, il apparaît que la police vaudoise se positionne comme une interface qui coordonne les partenaires susceptibles de résoudre les problèmes de la population.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Single-basined preferences generalize single-dipped preferences by allowing for multiple worst elements. These preferences have played an important role in areas such as voting, strategy-proofness and matching problems. We examine the notion of single-basinedness in a choice-theoretic setting. In conjunction with independence of irrelevant alternatives, single-basined choice implies a structure that conforms to the motivation underlying our definition. We also establish the consequenes of requiring single-basined choice correspondences to be upper semicontinuous, and of the revealed preference relation to be Suzumura consistent. Journal of Economic Literature.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’école et les programmes de formation à l’enseignement ont connu beaucoup de transformations au cours des dernières décennies. Ces changements sont notamment associés au mouvement de la professionnalisation de l’enseignement qui met l’accent, entre autres, sur l’importance de développer une réflexivité critique chez les futurs enseignants à travers des cours théoriques et des stages. Dans cette optique, le Ministère de l’éducation, des loisirs et du sport (MELS) et les institutions universitaires ont la responsabilité d’interpréter les caractéristiques propres à une pensée critique et de les intégrer à la formation initiale des enseignants. Cependant, bien que le concept de pensée critique ait fait l’objet de nombreuses recherches théoriques et empiriques depuis les travaux sur la pensée réfléchie de Dewey, il n’existe toujours pas une définition consensuelle du concept. Néanmoins les philosophes « classiques » (Ennis, McPeck, Paul, Siegel, Lipman) s’entendent pour soutenir qu’une pensée critique présuppose un doute méthodique qui conduit à la mobilisation d’habiletés et d’attitudes intellectuelles complexes, reliées à l’évaluation des faits et des situations. De leur côté, des épistémologues issus du champ de la psychologie développementale (King & Kitchener, Kuhn, Perry, et d’autres) ont élaboré des modèles de développement d’une pensée critique basés sur l’identification de stades. L’un des plus récents modèles est issu des sciences de l’éducation (Daniel et al.) et sera utilisé comme grille pour analyser nos données. Il présuppose quatre modes de pensée (logique, métacognitif, créatif et responsable) et leur complexification à partir de trois perspectives épistémologiques (égocentrisme, relativisme et intersubjectivité). La présente étude, de nature qualitative, cherche à d’identifier la réflexivité (simple ou critique) visée par les textes officiels du MELS, stimulée par l’Université de Montréal (UdeM) dans le cadre de la formation initiale des étudiants inscrits en Éducation physique et à la santé (ÉPS) et manifestée par ces étudiants en fin de formation. Pour ce faire, nous avons eu recours à une analyse de contenu, et à une analyse basée sur le modèle développemental de Daniel et ses collègues. Ces analyses ont été conduites sur le référentiel de compétences du MELS, sur les indicateurs de compétences et les consignes de rédaction des rapports synthèses de l’UdeM, ainsi que sur des verbatim d’entrevues individuelles et de groupe et sur les rapports synthèses des participants (au nombre de neuf). Les résultats d’analyse du référentiel de compétences et des indicateurs de compétences montrent que les réflexivités visée et stimulée sont de l’ordre d’une pensée réfléchie mais pas nécessairement d’une pensée critique. Parallèlement, la réflexivité manifestée par les stagiaires lors des entrevues ainsi que dans leurs rapports synthèse s’est révélée être de l’ordre d’une pensée réfléchie pas nécessairement critique même si des manifestations d’une pensée critique ont occasionnellement pu être observées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Il existe plusieurs théories du contrôle moteur, chacune présumant qu’une différente variable du mouvement est réglée par le cortex moteur. On trouve parmi elles la théorie du modèle interne qui a émis l’hypothèse que le cortex moteur programme la trajectoire du mouvement et l’activité électromyographique (EMG) d’une action motrice. Une autre, appelée l’hypothèse du point d’équilibre, suggère que le cortex moteur établisse et rétablisse des seuils spatiaux; les positions des segments du corps auxquelles les muscles et les réflexes commencent à s’activer. Selon ce dernier, les paramètres du mouvement sont dérivés sans pré-programmation, en fonction de la différence entre la position actuelle et la position seuil des segments du corps. Pour examiner de plus près ces deux théories, nous avons examiné l’effet d’un changement volontaire de l’angle du coude sur les influences cortico-spinales chez des sujets sains en employant la stimulation magnétique transcrânienne (TMS) par-dessus le site du cortex moteur projetant aux motoneurones des muscles du coude. L’état de cette aire du cerveau a été évalué à un angle de flexion du coude activement établi par les sujets, ainsi qu’à un angle d’extension, représentant un déplacement dans le plan horizontal de 100°. L’EMG de deux fléchisseurs du coude (le biceps et le muscle brachio-radial) et de deux extenseurs (les chefs médial et latéral du triceps) a été enregistrée. L’état d’excitabilité des motoneurones peut influer sur les amplitudes des potentiels évoqués moteurs (MEPs) élicitées par la TMS. Deux techniques ont été entreprises dans le but de réduire l’effet de cette variable. La première était une perturbation mécanique qui raccourcissait les muscles à l'étude, produisant ainsi une période de silence EMG. La TMS a été envoyée avec un retard après la perturbation qui entraînait la production du MEP pendant la période de silence. La deuxième technique avait également le but d’équilibrer l’EMG des muscles aux deux angles du coude. Des forces assistantes ont été appliquées au bras par un moteur externe afin de compenser les forces produites par les muscles lorsqu’ils étaient actifs comme agonistes d’un mouvement. Les résultats des deux séries étaient analogues. Un muscle était facilité quand il prenait le rôle d’agoniste d’un mouvement, de manière à ce que les MEPs observés dans le biceps fussent de plus grandes amplitudes quand le coude était à la position de flexion, et ceux obtenus des deux extenseurs étaient plus grands à l’angle d’extension. Les MEPs examinés dans le muscle brachio-radial n'étaient pas significativement différents aux deux emplacements de l’articulation. Ces résultats démontrent que les influences cortico-spinales et l’activité EMG peuvent être dissociées, ce qui permet de conclure que la voie cortico-spinale ne programme pas l’EMG à être générée par les muscles. Ils suggèrent aussi que le système cortico-spinal établit les seuils spatiaux d’activation des muscles lorsqu’un segment se déplace d’une position à une autre. Cette idée suggère que des déficiences dans le contrôle des seuils spatiaux soient à la base de certains troubles moteurs d’origines neurologiques tels que l’hypotonie et la spasticité.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Attendre un enfant est généralement un événement heureux pour un couple. Toutefois, lorsqu’une hospitalisation de la femme survient en raison d’une grossesse à risque élevé, l’expérience des futurs parents peut se transformer en véritable cauchemar. Jusqu’à maintenant, les savoirs disponibles suggèrent que cet événement imprévu ait de nombreux impacts sur les futurs parents. Néanmoins, ce sujet n’a été abordé que selon une perspective maternelle ou paternelle, sans s’intéresser au caractère systémique de la situation. Cette étude qualitative de cas multiples propose d’explorer l’expérience de couples vivant l’hospitalisation de la femme en raison d’une grossesse à risque élevé, dans une perspective systémique et constructiviste. Des entrevues semi-dirigées ont été réalisées auprès de 7 couples dont la femme était, au moment de l’entrevue, hospitalisée en raison d’une grossesse à risque élevé. L’analyse qualitative des données s’est inspirée de la thématisation et a tenu compte des cadres théoriques et épistémologique choisis, étant respectivement l’approche systémique familiale de Wright et Leahey (2013) et le constructivisme. Les résultats suggèrent que l’hospitalisation est marquée par l’intensité des émotions ressenties. Les futurs parents ressentent presque constamment des sentiments d’inquiétude, d’incertitude et de solitude. Il est toutefois intéressant de constater que le couple lui-même subit des changements au cours de l’hospitalisation. En ce sens, cet événement requiert une immense réorganisation, laquelle touche plusieurs systèmes gravitant autour du système conjugal. Enfin, afin de faire face à l’intensité et à l’imprévisibilité de la situation, les couples sont amenés à solliciter un soutien externe et à puiser dans leurs propres ressources internes. En lien avec les cadres théoriques et épistémologiques choisis, ces résultats conviennent de la nécessité d’adopter une vision systémique et contextuelle afin de développer des soins infirmiers concordants avec l’expérience des couples. Cela ramène à la nécessité de réaliser d’autres études afin de perfectionner la compréhension de l’expérience. Certaines pistes d’interventions infirmières sont néanmoins énoncées, afin d’amener les infirmières à considérer la situation du point de vue de l’expérience conjugale, dont les défis de réorganisations extérieurs et des relations conjugales. Enfin, il est proposé que l’infirmière puisse agir afin de renforcer la capacité des couples à composer avec les conséquences de l’hospitalisation anténatale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les silhouettes ambiguës, comme celle du lapin/canard (Jastrow, 1899), ont été étudiées selon plusieurs approches. Toutefois, les figures prises en exemples dans la large majorité des études sont généralement les mêmes. Cette redondance des images ambiguës utilisées pousse à croire qu'elles sont peut-être assez rares. Certaines observations anecdotiques suggèrent cependant qu’elles seraient au contraire relativement fréquentes. C'est ce que cherche à déterminer cette expérience. Nous avons utilisé des modèles tridimensionnels d'animaux projetés de façon aléatoire afin d'en extraire les silhouettes dont la complexité périmétrique a ensuite été modifiée par lissage. Treize sujets ont dû indiquer ce qu'ils percevaient dans l'image. Nous démontrons qu’une silhouette est classée en moyenne dans 1.9079 catégories de base. Nous avons également démontré qu’une diminution de la complexité périmétrique rend d’abord une silhouette plus ambiguë pour éventuellement atteindre un sommet (équivalent à environ six fois la complexité périmétrique d’un disque) à la suite duquel l’ambiguïté chute.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les familles d’accueil sont une composante essentielle du système de protection de l’enfance. Or, le réseau québécois est confronté à certaines difficultés de recrutement et de rétention. De plus, deux importants chantiers modifieront la pratique entourant l’accueil familial : le déploiement de l’approche S’occuper des Enfants (SOCEN) et la mise en application de la Loi sur la représentation des ressources (LRR), qui engendre une professionnalisation du rôle de famille d’accueil. Il importe donc de s’intéresser à l’expérience des parents d’accueil, afin d’identifier certaines pistes pour mieux faire face à ces défis et transformations. L’objectif de ce mémoire est de mieux comprendre les facteurs qui influencent la satisfaction des parents d’accueil dans leur rôle. Un sous-objectif est de comprendre si l’approche SOCEN a une influence sur cette satisfaction. Pour ce faire, des entrevues individuelles semi-directives ont été effectuées auprès de treize parents d’accueil d’une région du Québec qui implante l’approche SOCEN depuis 2003. Une analyse de contenu thématique concernant leur satisfaction, leur motivation et les défis qu’ils rencontrent a été effectuée. Les résultats montrent que selon les parents d’accueil, la satisfaction dans leur rôle s’incarne dans trois dimensions distinctes: la dimension parentale, la dimension professionnelle et la dimension personnelle. Les facteurs qui influencent leur satisfaction sont : les enjeux de parentalité en contexte de placement à long terme, l’impact du placement sur la famille du parent d’accueil et les enjeux de reconnaissance. Il ressort également que les principes et les outils proposés par l’approche SOCEN pourraient agir sur les facteurs évoqués et ainsi augmenter la satisfaction des parents d’accueil dans leur rôle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Une femme enceinte sent rapidement les attentes sociales que soulève son état et réalise promptement que des lignes directrices encadrent et régissent son expérience de la maternité. Lorsqu’il est question de toxicomanie et de criminalité, la réprobation sociale est vive puisqu’il est attendu qu’une mère n’adopte pas de tels comportements à défaut de quoi, elle sera sévèrement critiquée ou jugée comme inapte à exercer son rôle de mère. Les écrits scientifiques portant sur la maternité des femmes toxicomanes dressent un portrait plutôt positif de la maternité, tablant sur sa capacité à constituer un agent de changement dans leurs trajectoires de consommation en raison des responsabilités que la maternité incombe, mais également, par le rôle socialement attendu des femmes qui deviennent mères. Toutefois, bien que beaucoup de femmes toxicomanes judiciarisées soient des mères, peu de recherches ont été menées auprès des femmes toxicomanes judiciarisées et moins d’attention a été portée à l’effet que peut avoir la maternité sur leur propre trajectoire de consommation et de criminalité. Cette thèse qualitative a pour objet d’expliquer le rôle de la maternité dans la trajectoire de consommation et de criminalité de mères toxicomanes judiciarisées. De façon plus spécifique, il s’agit de saisir le sens que prend la maternité pour les femmes toxicomanes judiciarisées et de sonder la façon dont elles s’expliquent leur rôle de mère. La thèse vise également à comprendre, selon leur point de vue, quels sont les liens entre la maternité et leur toxicomanie et enfin, à expliquer leurs perceptions quant aux influences entre la maternité et la criminalité. Trente-huit entrevues semi-dirigées ont été menées auprès de mères détenues ainsi qu’auprès de mères recevant des services externes d’un programme de traitement dans un centre de réadaptation en toxicomanie. Une analyse phénoménologique a permis de saisir la complexité des liens entre la maternité, la toxicomanie et la criminalité des femmes rencontrées ainsi que le poids des attentes sociales sur leur expérience de la maternité. Deux conceptions de la maternité émergent du corpus : une conception idéalisée, où la maternité est vue comme valorisante, épanouissante et conforme aux attentes sociales, ainsi un modèle de «bonne mère déviante», modèle plus ajusté à leur réalité. Ces deux conceptions colorent la façon dont ces mères s’expliquent leur toxicomanie, la possibilité d’être une mère toxicomane ainsi que la perception qu’elles ont de leurs activités criminelles. Un processus de négociation de l’identité maternelle des mères a également été identifié. Au fil d’événements qui fragiliseront l’identité maternelle, une grossesse, la perte de la garde des enfants et une période d’incarcération, ces mères devront à chaque fois profiter du moment de déséquilibre pour susciter une réflexion sur leur style de vie déviant et devront se positionner quant aux deux conceptions de la maternité afin d’arriver à maintenir une identité de mère positive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cancer de la prostate (CaP) est le plus diagnostiqué chez les hommes au Canada et représente le troisième cancer le plus meurtrier au sein de cette population. Malgré l’efficacité des traitements de première ligne, de nombreux patients finiront par développer une résistance et, le cas échéant, verront leur CaP progresser vers une forme plus agressive. Plusieurs paramètres, essentiellement cliniques, permettent de prédire la progression du CaP mais leur sensibilité, encore limitée, implique la nécessité de nouveaux biomarqueurs afin de combler cette lacune. Dans cette optique nous nous intéressons au facteur de transcription NF-κB. Des études réalisées au laboratoire et ailleurs, associent RelA(p65) à un potentiel clinique dans le CaP, soulignant ainsi l’importance de la voie classique NF-κB. L’implication de la voie alternative NF-κB dans la progression du CaP a aussi été suggérée dans une de nos études illustrant la corrélation entre la distribution nucléaire de RelB et le score de Gleason. Alors que la voie classique est largement documentée et son implication dans la progression du CaP établie, la voie alternative, elle, reste à explorer. La présente thèse vise à clarifier l’implication de la voie alternative NF-κB dans le CaP et répond à deux objectifs fixés dans ce but. Le premier objectif fut d’évaluer l’impact de l'activation de la voie alternative NF-κB sur la biologie des cellules cancéreuses prostatiques. L’étude de la surexpression de RelB a souligné les effets de la voie alternative NF-κB sur la prolifération et l'autophagie. Étant ainsi impliquée tant dans la croissance tumorale que dans un processus de plus en plus associée à la progression tumorale, quoique potentiellement létal pour les cellules cancéreuses, son impact sur la tumorigénèse du CaP reste encore difficile à définir. Il n'existe, à ce jour, aucune étude permettant de comparer le potentiel clinique des voies classique et alternative NF-κB. Le second objectif de ce projet fut donc l'analyse conjointe de RelA(p65) et RelB au sein de mêmes tissus de patients atteints de CaP afin de déterminer l'importance clinique des deux signalisations NF-κB, l'une par rapport à l'autre. Le marquage immunofluorescent de RelA(p65) et RelB en a permis l'analyse quantitative et objective par un logiciel d'imagerie. Nos travaux ont confirmé le potentiel clinique associé à RelA(p65). La variable RelA(p65)/RelB s’est, elle, avérée moins informative que RelA(p65). Par contre, aucune corrélation entre RelB et les paramètres cliniques inclus dans l'étude n’est ressortie. En définitive, mon projet de thèse aura permis de préciser l'implication de la voie alternative NF-κB sur la biologie du CaP. Son impact sur la croissance des cellules cancéreuses prostatiques ainsi que sur l'autophagie, dénote l’ambivalence de la voie alternative NF-κB face à la tumorigénèse du CaP. L’étude exhaustive de la signalisation NF-κB souligne davantage l'importance de la voie classique dont l’intérêt clinique est principalement associé au statut de RelA(p65). Ainsi, bien que RelB n’affiche aucun potentiel en tant que biomarqueur exploitable en clinique, l’analyse de l’intervention de la voie alternative NF-κB sur la biologie des cellules cancéreuses prostatiques reste d’intérêt pour la compréhension de son rôle exact dans la progression du CaP.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire engage une réflexion sur la plénitude dans la pensée de Charles Taylor, et plus particulièrement dans son maître ouvrage L’âge séculier. L’idée de plénitude y est intimement liée à celles de modernité, de croyance et d’incroyance. C’est que, pour Taylor, comprendre la modernité implique de saisir le changement qui nous a permis de passer d’un contexte dans lequel il était impensable de ne pas croire en Dieu à un contexte dans lequel la croyance n’est qu’une option. Ce changement tourne essentiellement autour d’une modification de notre représentation de la plénitude. Qu’est-ce que la plénitude pour notre auteur ? Elle est la condition à laquelle tend tout homme et implique une réponse, tacite ou pas, à la question du sens de la vie. Mon principal objectif sera de saisir la nature de la plénitude telle que la conçoit Taylor. Je montrerai que la double définition de la plénitude dans L’âge séculier génère une certaine tension entre la plénitude conçue comme un événement unique et comme une aspiration constante vers le sens (qui correspond aussi au bien). Je proposerai une résolution de cette tension à travers une compréhension de la plénitude qui vise à en restituer l’unité fondamentale, l’idée étant de saisir la plénitude comme événement unique et comme aspiration constante au sens, non pas séparément, mais dans leur relation. Ce modèle d’interprétation, fourni par l’idée d’éternité, que l’on retrouve aussi dans L’âge séculier, me conduira à établir une coïncidence entre la poursuite de la plénitude et le désir d’éternité. Tous deux ont le même but fondamental : à travers l’inscription de moments qualitativement privilégiés et uniques, constitutifs de la vie, dans la totalité de cette vie, ils visent à en dévoiler le sens et à lui conférer une certaine pérennité. À plus forte raison, ce que j’entends montrer à travers la coïncidence entre plénitude et éternité, c’est que la quête de plénitude n’engage pas nécessairement la perspective religieuse déployée dans L’âge séculier, mais plutôt une forme de transcendance que l’on pourrait qualifier de « temporelle ».

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’azote est l’élément le plus abondant dans l’atmosphère terrestre avec un pourcentage atteignant 78 %. Composant essentiel pour la biosynthèse des matériels organiques cellulaires, il est inutilisable sous sa forme diatomique (N2) très stable par la plupart des organismes. Seules les bactéries dites diazotrophiques comme Rhodobacter capsulatus sont capables de fixer l’azote moléculaire N2 par le biais de la synthèse d’une enzyme, la nitrogénase. Cette dernière catalyse la réduction du N2 en ammonium (NH4) qui peut alors être assimilé par d’autres organismes. La synthèse et l’activité de la nitrogénase consomment beaucoup d’énergie ce qui implique une régulation rigoureuse et son inhibition tant qu’une quantité suffisante d’ammonium est disponible. Parmi les protéines impliquées dans cette régulation, la protéine d’intérêt AmtB est un transporteur membranaire responsable de la perception et le transport de l’ammonium. Chez R. capsulatus, il a été démontré que suite à l’addition de l’ammonium, l’AmtB inhibe de façon réversible (switch off/switch on) l’activité de la nitrogénase en séquestrant la protéine PII GlnK accompagnée de l’ajout d’un groupement ADP ribose sur la sous unités Fe de l’enzyme par DraT. De plus, la formation de ce complexe à lui seul ne serait pas suffisant pour cette inactivation, ce qui suggère la séquestration d’une troisième protéine, DraG, afin d’inhiber son action qui consiste à enlever l’ADP ribose de la nitrogénase et donc sa réactivation. Afin de mieux comprendre le fonctionnement de l’AmtB dans la régulation et le transport de l’ammonium à un niveau moléculaire et par la même occasion la fixation de l’azote, le premier volet de ce mémoire a été d’introduire une mutation ponctuelle par mutagénèse dirigée au niveau du résidu conservé W237 de l’AmtB. La production d’hydrogène est un autre aspect longtemps étudié chez R. capsulatus. Cette bactérie est capable de produire de l’hydrogène à partir de composés organiques par photofermentation suite à l’intervention exclusive de la nitrogénase. Plusieurs études ont été entreprises afin d’améliorer la production d’hydrogène. Certaines d’entre elles se sont intéressées à déterminer les conditions optimales qui confèrent une production maximale de gaz tandis que d’autres s’intéressent au fonctionnement de la bactérie elle même. Ainsi, le fait que la bioproduction de H2 par fermentation soit catalysée par la nitrogénase cela implique la régulation de l’activité de cette dernière par différents mécanismes dont le switch off par ADP ribosylation de l’enzyme. De ce fait, un mutant de R. capsulatus dépourvu d’AmtB (DG9) a été étudié dans la deuxième partie de cette thèse en termes d’activité de la nitrogénase, de sa modification par ADP ribosylation avec la détection des deux protéines GlnK et DraG qui interviennent dans cette régulation pour connaitre l’influence de différents acides aminés sur la régulation de la nitrogénase et pour l‘utilisation future de cette souche dans la production d’H2 car R. capsulatus produit de l’hydrogène par photofermentation grâce à cette enzyme. Les résultats obtenus ont révélé une activité de la nitrogénase continue et ininterrompue lorsque l’AmtB est absent avec une activité maximale quand la proline est utilisée comme source d’azote durant la culture bactérienne ce qui implique donc que l’abolition de l’activité de cette protéine entraine une production continue d’H2 chez R. capsulatus lorsque la proline est utilisée comme source d’azote lors de la culture bactérienne. Par ailleurs, avec des Western blots on a pu déterminer l’absence de régulation par ADP ribosylation ainsi que les expressions respectives de GlnK et DraG inchangées entre R. capsulatus sauvage et muté. En conclusion, la nitrogénase n’est pas modifiée et inhibée lorsque l’amtB est muté ce qui fait de la souche R. capsulatus DG9 un candidat idéal pour la production de biohydrogène en particulier lorsque du glucose et de la proline sont respectivement utilisés comme source de carbone et d'azote pour la croissance.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Avec la mise en place dans les dernières années d'une grappe d'ordinateurs (CALYS) dédiés aux calculs de modèles stellaires pour notre groupe de recherche, il nous est désormais possible d'exploiter à leur plein potentiel les modèles d'atmosphères hors équilibre thermodynamique local (HETL) en y incluant des éléments métalliques. Ce type de modèles, plutôt exigeant en temps de calcul, est toutefois essentiel pour analyser correctement les spectres d'étoiles chaudes comme les sous-naines de type O (sdO). Les travaux effectués dans le cadre de cette thèse ont comme point commun l'utilisation de tels modèles d'atmosphères pour faire l'analyse spectroscopique d'étoiles sous-naines chaudes dans des contextes variés. Le coeur de cette thèse porte sur Bd+28 4211, une étoile standard de type sdO très chaude, dans laquelle le problème des raies de Balmer, qui empêche de reproduire ces dernières avec une unique, et réaliste, combinaison de paramètres atmosphériques, est bien présent. Dans un premier temps nous présentons une analyse approfondie de son spectre ultraviolet (UV). Cela nous permet de déterminer les abondances de métaux dans l'atmosphère de l'étoile et de contraindre sa température effective et sa gravité de surface. Par la suite, ces résultats servent de point de départ à l'analyse du spectre optique de l'étoile, dans lequel le problème des raies de Balmer se fait sentir. Cette analyse nous permet de conclure que l'inclusion des abondances métalliques propres à l'étoile dans les modèles d'atmosphères HETL n'est pas suffisant pour surmonter le problème des raies de Balmer. Toutefois, en y incluant des abondances dix fois solaires, nous arrivons à reproduire correctement les raies de Balmer et d'hélium présentes dans les spectres visibles lors d'un ajustement de paramètres. De plus, les paramètres résultants concordent avec ceux indiqués par le spectre UV. Nous concluons que des sources d'opacité encore inconnues ou mal modélisées sont à la source de ce problème endémique aux étoiles chaudes. Par la suite nous faisons une étude spectroscopique de Feige 48, une étoile de type sdB pulsante particulièrement importante. Nous arrivons à reproduire très bien le spectre visible de cette étoile, incluant les nombreuses raies métalliques qui s'y trouvent. Les paramètres fondamentaux obtenus pour Feige 48 corroborent ceux déjà présents dans la littérature, qui ont été obtenus avec des types de modèles d'atmosphères moins sophistiqués, ce qui implique que les effets HETL couplés à la présence de métaux ne sont pas importants dans l'atmosphère de cette étoile particulière. Nous pouvons donc affirmer que les paramètres de cette étoile sont fiables et peuvent servir de base à une future étude astérosismologique quantitative. Finalement, 38 étoiles sous-naines chaudes appartenant à l'amas globulaire omega Centauri ont été analysées afin de déterminer, outre leur température et gravité de surface, leurs abondances d'hélium et de carbone. Nous montrons qu'il existe une corrélation entre les abondances photosphériques de ces deux éléments. Nous trouvons aussi des différences entre les étoiles riches en hélium de l'amas du celles du champ. Dans leur ensemble, nos résultats remettent en question notre compréhension du mécanisme de formation des sous-naines riches en hélium.