929 resultados para location-dependent data query


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé Objectif : Identifier les facteurs institutionnels qui influencent la mortalité maternelle (MM) hospitalière dans les maternités chirurgicales au Sénégal. Méthode : cette étude est une analyse secondaire des données de la troisième Enquête Nationale sur la Couverture Obstétrico-chirurgicale au Sénégal en 2001. Les données analysées, issues des fiches d'activité des maternités, comptaient pour 38,239 admissions en obstétrique dans 19 hôpitaux et 450 décès maternels. Les taux de mortalité maternelle hospitalière (TMMH) brut et ajusté ont été utilisés comme variables dépendantes. Le TMMH ajusté sur les caractéristiques de la clientèle ('cases-mix') a été estimé pour chaque établissement de santé par la méthode de standardisation directe. Les indicateurs de la qualité des structures, de la gestion des ressources, et un score de qualité ont été utilisés comme variables indépendantes pour prédire la MM hospitalière. Les tests de Mann-Whitney et de Kruskal-Wallis ont été utilisés pour analyser l’association entre les variables indépendantes, le score de qualité et la MM. Une analyse multivariée a été utilisée pour estimer l’impact du score de qualité sur la MM, en tenant compte de la situation géographique (Dakar versus autre région).Résultats: En analyse bivariée, la présence d'anesthésiste, la disponibilité de boîtes de césarienne complète et la supervision de tous les accouchements par du personnel qualifié sont les facteurs institutionnels associés significativement à une réduction du TMMH brut. Quant au TMMH ajusté ce sont la présence de scialytique, la disponibilité du sulfate de magnésium, l'utilisation des guides de pratiques cliniques (GPC) pour la prise en charge des complications obstétricales. Le score de qualité est associé significativement au TMMH brut, y compris en analyse multivariée, mais pas au TMMH ajusté. Conclusion : La disponibilité du Sulfate de magnésium, et du scialytique pourrait contribuer à la réduction de la MM. En complément, une réorganisation adéquate des ressources pour réduire la disparité géographique rurale/urbaine est essentielle ainsi qu’une sensibilisation du personnel à l’usage des GPC. De plus, l’assistance par un personnel qualifié de tous les accouchements est nécessaire pour améliorer la qualité des soins et la prise en charge des complications obstétricales.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps. Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac. Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations. Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps. Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L'avancement des communications sans-fil permet l'obtention de nouveaux services bases sur l'habileté des fournisseurs de services sans-fil à déterminer avec précision, et avec l'utilisation de technologies de pistage, la localisation et position géographiquement d'appareils sans-fil Cette habileté permet d'offrir aux utilisateurs de sans-fil de nouveaux services bases sur la localisation et la position géographique de leur appareil. Le développement des services basés sur la localisation des utilisateurs de sans-fil soulevé certains problèmes relatifs à la protection de la vie privée qui doivent être considérés. En effet, l'appareil sans-fil qui suit et enregistre les mouvements de I 'utilisateur permet un système qui enregistre et entrepose tous les mouvements et activités d'un tel utilisateur ou encore qui permet l'envoi de messages non anticipes à ce dernier. Pour ce motif et afin de protéger la vie privée des utilisateurs de sans-fil, une compagnie désirant développer ou déployer une technologie permettant d'offrir ce genre de services personnalisés devra analyser l'encadrement légal touchant la protection des données personnelles--lequel est dans certains cas vague et non approprié à ce nouveau contexte--ainsi que la position de l'industrie dans ce domaine, et ce, afin d'être en mesure de traduire cet encadrement en pratiques commerciales. Cette analyse permettra d'éclairer le fournisseur de ces services sur la façon d'établir son modèle d'affaires et sur le type de technologie à développer afin d'être en mesure de remédier aux nouveaux problèmes touchant la vie privée tout en offrant ces nouveaux services aux utilisateurs de sans-fil.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The attached file is created with Scientific Workplace Latex

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le Virus Herpès Simplex de type 1 (HSV-1) est un agent infectieux qui cause l’herpès chez une grande proportion de la population mondiale. L’herpès est généralement considéré comme une maladie bénigne dont la forme la plus commune est l'herpès labial (communément appelé « bouton de fièvre »), mais elle peut se révéler très sérieuse et causer la cécité et l’encéphalite, voir létale dans certain cas. Le virus persiste toute la vie dans le corps de son hôte. Jusqu'à présent, aucun traitement ne peut éliminer le virus et aucun vaccin n’a été prouvé efficace pour contrôler l’infection herpétique. HSV-1 est un virus avec un génome d’ADN bicaténaire contenu dans une capside icosaèdrale entourée d’une enveloppe lipidique. Treize glycoprotéines virales se trouvent dans cette enveloppe et sont connues ou supposées jouer des rôles distincts dans différentes étapes du cycle de réplication viral, incluant l'attachement, l'entrée, l’assemblage, et la propagation des virus. La glycoprotéine M (gM) qui figure parmi ces glycoprotéines d’enveloppe, est la seule glycoprotéine non essentielle mais est conservée dans toute la famille herpesviridae. Récemment, l’homologue de gM dans le Pseudorabies virus (PRV), un autre herpesvirus, a été impliqué dans la phase finale de l’assemblage (i.e. l’enveloppement cytoplasmique) au niveau du réseau trans-Golgi (TGN) en reconnaissant spécifiquement des protéines tégumentaires et d’autres glycoprotéines d’enveloppe ([1]). Toutefois, il a été proposé que cette hypothèse ne s’applique pas pour le HSV-1 ([2]). De plus, contrairement à la localisation au TGN dans les cellules transfectées, HSV-1 gM se localise dans la membrane nucléaire et sur les virions périnucléaires durant une infection. L’objectif du projet présenté ici était d’éclaircir la relation de la localisation et la fonction de HSV-1 gM dans le contexte d’une infection. Dans les résultats rapportés ici, nous décrivons tout abord un mécanisme spécifique de ciblage nucléaire de HSV-1 gM. En phase précoce d’une infection, gM est ciblée à la membrane nucléaire d'une manière virus ii dépendante. Cela se produit avant la réorganisation du TGN normalement induite par l’infection et avant que gM n’entre dans la voie de sécrétion. Ce ciblage nucléaire actif et spécifique de gM ne semble pas dépendre des plusieurs des partenaires d’interaction proposés dans la littérature. Ces données suggèrent que la forme nucléaire de gM pourrait avoir un nouveau rôle indépendant de l’enveloppement final dans le cytoplasme. Dans la deuxième partie du travail présenté ici, nous avons concentré nos efforts sur le rôle de gM dans l’assemblage du virus en phase tardive de l’infection et en identifiant un domaine critique de gM. Nos résultats mettent en valeur l’importance du domaine carboxyl-terminal cytoplasmique de gM dans le transport de gM du réticulum endoplasmique (RE) à l’appareil de Golgi, dans l’enveloppement cytoplasmique et la propagation intercellulaire du virus. Ainsi, l’export du RE de gM a été complètement compromis dans les cellules transfectées exprimant un mutant de gM dépourvu de sa région C-terminale. La délétion la queue cytoplasmique de gM cause une réduction légère du titre viral et de la taille des plaques. L'analyse de ces mutants par microscopie électronique a démontré une accumulation des nucléocapsides sans enveloppe dans le cytoplasme par rapport aux virus de type sauvage. Étrangement, ce phénotype était apparent dans les cellules BHK mais absent dans les cellules 143B, suggérant que la fonction de gM dépende du type cellulaire. Finalement, le criblage de partenaires d’interaction du domaine C-terminal de gM identifiés par le système de double-hybride nous a permis de proposer plusieurs candidats susceptibles de réguler la fonction de gM dans la morphogénèse et la propagation de virus.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les systèmes sensoriels encodent l’information sur notre environnement sous la forme d’impulsions électriques qui se propagent dans des réseaux de neurones. Élucider le code neuronal – les principes par lesquels l’information est représentée dans l’activité des neurones – est une question fondamentale des neurosciences. Cette thèse constituée de 3 études (E) s’intéresse à deux types de codes, la synchronisation et l’adaptation, dans les neurones du cortex visuel primaire (V1) du chat. Au niveau de V1, les neurones sont sélectifs pour des propriétés comme l’orientation des contours, la direction et la vitesse du mouvement. Chaque neurone ayant une combinaison de propriétés pour laquelle sa réponse est maximale, l’information se retrouve distribuée dans différents neurones situés dans diverses colonnes et aires corticales. Un mécanisme potentiel pour relier l’activité de neurones répondant à des items eux-mêmes reliés (e.g. deux contours appartenant au même objet) est la synchronisation de leur activité. Cependant, le type de relations potentiellement encodées par la synchronisation n’est pas entièrement clair (E1). Une autre stratégie de codage consiste en des changements transitoires des propriétés de réponse des neurones en fonction de l’environnement (adaptation). Cette plasticité est présente chez le chat adulte, les neurones de V1 changeant d’orientation préférée après exposition à une orientation non préférée. Cependant, on ignore si des neurones spatialement proches exhibent une plasticité comparable (E2). Finalement, nous avons étudié la dynamique de la relation entre synchronisation et plasticité des propriétés de réponse (E3). Résultats principaux — (E1) Nous avons montré que deux stimuli en mouvement soit convergent soit divergent élicitent plus de synchronisation entre les neurones de V1 que deux stimuli avec la même direction. La fréquence de décharge n’était en revanche pas différente en fonction du type de stimulus. Dans ce cas, la synchronisation semble coder pour la relation de cocircularité dont le mouvement convergent (centripète) et divergent (centrifuge) sont deux cas particuliers, et ainsi pourrait jouer un rôle dans l’intégration des contours. Cela indique que la synchronisation code pour une information qui n’est pas présente dans la fréquence de décharge des neurones. (E2) Après exposition à une orientation non préférée, les neurones changent d’orientation préférée dans la même direction que leurs voisins dans 75% des cas. Plusieurs propriétés de réponse des neurones de V1 dépendent de leur localisation dans la carte fonctionnelle corticale pour l’orientation. Les comportements plus diversifiés des 25% de neurones restants sont le fait de différences fonctionnelles que nous avons observé et qui suggèrent une localisation corticale particulière, les singularités, tandis que la majorité des neurones semblent situés dans les domaines d’iso-orientation. (E3) Après adaptation, les paires de neurones dont les propriétés de réponse deviennent plus similaires montrent une synchronisation accrue. Après récupération, la synchronisation retourne à son niveau initial. Par conséquent, la synchronisation semble refléter de façon dynamique la similarité des propriétés de réponse des neurones. Conclusions — Cette thèse contribue à notre connaissance des capacités d’adaptation de notre système visuel à un environnement changeant. Nous proposons également des données originales liées au rôle potentiel de la synchronisation. En particulier, la synchronisation semble capable de coder des relations entre objets similaires ou dissimilaires, suggérant l’existence d’assemblées neuronales superposées.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Quelques évidences suggèrent que Bcl-xL, un membre anti-apoptotique de la famille Bcl-2, possède également des fonctions au niveau du cycle cellulaire et de ses points-contrôle. Pour étudier la régulation et fonction de Bcl-xL au cours du cycle cellulaire, nous avons généré et exprimé dans des cellules humaines une série de mutants de phosphorylation incluant Thr41Ala, Ser43Ala, Thr47Ala, Ser49Ala, Ser56Ala, Ser62Ala et Thr115Ala. L'analyse de cette série de mutants révèle que les cellules exprimant Bcl-xL(Ser62Ala) sont moins stables au point-contrôle G2 du cycle cellulaire comparées aux cellules exprimant le type sauvage ou les autres mutants de phosphorylation incluant Thr41Ala, Ser43Ala, Thr47Ala, Ser56Ala et Thr115Ala. Les études de cinétiques de phosphorylation et de localisation de phospho-Bcl-xL(Ser62) dans des cellules synchronisées et suite à l'activation du point-contrôle en G2 médié par l'étoposide (VP16), nous indiquent que phospho-Bcl-xL(Ser62) migre dans les corps nucléolaires durant l'arrêt en G2 dans les cellules exposées au VP16. Une série d'expériences incluant des essais kinase in vitro, l'utilisation d'inhibiteurs pharmacologiques et d'ARN interférant, nous révèlent que Polo kinase 1 (PLK1) et MAPK9/JNK2 sont les protéines kinase impliquées dans la phosphorylation de Bcl-xL(Ser62), et pour son accumulation dans les corps nucléolaires pendant le point-contrôle en G2. Nos résultats indiquent que durant le point-contrôle en G2, phospho-Bcl-xL(Ser62) se lie et se co-localise avec CDK1(CDC2), le complexe cycline-kinase qui contrôle l'entrée en mitose. Nos résultats suggèrent que dans les corps nucléolaires, phospho-Bcl-xL(Ser62) stabilise l'arrêt en G2 en séquestrant CDK1(CDC2) pour retarder l'entrée en mitose. Ces résultats soulignent également que les dommages à l'ADN influencent la composition des corps nucléolaires, structure nucléaire qui émerge maintenant comme une composante importante de la réponse aux dommages à l'ADN. Dans une deuxième étude, nous décrivons que les cellules exprimant le mutant de phosphorylation Bcl-xL(Ser62Ala) sont également plus stables au point-contrôle de l'assemblage du fuseau de la chromatine (SAC) suite à une exposition au taxol, comparées aux cellules exprimant le type sauvage ou d'autres mutants de phosphorylation de Bcl-xL, incluant Thr41Ala, Ser43Ala, Thr47Ala, Ser56Ala. Cet effet est indépendent de la fonction anti-apoptotique de Bcl-xL. Bcl-xL(Ser62) est fortement phosphorylé par PLK1 et MAPK14/SAPKp38α à la prométaphase, la métaphase et à la frontière de l'anaphase, et déphosphorylé à la télophase et la cytokinèse. Phospho-Bcl-xL(Ser62) se trouve dans les centrosomes avec γ-tubuline, le long du fuseau mitotique avec la protéine moteure dynéine et dans le cytosol mitotique avec des composantes du SAC. Dans des cellules exposées au taxol, phospho-Bcl-xL(Ser62) se lie au complexe inhibiteur CDC20/MAD2/BUBR1/BUB3, alors que le mutant Bcl-xL(Ser62Ala) ne se lie pas à ce complexe. Ces résultats indiquent que durant le SAC, la phosphorylation de Bcl-xL(Ser62) accélère la résolution du SAC et l'entrée des cellules en anaphase. Des expériences bloquant l'expression de Bcl-xL révèlent ègalement un taux très élevé de cellules tétraploïdes et binuclées après un traitement au nocodazole, consistant avec une fonction de Bcl-xL durant la mitose et dans la stabilité génomique. Dans la troisième étude, l'analyse fonctionnelle de cette série de mutants de phosphorylation indique également que les cellules exprimant Bcl-xL(Ser49Ala) sont moins stables durant le point-contrôle G2 et entre en cytokinèse plus lentement dans des cellules exposées aux inhibiteurs de la polymérisation/dépolymérisation des tubulines, composantes des microtubules. Ces effets de Bcl-xL(Ser49Ala) sont indépendents de sa fonction anti-apoptotique. La phosphorylation de Bcl-xL(Ser49) est dynamique au cours du cycle cellulaire. Dans des cellules synchronisées, Bcl-xL(Ser49) est phosphorylé en phase S et G2, déphosphorylé à la prométaphase, la métaphase et à la frontière de l'anaphase, et re-phosphorylé durant la télophase et la cytokinèse. Au cours du point-contrôle G2 induit par les dommages à l'ADN, un pool important de phospho-Bcl-xL(Ser49) se trouve aux centrosomes, un site important pour la régulation de l'entrée en mitose. Durant la télophase et la cytokinèse, phospho-Bcl-xL(Ser49) se trouve le long des microtubules avec la protéine moteure dynéine et dans le cytosol mitotique. Finalement, nos résultats suggèrent que PLK3 est responsable de la phosphorylation de Bcl-xL(Ser49), une protéine kinase impliquée pour l'entrée des cellules en mitose et pour la progression de la mitose jusqu'à la division cellulaire.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La voie de signalisation des Récepteurs Tyrosine Kinase (RTK) occupe un rôle central dans la régulation de la croissance cellulaire, la prolifération, la différentiation et la motilité. Une régulation anormale des RTKs mène à plusieurs maladies humaines telles que le cancer du sein, la seconde cause de mortalité chez les femmes à cause de l’amplification et la mutation fréquente de la protéine tyrosine kinase HER2 (ERBB2). Grb2-associated binder (Gab) 2 est une protéine adaptatrice qui agit en aval de plusieurs RTKs, y compris HER2, pour réguler de multiples voies de signalisation. En réponse à la stimulation par de nombreux facteurs de croissances et cytokines, Gab2 est recruté à la membrane plasmique où il potentialise l’activation des voies de signalisation Ras/mitogen-activated protein kinase (MAPK) et PI3K (phosphatidylinositol-3-kinase)/Akt (protein kinase B). En plus d’occuper un rôle essentiel durant le développement du système hématopoïétique, Gab2 est souvent amplifié dans les cancers, notamment le cancer du sein et les mélanomes. Cependant, les mécanismes moléculaires qui régulent le fonctionnement de Gab2 sont peu connus. Il est établi que lors de l’activation des RTKs, Gab2 est phosphorylé au niveau de plusieurs résidus Tyrosine, menant à l’association de différentes protéines comme p85 et Shp2. En plus de la phosphorylation en Tyrosine, notre laboratoire ainsi que d’autres groupes de recherche avons identifié que Gab2 est aussi phosphorylé au niveau de résidus Ser/Thr suite à l’activation de la voie de signalisation MAPK. Cependant, la régulation des fonctions de Gab2 par ces modifications post-traductionnelles est encore peu connue. Dans le but de comprendre comment Gab2 est régulé par la voie de signalisation MAPK, nous avons utilisé différentes approches. Dans la première partie de ma thèse, nous avons déterminé un nouveau mécanisme démontrant que la voie de signalisation Ras/MAPK, par le biais des protéines kinases RSK (p90 ribosomal S6 kinase), phosphoryle Gab2. Ce phénomène se produit à la fois in vivo et in vitro au niveau de trois résidus Ser/Thr conservés. Des mutations au niveau de ces sites de phosphorylation entrainent le recrutement de Shp2 menant à l’augmentation de la motilité cellulaire, ce qui suggère que les protéines RSK restreignent les fonctions dépendantes de Gab2. Ce phénomène est le résultat de la participation de RSK dans la boucle de rétroaction négative de la voie de signalisation MAPK. Dans la seconde partie de ma thèse, nous avons démontré que les protéines ERK1/2 phosphorylent Gab2 au niveau de plusieurs résidus pS/T-P à la fois in vitro et in vivo, entrainant l’inhibition du recrutement de p85. De plus, nous avons établi pour la première fois que Gab2 interagit physiquement avec ERK1/2 dans des cellules lors de l’activation de la voie de signalisation MAPK. Par ailleurs, nous avons montré un nouveau domaine d’attache du module ERK1/2 sur Gab2. Des mutations sur les résidus essentiels de ce domaine d’attache n’entrainent pas seulement la dissociation de ERK1/2 avec Gab2, mais diminuent également la phosphorylation dépendante de ERK1/2 sur Gab2. Ainsi, nos données montrent que la voie de signalisation MAPK régule les fonctions de la protéine Gab2 par le biais des kinases RSK et ERK1/2. Cette thèse élabore par ailleurs un schéma complet des fonctions de Gab2 dépendantes de la voie de signalisation MAPK dans le développement de nombreux cancers.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les moteurs de recherche font partie de notre vie quotidienne. Actuellement, plus d’un tiers de la population mondiale utilise l’Internet. Les moteurs de recherche leur permettent de trouver rapidement les informations ou les produits qu'ils veulent. La recherche d'information (IR) est le fondement de moteurs de recherche modernes. Les approches traditionnelles de recherche d'information supposent que les termes d'indexation sont indépendants. Pourtant, les termes qui apparaissent dans le même contexte sont souvent dépendants. L’absence de la prise en compte de ces dépendances est une des causes de l’introduction de bruit dans le résultat (résultat non pertinents). Certaines études ont proposé d’intégrer certains types de dépendance, tels que la proximité, la cooccurrence, la contiguïté et de la dépendance grammaticale. Dans la plupart des cas, les modèles de dépendance sont construits séparément et ensuite combinés avec le modèle traditionnel de mots avec une importance constante. Par conséquent, ils ne peuvent pas capturer correctement la dépendance variable et la force de dépendance. Par exemple, la dépendance entre les mots adjacents "Black Friday" est plus importante que celle entre les mots "road constructions". Dans cette thèse, nous étudions différentes approches pour capturer les relations des termes et de leurs forces de dépendance. Nous avons proposé des méthodes suivantes: ─ Nous réexaminons l'approche de combinaison en utilisant différentes unités d'indexation pour la RI monolingue en chinois et la RI translinguistique entre anglais et chinois. En plus d’utiliser des mots, nous étudions la possibilité d'utiliser bi-gramme et uni-gramme comme unité de traduction pour le chinois. Plusieurs modèles de traduction sont construits pour traduire des mots anglais en uni-grammes, bi-grammes et mots chinois avec un corpus parallèle. Une requête en anglais est ensuite traduite de plusieurs façons, et un score classement est produit avec chaque traduction. Le score final de classement combine tous ces types de traduction. Nous considérons la dépendance entre les termes en utilisant la théorie d’évidence de Dempster-Shafer. Une occurrence d'un fragment de texte (de plusieurs mots) dans un document est considérée comme représentant l'ensemble de tous les termes constituants. La probabilité est assignée à un tel ensemble de termes plutôt qu’a chaque terme individuel. Au moment d’évaluation de requête, cette probabilité est redistribuée aux termes de la requête si ces derniers sont différents. Cette approche nous permet d'intégrer les relations de dépendance entre les termes. Nous proposons un modèle discriminant pour intégrer les différentes types de dépendance selon leur force et leur utilité pour la RI. Notamment, nous considérons la dépendance de contiguïté et de cooccurrence à de différentes distances, c’est-à-dire les bi-grammes et les paires de termes dans une fenêtre de 2, 4, 8 et 16 mots. Le poids d’un bi-gramme ou d’une paire de termes dépendants est déterminé selon un ensemble des caractères, en utilisant la régression SVM. Toutes les méthodes proposées sont évaluées sur plusieurs collections en anglais et/ou chinois, et les résultats expérimentaux montrent que ces méthodes produisent des améliorations substantielles sur l'état de l'art.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Multivariate lifetime data arise in various forms including recurrent event data when individuals are followed to observe the sequence of occurrences of a certain type of event; correlated lifetime when an individual is followed for the occurrence of two or more types of events, or when distinct individuals have dependent event times. In most studies there are covariates such as treatments, group indicators, individual characteristics, or environmental conditions, whose relationship to lifetime is of interest. This leads to a consideration of regression models.The well known Cox proportional hazards model and its variations, using the marginal hazard functions employed for the analysis of multivariate survival data in literature are not sufficient to explain the complete dependence structure of pair of lifetimes on the covariate vector. Motivated by this, in Chapter 2, we introduced a bivariate proportional hazards model using vector hazard function of Johnson and Kotz (1975), in which the covariates under study have different effect on two components of the vector hazard function. The proposed model is useful in real life situations to study the dependence structure of pair of lifetimes on the covariate vector . The well known partial likelihood approach is used for the estimation of parameter vectors. We then introduced a bivariate proportional hazards model for gap times of recurrent events in Chapter 3. The model incorporates both marginal and joint dependence of the distribution of gap times on the covariate vector . In many fields of application, mean residual life function is considered superior concept than the hazard function. Motivated by this, in Chapter 4, we considered a new semi-parametric model, bivariate proportional mean residual life time model, to assess the relationship between mean residual life and covariates for gap time of recurrent events. The counting process approach is used for the inference procedures of the gap time of recurrent events. In many survival studies, the distribution of lifetime may depend on the distribution of censoring time. In Chapter 5, we introduced a proportional hazards model for duration times and developed inference procedures under dependent (informative) censoring. In Chapter 6, we introduced a bivariate proportional hazards model for competing risks data under right censoring. The asymptotic properties of the estimators of the parameters of different models developed in previous chapters, were studied. The proposed models were applied to various real life situations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The present study brings out the influence of transport dynamics on the aerosol distribution over the Indian region at a few selected geographically distinct locations. Over the Bay of Bengal the dominant pathway of aerosol transport during the pre-monsoon period is through higher altitudes (~ 3 km); directed from the Indian main land. In contrast, the aerosol pathways over the Arabian Sea during the same period are quite complex. They are directed from geographically different environments around the ocean through different altitudes. However in general, the day-to-day variability of AOD at both these regions is significantly influenced by the features of atmospheric circulation especially, the wind convergence at higher altitudes (around 3 km). Over the Ganga Basin during the winter period, the wind convergence at lower altitudes (< I km) govems the shon term variations in AOD, while the mean AOD distribution at this location is mainly governed by the local anthropogenic sources.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper we discuss both theoretical and experimental results on the time dependence of the heat capacity of oriented Mn12 magnetic clusters when a magnetic field is applied along their easy axis. Our calculations are based on the existence of two contributions. The first one is associated with the thermal populations of the 21 different Sz levels in the two potential wells of the magnetic uniaxial anisotropy and the second one is related to the transitions between the Sz levels. We compare our theoretical predictions with experimental data on the heat capacity for different resolution times at different fields and temperatures.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Cooperative caching is an attractive solution for reducing bandwidth demands and network latency in mobile ad hoc networks. Deploying caches in mobile nodes can reduce the overall traffic considerably. Cache hits eliminate the need to contact the data source frequently, which avoids additional network overhead. In this paper we propose a data discovery and cache management policy for cooperative caching, which reduces the caching overhead and delay by reducing the number of control messages flooded in to the network. A cache discovery process based on location of neighboring nodes is developed for this. The cache replacement policy we propose aims at increasing the cache hit ratio. The simulation results gives a promising result based on the metrics of studies

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The evolution of coast through geological time scale is dependent on the transgression-regression event subsequent to the rise or fall of sea level. This event is accounted by investigation of the vertical sediment deposition patterns and their interrelationship for paleo-enviornmental reconstruction. Different methods like sedimentological (grain size and micro-morphological) and geochemical (elemental relationship) analyses as well as radiocarbon dating are generally used to decipher the sea level changes and paleoclimatic conditions of the Quaternary sediment sequence. For the Indian coast with a coastline length of about 7500 km, studies on geological and geomorphological signatures of sea level changes during the Quaternary were reported in general by researchers during the last two decades. However, for the southwest coast of India particularily Kerala which is famous for its coastal landforms comprising of estuaries, lagoons, backwaters, coastal plains, cliffs and barrier beaches, studies pertaining to the marine transgression-regression events in the southern region are limited. The Neendakara-Kayamkulam coastal stretch in central Kerala where the coast is manifested with shore parallel Kayamkulam Lagoon on one side and shore perpendicular Ashtamudi Estuary on the other side indicating existence of an uplifted prograded coastal margin followed by barrier beaches, backwater channels, ridge and runnel topography is an ideal site for studying such events. Hence the present study has been taken up in this context to address the gap area. The location for collection of core samples representing coastal plain, estuarylagoon and offshore regions have been identified based on published literature and available sedimentary records. The objectives of the research work are:  To study the lithological variations and depositional environments of sediment cores along the coastal plain, estuary-lagoon and offshore regions between Kollam and Kayamkulam in the central Kerala coast  To study the transportation and diagenetic history of sediments in the area  To investigate the geochemical characterization of sediments and to elucidate the source-sink relationship  To understand the marine transgression-regression events and to propose a conceptual model for the region The thesis comprises of 8 chapters. The first chapter embodies the preamble for the selection and significance of this research work. The study area is introduced with details on its physiographical, geological, geomorphological, rainfall and climate information. A review of literature, compiling the research on different aspects such as physico-chemical, geomorphological, tectonics, transgression-regression events are presented in the second chapter and they are broadly classified into three viz:- International, National and Kerala. The field data collection and laboratory analyses adopted in the research work are discussed in the third chapter. For collection of sediment core samples from the coastal plains, rotary drilling method was employed whereas for the estuary-lagoon and offshore locations the gravity/piston corer method was adopted. The collected subsurficial samples were analysed for texture, surface micro-texture, elemental analysis, XRD and radiocarbon dating techniques for age determination. The fourth chapter deals with the textural analysis of the core samples collected from various predefined locations of the study area. The result reveals that the Ashtamudi Estuary is composed of silty clay to clayey type of sediments whereas offshore cores are carpeted with silty clay to relict sand. Investigation of the source of sediments deposited in the coastal plain located on either side of the estuary indicates the dominance of terrigenous to marine origin in the southern region whereas it is predominantly of marine origin towards the north. Further the hydrodynamic conditions as well as the depositional enviornment of the sediment cores are elucidated based on statistical parameters that decipher the deposition pattern at various locations viz., coastal plain (open to closed basin), Ashtamudi Estuary (partially open to restricted estuary to closed basin) and offshore (open channel). The intensity of clay minerals is also discussed. From the results of radiocarbon dating the sediment depositional environments were deciphered.The results of the microtextural study of sediment samples (quartz grains) using Scanning Electron Microscope (SEM) are presented in the fifth chapter. These results throw light on the processes of transport and diagenetic history of the detrital sediments. Based on the lithological variations, selected quartz grains of different environments were also analysed. The study indicates that the southern coastal plain sediments were transported and deposited mechanically under fluvial environment followed by diagenesis under prolonged marine incursion. But in the case of the northern coastal plain, the sediments were transported and deposited under littoral environment indicating the dominance of marine incursion through mechanical as well as chemical processes. The quartz grains of the Ashtamudi Estuary indicate fluvial origin. The surface texture features of the offshore sediments suggest that the quartz grains are of littoral origin and represent the relict beach deposits. The geochemical characterisation of sediment cores based on geochemical classification, sediment maturity, palaeo-weathering and provenance in different environments are discussed in the sixth chapter. In the seventh chapter the integration of multiproxies data along with radiocarbon dates are presented and finally evolution and depositional history based on transgression–regression events is deciphered. The eighth chapter summarizes the major findings and conclusions of the study with recommendation for future work.