1000 resultados para Réseau magnétique
Resumo:
En simulant l’écoulement du sang dans un réseau de capillaires (en l’absence de contrôle biologique), il est possible d’observer la présence d’oscillations de certains paramètres comme le débit volumique, la pression et l’hématocrite (volume des globules rouges par rapport au volume du sang total). Ce comportement semble être en concordance avec certaines expériences in vivo. Malgré cet accord, il faut se demander si les fluctuations observées lors des simulations de l’écoulement sont physiques, numériques ou un artefact de modèles irréalistes puisqu’il existe toujours des différences entre des modélisations et des expériences in vivo. Pour répondre à cette question de façon satisfaisante, nous étudierons et analyserons l’écoulement du sang ainsi que la nature des oscillations observées dans quelques réseaux de capillaires utilisant un modèle convectif et un modèle moyenné pour décrire les équations de conservation de masse des globules rouges. Ces modèles tiennent compte de deux effets rhéologiques importants : l’effet Fåhraeus-Lindqvist décrivant la viscosité apparente dans un vaisseau et l’effet de séparation de phase schématisant la distribution des globules rouges aux points de bifurcation. Pour décrire ce dernier effet, deux lois de séparation de phase (les lois de Pries et al. et de Fenton et al.) seront étudiées et comparées. Dans ce mémoire, nous présenterons une description du problème physiologique (rhéologie du sang). Nous montrerons les modèles mathématiques employés (moyenné et convectif) ainsi que les lois de séparation de phase (Pries et al. et Fenton et al.) accompagnés d’une analyse des schémas numériques implémentés. Pour le modèle moyenné, nous employons le schéma numérique explicite traditionnel d’Euler ainsi qu’un nouveau schéma implicite qui permet de résoudre ce problème d’une manière efficace. Ceci est fait en utilisant une méthode de Newton- Krylov avec gradient conjugué préconditionné et la méthode de GMRES pour les itérations intérieures ainsi qu’une méthode quasi-Newton (la méthode de Broyden). Cette méthode inclura le schéma implicite d’Euler et la méthode des trapèzes. Pour le schéma convectif, la méthode explicite de Kiani et al. sera implémentée ainsi qu’une nouvelle approche implicite. La stabilité des deux modèles sera également explorée. À l’aide de trois différentes topologies, nous comparerons les résultats de ces deux modèles mathématiques ainsi que les lois de séparation de phase afin de déterminer dans quelle mesure les oscillations observées peuvent être attribuables au choix des modèles mathématiques ou au choix des méthodes numériques.
Resumo:
La quantité de données générée dans le cadre d'étude à grande échelle du réseau d'interaction protéine-protéine dépasse notre capacité à les analyser et à comprendre leur sens; d'une part, par leur complexité et leur volume, et d'un autre part, par la qualité du jeu de donnée produit qui semble bondé de faux positifs et de faux négatifs. Cette dissertation décrit une nouvelle méthode de criblage des interactions physique entre protéines à haut débit chez Saccharomyces cerevisiae, la complémentation de fragments protéiques (PCA). Cette approche est accomplie dans des cellules intactes dans les conditions natives des protéines; sous leur promoteur endogène et dans le respect des contextes de modifications post-traductionnelles et de localisations subcellulaires. Une application biologique de cette méthode a permis de démontrer la capacité de ce système rapporteur à répondre aux questions d'adaptation cellulaire à des stress, comme la famine en nutriments et un traitement à une drogue. Dans le premier chapitre de cette dissertation, nous avons présenté un criblage des paires d'interactions entre les protéines résultant des quelques 6000 cadres de lecture de Saccharomyces cerevisiae. Nous avons identifié 2770 interactions entre 1124 protéines. Nous avons estimé la qualité de notre criblage en le comparant à d'autres banques d'interaction. Nous avons réalisé que la majorité de nos interactions sont nouvelles, alors que le chevauchement avec les données des autres méthodes est large. Nous avons pris cette opportunité pour caractériser les facteurs déterminants dans la détection d'une interaction par PCA. Nous avons remarqué que notre approche est sous une contrainte stérique provenant de la nécessité des fragments rapporteurs à pouvoir se rejoindre dans l'espace cellulaire afin de récupérer l'activité observable de la sonde d'interaction. L'intégration de nos résultats aux connaissances des dynamiques de régulations génétiques et des modifications protéiques nous dirigera vers une meilleure compréhension des processus cellulaires complexes orchestrés aux niveaux moléculaires et structuraux dans les cellules vivantes. Nous avons appliqué notre méthode aux réarrangements dynamiques opérant durant l'adaptation de la cellule à des stress, comme la famine en nutriments et le traitement à une drogue. Cette investigation fait le détail de notre second chapitre. Nous avons déterminé de cette manière que l'équilibre entre les formes phosphorylées et déphosphorylées de l'arginine méthyltransférase de Saccharomyces cerevisiae, Hmt1, régulait du même coup sont assemblage en hexamère et son activité enzymatique. L'activité d'Hmt1 a directement un impact dans la progression du cycle cellulaire durant un stress, stabilisant les transcrits de CLB2 et permettant la synthèse de Cln3p. Nous avons utilisé notre criblage afin de déterminer les régulateurs de la phosphorylation d'Hmt1 dans un contexte de traitement à la rapamycin, un inhibiteur de la kinase cible de la rapamycin (TOR). Nous avons identifié la sous-unité catalytique de la phosphatase PP2a, Pph22, activé par l'inhibition de la kinase TOR et la kinase Dbf2, activé durant l'entrée en mitose de la cellule, comme la phosphatase et la kinase responsable de la modification d'Hmt1 et de ses fonctions de régulations dans le cycle cellulaire. Cette approche peut être généralisée afin d'identifier et de lier mécanistiquement les gènes, incluant ceux n'ayant aucune fonction connue, à tout processus cellulaire, comme les mécanismes régulant l'ARNm.
Resumo:
Dans certaines circonstances, des actions de groupes sont plus performantes que des actions individuelles. Dans ces situations, il est préférable de former des coalitions. Ces coalitions peuvent être disjointes ou imbriquées. La littérature économique met un fort accent sur la modélisation des accords où les coalitions d’agents économiques sont des ensembles disjoints. Cependant on observe dans la vie de tous les jours que les coalitions politiques, environnementales, de libre-échange et d’assurance informelles sont la plupart du temps imbriquées. Aussi, devient-il impératif de comprendre le fonctionnement économique des coalitions imbriquées. Ma thèse développe un cadre d’analyse qui permet de comprendre la formation et la performance des coalitions même si elles sont imbriquées. Dans le premier chapitre je développe un jeu de négociation qui permet la formation de coalitions imbriquées. Je montre que ce jeu admet un équilibre et je développe un algorithme pour calculer les allocations d’équilibre pour les jeux symétriques. Je montre que toute structure de réseau peut se décomposer de manière unique en une structure de coalitions imbriquées. Sous certaines conditions, je montre que cette structure correspond à une structure d’équilibre d’un jeu sous-jacent. Dans le deuxième chapitre j’introduis une nouvelle notion de noyau dans le cas où les coalitions imbriquées sont permises. Je montre que cette notion de noyau est une généralisation naturelle de la notion de noyau de structure de coalitions. Je vais plus loin en introduisant des agents plus raffinés. J’obtiens alors le noyau de structure de coalitions imbriquées que je montre être un affinement de la première notion. Dans la suite de la thèse, j’applique les théories développées dans les deux premiers chapitres à des cas concrets. Le troisième chapitre est une application de la relation biunivoque établie dans le premier chapitre entre la formation des coalitions et la formation de réseaux. Je propose une modélisation réaliste et effective des assurances informelles. J’introduis ainsi dans la littérature économique sur les assurances informelles, quatre innovations majeures : une fusion entre l’approche par les groupes et l’approche par les réseaux sociaux, la possibilité d’avoir des organisations imbriquées d’assurance informelle, un schéma de punition endogène et enfin les externalités. Je caractérise les accords d’assurances informelles stables et j’isole les conditions qui poussent les agents à dévier. Il est admis dans la littérature que seuls les individus ayant un revenu élevé peuvent se permettre de violer les accords d’assurances informelles. Je donne ici les conditions dans lesquelles cette hypothèse tient. Cependant, je montre aussi qu’il est possible de violer cette hypothèse sous d’autres conditions réalistes. Finalement je dérive des résultats de statiques comparées sous deux normes de partage différents. Dans le quatrième et dernier chapitre, je propose un modèle d’assurance informelle où les groupes homogènes sont construits sur la base de relations de confiance préexistantes. Ces groupes sont imbriqués et représentent des ensembles de partage de risque. Cette approche est plus générale que les approches traditionnelles de groupe ou de réseau. Je caractérise les accords stables sans faire d’hypothèses sur le taux d’escompte. J’identifie les caractéristiques des réseaux stables qui correspondent aux taux d’escomptes les plus faibles. Bien que l’objectif des assurances informelles soit de lisser la consommation, je montre que des effets externes liés notamment à la valorisation des liens interpersonnels renforcent la stabilité. Je développe un algorithme à pas finis qui égalise la consommation pour tous les individus liés. Le fait que le nombre de pas soit fini (contrairement aux algorithmes à pas infinis existants) fait que mon algorithme peut inspirer de manière réaliste des politiques économiques. Enfin, je donne des résultats de statique comparée pour certaines valeurs exogènes du modèle.
Resumo:
Cette thèse porte sur les phénomènes critiques survenant dans les modèles bidimensionnels sur réseau. Les résultats sont l'objet de deux articles : le premier porte sur la mesure d'exposants critiques décrivant des objets géométriques du réseau et, le second, sur la construction d'idempotents projetant sur des modules indécomposables de l'algèbre de Temperley-Lieb pour la chaîne de spins XXZ. Le premier article présente des expériences numériques Monte Carlo effectuées pour une famille de modèles de boucles en phase diluée. Baptisés "dilute loop models (DLM)", ceux-ci sont inspirés du modèle O(n) introduit par Nienhuis (1990). La famille est étiquetée par les entiers relativement premiers p et p' ainsi que par un paramètre d'anisotropie. Dans la limite thermodynamique, il est pressenti que le modèle DLM(p,p') soit décrit par une théorie logarithmique des champs conformes de charge centrale c(\kappa)=13-6(\kappa+1/\kappa), où \kappa=p/p' est lié à la fugacité du gaz de boucles \beta=-2\cos\pi/\kappa, pour toute valeur du paramètre d'anisotropie. Les mesures portent sur les exposants critiques représentant la loi d'échelle des objets géométriques suivants : l'interface, le périmètre externe et les liens rouges. L'algorithme Metropolis-Hastings employé, pour lequel nous avons introduit de nombreuses améliorations spécifiques aux modèles dilués, est détaillé. Un traitement statistique rigoureux des données permet des extrapolations coïncidant avec les prédictions théoriques à trois ou quatre chiffres significatifs, malgré des courbes d'extrapolation aux pentes abruptes. Le deuxième article porte sur la décomposition de l'espace de Hilbert \otimes^nC^2 sur lequel la chaîne XXZ de n spins 1/2 agit. La version étudiée ici (Pasquier et Saleur (1990)) est décrite par un hamiltonien H_{XXZ}(q) dépendant d'un paramètre q\in C^\times et s'exprimant comme une somme d'éléments de l'algèbre de Temperley-Lieb TL_n(q). Comme pour les modèles dilués, le spectre de la limite continue de H_{XXZ}(q) semble relié aux théories des champs conformes, le paramètre q déterminant la charge centrale. Les idempotents primitifs de End_{TL_n}\otimes^nC^2 sont obtenus, pour tout q, en termes d'éléments de l'algèbre quantique U_qsl_2 (ou d'une extension) par la dualité de Schur-Weyl quantique. Ces idempotents permettent de construire explicitement les TL_n-modules indécomposables de \otimes^nC^2. Ceux-ci sont tous irréductibles, sauf si q est une racine de l'unité. Cette exception est traitée séparément du cas où q est générique. Les problèmes résolus par ces articles nécessitent une grande variété de résultats et d'outils. Pour cette raison, la thèse comporte plusieurs chapitres préparatoires. Sa structure est la suivante. Le premier chapitre introduit certains concepts communs aux deux articles, notamment une description des phénomènes critiques et de la théorie des champs conformes. Le deuxième chapitre aborde brièvement la question des champs logarithmiques, l'évolution de Schramm-Loewner ainsi que l'algorithme de Metropolis-Hastings. Ces sujets sont nécessaires à la lecture de l'article "Geometric Exponents of Dilute Loop Models" au chapitre 3. Le quatrième chapitre présente les outils algébriques utilisés dans le deuxième article, "The idempotents of the TL_n-module \otimes^nC^2 in terms of elements of U_qsl_2", constituant le chapitre 5. La thèse conclut par un résumé des résultats importants et la proposition d'avenues de recherche qui en découlent.
Resumo:
L’accident vasculaire cérébral (AVC) est une cause principale de décès et de morbidité dans le monde; une bonne partie des AVC est causée par la plaque d’athérosclérose carotidienne. La prévention de l’AVC chez les patients ayant une plaque carotidienne demeure controversée, vu les risques et bénéfices ambigus associés au traitement chirurgical ou médical. Plusieurs méthodes d’imagerie ont été développées afin d’étudier la plaque vulnérable (dont le risque est élevé), mais aucune n’est suffisamment validée ou accessible pour permettre une utilisation comme outil de dépistage. L’élastographie non-invasive vasculaire (NIVE) est une technique nouvelle qui cartographie les déformations (élasticité) de la plaque afin de détecter les plaque vulnérables; cette technique n’est pas encore validée cliniquement. Le but de ce projet est d’évaluer la capacité de NIVE de caractériser la composition de la plaque et sa vulnérabilité in vivo chez des patients ayant des plaques sévères carotidiennes, en utilisant comme étalon de référence, l’imagerie par résonance magnétique (IRM) à haute-résolution. Afin de poursuivre cette étude, une connaissance accrue de l’AVC, l’athérosclérose, la plaque vulnérable, ainsi que des techniques actuelles d’imagerie de la plaque carotidienne, est requise. Trente-et-un sujets ont été examinés par NIVE par ultrasonographie et IRM à haute-résolution. Sur 31 plaques, 9 étaient symptomatiques, 17 contenaient des lipides, et 7 étaient vulnérables selon l’IRM. Les déformations étaient significativement plus petites chez les plaques contenant des lipides, avec une sensibilité élevée et une spécificité modérée. Une association quadratique entre la déformation et la quantité de lipide a été trouvée. Les déformations ne pouvaient pas distinguer les plaques vulnérables ou symptomatiques. En conclusion, NIVE par ultrasonographie est faisable chez des patients ayant des sténoses carotidiennes significatives et peut détecter la présence d’un coeur lipidique. Des études supplémentaires de progression de la plaque avec NIVE sont requises afin d’identifier les plaques vulnérables.
Resumo:
La variabilité génétique actuelle est influencée par une combinaison complexe de variables historiques et contemporaines. Dès lors, une interprétation juste de l’impact des processus actuels nécessite une compréhension profonde des processus historiques ayant influencé la variabilité génétique. En se basant sur la prémisse que des populations proches devraient partager une histoire commune récente, nombreuses études, effectuées à petite échelle spatiale, ne prennent pas en considération l’effet potentiel des processus historiques. Cette thèse avait pour but de vérifier la validité de cette prémisse en estimant l’effet de la dispersion historique à grande et à petite échelle spatiale. Le premier volet de cette thèse avait pour but d’évaluer l’impact de la dispersion historique sur la répartition des organismes à grande échelle spatiale. Pour ce faire, les moules d’eau douce du genre flotteurs (Pyganodon spp.) ont servies de modèle biologique. Les moules d'eau douce se dispersent principalement au stade larvaire en tant que parasites des poissons. Une série de modèles nuls ont été développés pour évaluer la co-occurrence entre des parasites et leurs hôtes potenitels. Les associations distinctes du flotteur de Terre-Neuve (P. fragilis) avec des espèces de poissons euryhalins permettent d’expliquer sa répartition. Ces associations distinctes ont également pu favoriser la différenciation entre le flotteur de Terre-Neuve et son taxon soeur : le flotteur de l’Est (P. cataracta). Cette étude a démontré les effets des associations biologiques historiques sur les répartitions à grande échelle spatiale. Le second volet de cette thèse avait pour but d’évaluer l’impact de la dispersion historique sur la variabilité génétique, à petite échelle spatiale. Cette fois, différentes populations de crapet de roche (Ambloplites rupestris) et de crapet soleil (Lepomis gibbosus), dans des drainages adjacents ont servies de modèle biologique. Les différences frappantes observées entre les deux espèces suggèrent des patrons de colonisation opposés. La faible diversité génétique observée en amont des drainages et la forte différenciation observée entre les drainages pour les populations de crapet de roche suggèrent que cette espèce aurait colonisé les drainages à partir d'une source en aval. Au contraire, la faible différenciation et la forte diversité génétique observées en amont des drainages pour les populations de crapet soleil suggèrent une colonisation depuis l’amont, induisant du même coup un faux signal de flux génique entre les drainages. La présente étude a démontré que la dispersion historique peut entraver la capacité d'estimer la connectivité actuelle, à petite échelle spatiale, invalidant ainsi la prémisse testée dans cette thèse. Les impacts des processus historiques sur la variabilité génétique ne sont pas faciles à démontrer. Le troisième volet de cette thèse avait pour but de développer une méthode permettant de les détecter. La méthode proposée est très souple et favorise la comparaison entre la variabilité génétique et plusieurs hypothèses de dispersion. La méthode pourrait donc être utilisée pour comparer des hypothèses de dispersion basées sur le paysage historique et sur le paysage actuel et ainsi permettre l’évaluation des impacts historiques et contemporains sur la variabilité génétique. Les performances de la méthode sont présentées pour plusieurs scénarios de simulations, d’une complexité croissante. Malgré un impact de la différentiation globale, du nombre d’individus ou du nombre de loci échantillonné, la méthode apparaît hautement efficace. Afin d’illustrer le potentiel de la méthode, deux jeux de données empiriques très contrastés, publiés précédemment, ont été ré analysés. Cette thèse a démontré les impacts de la dispersion historique sur la variabilité génétique à différentes échelles spatiales. Les effets historiques potentiels doivent être pris en considération avant d’évaluer les impacts des processus écologiques sur la variabilité génétique. Bref, il faut intégrer l’évolution à l’écologie.
Resumo:
Réalisé en cotutelle avec l'Université Paris 1 Panthéon-Sorbonne.
Resumo:
La dopamine (DA) est un neurotransmetteur impliqué dans la modulation de fonctions essentielles du cerveau telles que le contrôle des mouvements volontaires, le système de récompense et certains aspects de la cognition. Depuis sa découverte, la DA a attiré énormément d'attention scientifique en partie à cause des pathologies majeures associées aux dysfonctions du système DAergique, comme la maladie de Parkinson, la schizophrénie et la toxicomanie. On retrouve la majorité des neurones qui synthétisent la DA au niveau du mésencéphale ventral, dans les noyaux de la substance noire compacte (SNc) et de l'aire tegmentaire ventrale (ATV). Ces neurones projettent leurs axones dans un très dense réseau de fibres qui s'organisent en trois voies DAergiques classiques: la voie nigrostriée, la voie mésolimbique et la voie mésocorticale. La transmission DAergique s'effectue par l'activation de récepteurs de la DA qui font partie de la grande famille des récepteurs couplés aux protéines G (RCPGs). Les récepteurs de la DA sont abondamment exprimés aussi bien par les neurones DAergiques que par les neurones des régions cibles, ce qui implique que la compréhension de la signalisation et des fonctions particulières des récepteurs de la DA pré- et postsynaptiques représente un enjeu crucial dans l'étude du système DAergique. Cette thèse de doctorat se sépare donc en deux volets distincts: le premier s'intéresse à la régulation du récepteur D2 présynaptique par la neurotensine (NT), un neuropeptide intimement lié à la modulation du système DAergique; le deuxième s'intéresse au côté postsynaptique du système DAergique, plus particulièrement à la ségrégation de l'expression des récepteurs de la DA dans le striatum et aux fonctions de ces récepteurs dans l'établissement des circuits neuronaux excitateurs prenant place dans cette région. Dans la première partie de cette thèse, nous démontrons que l'activation du récepteur à haute affinité de la NT, le NTR1, provoque une internalisation hétérologue du récepteur D2, avec une amplitude et une cinétique différente selon l'isoforme D2 observé. Cette internalisation hétérologue dépend de la protéine kinase C (PKC), et nous montrons que la surexpression d'un récepteur D2 muté sur des sites de phosphorylation par la PKC ii ainsi que l'inhibition de l'expression de β-arrestine1 par ARNs interférents dans des neurones DAergiques bloquent complètement l'interaction fonctionnelle entre le NTR1 et le D2. Dans la deuxième partie de cette thèse, nous démontrons d'abord que la ségrégation de l'expression des récepteurs D1 et D2 dans le striatum est déjà bien établie dès le 18e jour embryonnaire, bien qu'elle progresse encore significativement aux jours 0 et 14 postnataux. Nos résultats témoignent aussi d'un maintien complet de cette ségrégation lorsque les neurones striataux sont mis en culture aussi bien en présence ou en absence de neurones corticaux et/ou mésencéphaliques. Ensuite, nous montrons que la présence de neurones mésencéphaliques stimule la formation d’épines et de synapses excitatrices sur les neurones striataux épineux exprimant le récepteur D2 (MSN-D2). Le co-phénotype glutamatergique des neurones dopaminergiques semble nécessaire à une grande partie de cet effet. Par ailleurs, le nombre total de terminaisons excitatrices formées sur les MSN-D2 par les neurones corticaux et mésencéphaliques apparaît être régit par un équilibre dynamique. Finalement, nous démontrons que le blocage de la signalisation des récepteurs D1 et D2 de la DA n'est pas nécessaire pour la formation des synapses excitatrices des MSN-D2, alors que l'antagonisme des récepteurs glutamatergiques ionotropes diminue la densité d'épines dendritiques et contrôle de façon opposée le nombre de terminaisons excitatrices corticales et mésencéphaliques. Globalement, ce travail représente une contribution significative pour une meilleure compréhension du fonctionnement normal du système DAergique. Ces découvertes sont susceptibles d’être utiles pour mieux comprendre les dysfonctions de ce système dans le cadre de pathologies du cerveau comme la maladie de Parkinson.
Resumo:
Étude de cas / Case study
Resumo:
L’angiogenèse est la formation de nouveaux vaisseaux sanguins à partir d’un réseau vasculaire existant. C’est un phénomène essentiel pour des processus physiologiques et pathologiques. L’activation des cellules endothéliales est contrôlée par plusieurs facteurs de croissance. Le VEGF et son récepteur le VEGFR-2 ont été prouvés comme étant spécifiques et critiques pour la formation des vaisseaux sanguins alors que Tie2, le récepteur auquel se lie l’Ang-1, est requis aussi bien dans le développement vasculaire que dans l’angiogenèse tumorale. Il est connu que l’activation de Tie2 est nécessaire à la stabilisation finale de la vascularisation en inhibant la perméabilité vasculaire induite par le VEGFR-2. Nous avons premièrement découvert que le facteur de croissance pro-angiogénique, l’Ang-1 contrecarre les effets de perméabilité cellulaire induits par le VEGF en inhibant la production de NO dans les cellules endothéliales. Cet effet inhibiteur de Tie2 intervient directement au niveau de l’activité de l’enzyme eNOS. Suite à l’activation de Tie2 par l’Ang-1, eNOS devient fortement phosphorylé sur la Thr497 après la phosphorylation et l’activation de la PKCζ. Nos résultats suggèrent que l’inhibition, par Tie2, de la perméabilité vasculaire durant l’angiogenèse serait due, en partie, à l’inhibition de la production de NO. Deuxièmement nous avons pu distinguer entre deux modes de migration cellulaire endothéliale induits par l’Ang-1 et le VEGF. À l’opposé du VEGF qui promeut une migration individuelle aléatoire, l’Ang-1 induit une migration collective directionnelle. Dans cette étude, nous avons identifié la β-caténine comme un nouveau partenaire moléculaire de la PKCζ. Cette association de la PKCζ à la β-caténine amène le complexe de polarité Par6-aPKC et le complexe des jonctions d’adhérences cellulaires à interagir ensemble à deux localisations différentes au niveau de la cellule endothéliale. Au niveau des contacts intercellulaires, le complexe PKCζ/β-caténine maintien la cohésion et l’adhésion cellulaire nécessaire pour le processus migratoire collectif. Ce complexe se retrouve aussi au niveau du front migratoire des cellules endothéliales afin d’assurer la directionalité et la persistance de la migration endothéliale en réponse à l’Ang-1. D’une manière intéressante, lors de l’inhibition de la PKCζ ou de la β-caténine on assiste à un changement du mode de migration en réponse à l’Ang-1 qui passe d’une migration directionnelle collective à une migration individuelle aléatoire. Ce dernier mode de migration est similaire à celui observé chez des cellules endothéliales exposées au VEGF. Ces résultats ont été corroborés in vivo par une polarité et une adhésion défectueuses au cours de la vasculogenèse chez le poisson zèbre déficient en PKCζ. En résumé, Ang-1/Tie2 module la signalisation et les réponses biologiques endothéliales déclenchées par le VEGF/VEGFR-2. L’identification des mécanismes moléculaires en aval de ces deux récepteurs, Tie2 et VEGFR-2, et la compréhension des différentes voies de signalisation activées par ces complexes moléculaires nous permettra de mettre la lumière sur des nouvelles cibles thérapeutiques pour le traitement des maladies angiogéniques.
Resumo:
«Construire hors limite: collisions fantastiques entre corps et machines dans la littérature fin-de-siècle française et anglaise» explore un ensemble de textes qui ont surgi à la fin du dix-neuvième siècle en réponse et en réaction à la fulgurante évolution de l’environnement scientifique et technologique, et qui considèrent la relation entre l’homme et la machine en fantasmant sur la zone grise où ils s’intersectent. Les principaux textes étudiés comprennent L’Ève future de Villiers de l’Isle-Adam, Le Surmâle d’Alfred Jarry, Trilby de George Du Maurier, Le Château des Carpathes de Jules Verne, ainsi qu’une sélection de contes dont nous pouvons qualifier de «contes à appareils», notamment «La Machine à parler» de Marcel Schwob. Utilisant la théorie des systèmes comme base méthodologique, cette dissertation cherche à réinterpréter les textes de la fin du dix-neuvième siècle qui naviguent les limites de l’humain et du mécanique et les surfaces sensibles où ils se touchent et interagissent en les réinscrivant dans un projet plus vaste de construction d’identité qui défie le temps chronologique et les échelles mathématiques. Le lien entre la théorie des systèmes et l’architecture – comme méthode d’organisation d’espace blanc en espace habitable – est exploré dans le but de comprendre la manière dont nous façonnons et interprétons le néant à l’origine de l’identité individuelle, et par association collective, en pratiquant littéralement la schématisation et la construction du corps. Des auteurs tels Villiers et Jarry imaginent la construction du corps comme une entreprise scientifique nécessairement fondée et réalisée avec les matériaux et les technologies disponibles, pour ensuite démanteler cette proposition en condamnant le corps technologique à la destruction. La construction d’une identité amplifiée par la technologie prend donc des proportions prométhéennes perpétuellement redessinées dans des actes cycliques de rasage (destruction) et d’érection (édification), et reflétées dans l’écriture palimpsestique du texte. L’intégrité du corps organique étant mis en question, le noyau même de ce que signifie l’être (dans son sens de verbe infinitif) humain pourrait bien s’avérer, si l’on considère la correspondance entre perte de voix et état pathologique dans les textes de Du Maurier, Verne et Schwob, être une structure des plus précaires, distinctement hors sens (unsound).
Resumo:
Cette étude exploratoire a pour but d’identifier les facteurs pouvant influencer l’implantation des adjoints au médecin dans le système de santé québécois, selon les perceptions de médecins omnipraticiens et de médecins spécialistes. La collecte de données pour cette étude qualitative s’est effectuée à l’aide d’entrevues semi-structurées effectuées auprès de 13 omnipraticiens et spécialistes provenant d’hôpitaux de Montréal et de la clinique médicale des Forces canadiennes de St-Jean (Québec). L’étude a démontré que des obstacles perçus, tels que le corporatisme et le manque d’information sur la profession, pourraient interférer avec l’intégration des adjoints au médecin au Québec. Cependant, les participants s’entendent pour dire que ces obstacles ne seraient pas insurmontables et ont, par la même occasion, identifié de nombreux éléments pouvant faciliter cette intégration. Les adjoints au médecin ont des compétences uniques et travaillent déjà dans d’autres provinces canadiennes qui ont un réseau de santé similaire au nôtre. Cette étude permet donc d’approfondir les connaissances à l’égard de cette profession, en plein essor au pays, dans l’éventualité d’une intégration de ce groupe professionnel au Québec.
Resumo:
Le réseau Internet s’avère être un outil important pour les juristes. Il rend possible la constitution d’une base de données juridiques, la création de revues de droit, la mise sur pied de forums de discussion sur les questions de droit, la diffusion d’ouvrages, etc. Le réseau Internet facilite les recherches en droit, car grâce aux bases des données, les juristes peuvent facilement accéder notamment aux textes légaux et réglementaires, à la jurisprudence et aux textes de doctrine. Cependant, Internet peut également servir à résoudre les conflits qui surviennent dans les rapports entre les internautes ou entre les internautes et les opérateurs du réseau Internet. La cyberjustice existe déjà, à petite échelle. L’on peut se permettre de mentionner le Centre de médiation et d’arbitrage de l’OMPI, le Virtual Magistrate, l’Online Ombuds Office, le CyberTribunal et le Règlement Uniforme de l’ICANN. S’il faut saluer les efforts qui ont abouti à l’existence de ces instances de cyberjustice, il convient pourtant de reconnaître leurs limites. En effet, ces diverses formes de cyberjustice ont un caractère privé et demeurent incapables d’assurer la répression des infractions. Ensuite, elles ne tiennent pas compte du déséquilibre des rapports entre télétravailleurs et employeurs, puisqu’elles reconnaissent à ces deux groupes des droits équivalents quant au choix de la juridiction et des règles applicables. Enfin, en l’état actuel de la cyberjustice, le sens de la justice est sacrifié à la célérité. Certains droits reconnus aux parties — celui de jouir d’un double degré de juridiction en particulier — sont ignorés. Ces faits montrent bien la nécessité de concevoir des modèles d’institutions plus appropriés en vue de l’instauration d’un certain ordre dans le réseau Internet. C’est dans cette optique que la présente étude offre quelques modèles de juridictions virtuelles, dont une juridiction virtuelle répressive.
Resumo:
Dans son texte, l’auteur tente de répondre à quatre grandes questions : le cadre juridique actuel qui régi la gestion des renseignements personnels dans le réseau de la santé et des services sociaux protège–t–il adéquatement ces données sensibles ? Peut–on tenter d’améliorer cette protection ? Quels facteurs contribuent à l’émergence des nouvelles normes ? Quel rôle les exigences techniques, les intérêts économiques et les considérations politiques jouent–ils dans l’émergence de ces nouvelles normes ? À l’égard de ces interrogations, l’auteur montre que le régime actuel, qui se distingue particulièrement par sa complexité et son opacité, ne protège pas adéquatement les renseignements personnels appelés à circuler dans l’univers numérique en émergence. Il examine donc les facteurs qui contribuent À l’émergence des nouvelles normes alors que les règles juridiques actuelles se trouvent en porte–à–faux par rapport aux développements technologiques. Par la suite, il tente de situer ou de mesurer l’influence des intérêts économiques, des considérations politiques et des impératifs techniques dans l’émergence de ces nouvelles normes. Finalement, il met de l’avant un concept nouveau, celui des aires de partage, qu’il présente comme un moyen de mieux protéger les renseignements personnels et confidentiels dans l’ère de l’information.
Resumo:
La création du droit, phénomène « mal connu » des sciences juridiques semble désormais entretenir une intimité problématique très forte avec le réseau Internet. Elle serait même au cœur du « grand bougé internétique » vers l’ère postmoderne. Ce nouvel espace juridique apparaît ainsi pour la création du droit un accélérateur réseautique, néanmoins respectueux du pluriel. Or, ce changement initié par Internet en entraîne un autre d’une ampleur tout aussi considérable : il force en effet les ordres juridiques à faire globalement évoluer leurs structures internes et les jette dans un univers où leur pertinence d’action est singulièrement réduite. Seul l’ordre juridique européen, en tant que première esquisse de l’Etat-réseau, y conserverait une certaine efficacité d’action faisant alors de lui un guide structurel à l’usage de ses congénères mis en difficulté.