980 resultados para Hyper-gravity
Resumo:
Sommaire L’oxygène fait partie intégrante de l’environnement et ceci jusqu’au fonctionnement même des structures cellulaires qui composent le corps humain. Deux systèmes sont intimement liés à la distribution de l’oxygène, ce sont les systèmes cardiovasculaire et respiratoire. La transparence du système optique de l’œil peut être exploitée afin de mesurer de façon non invasive la concentration en oxyhémoglobine du sang qui alimente le système nerveux central. L’oxygénation capillaire de l’œil a été mesurée par spectro-réflectométrie dans deux régions de l’œil: d’une part les capillaires de la zone du nerf optique qui représentent principalement la circulation rétinienne; d’autre part, les capillaires du limbe cornéen. Cinq sujets volontaires, non fumeurs, sains, âgés de 20 à 45 ans et cinq sujets volontaires, fumeurs, sains, âgés de 20 à 40 ans ont participé à cette étude. Tous ces sujets ont été exposés à des conditions d’hyper et d’hypo oxygénation. Une séance d’expérimentations était composée d’un enregistrement continu de 360 secondes. Durant la première étape de 60 secondes, le sujet respirait de l’air ambiant. Durant une deuxième étape de 180 secondes, le sujet était exposé soit à une condition d’hyper (60% O2) soit, à une condition d’hypo oxygénation (15% O2), tandis que les 120 dernières secondes de la séance de mesure permettait d’exposer le sujet, une fois de plus à l’air ambiant. Le rythme cardiaque et les changements d’oxygénation artérielle au niveau du doigt étaient mesurés pendant ce temps vec le sphygmo-oxymètre. Les variations du taux d’oxyhémoglobine du sang au niveau capillaire de l’œil (nerf optique ou sclérotique) étaient toujours en corrélation directe avec les variations du taux d’oxyhémoglobine artériel. Toutefois, les capillaires du nerf optique offrent plus de précision pour les mesures d’oxygénation, relativement aux mesures d’oxygénation du sang contenu dans les capillaires de la sclérotique. La précision de la mesure de la concentration d’oxyhémoglobine obtenue dans cette étude par spectro-réflectométrie de l’œil, en fait un instrument utile au diagnostic d’une grande partie des pathologies pulmonaires ou oculaires.
Resumo:
Nous présentons nos grilles de modèles d'atmosphères pour les étoiles sous-naines chaudes de type O (sdO) soit : des modèles classiques hors-ETL H, He, des modèles hors-ETL avec, en plus, du C, N, O et finalement des modèles incluant C, N, O, Fe. En utilisant les raies de Balmer et d'hélium dans le domaine du visible, nous avons fait des comparaisons entre les spectres théoriques de nos différentes grilles afin de caractériser les effets des métaux. On trouve que ces effets dépendent à la fois de la température et de la gravité. De plus, l'abondance d'hélium a une influence importante sur les effets des métaux; une abondance d'hélium faible (log N(He)/N(H) < -1,5) occasionne des effets assez importants alors qu'une abondance plus élevée tend à réduire ces mêmes effets. Nous avons aussi trouvé que l'ajout du fer (en abondance solaire) ne cause que des changements relativement faibles à la structure en température et, par le fait même, aux profils des raies d'hydrogène et d'hélium, par rapport aux changements déjà produits par le C, N, O (en abondance solaire). Nous avons utilisé nos grilles pour faire une analyse spectroscopique du spectre à haut signal sur bruit (180) et basse résolution (9 Å) de SDSS J160043.6+074802.9 obtenu au télescope Bok. Notre meilleure ajustement a été obtenu avec notre grille de spectres synthétiques incluant C, N, O et Fe en quantité solaire, menant aux paramètres suivants : Teff = 68 500 ± 1770 K, log g = 6,09 ± 0,07, and log N(He)/N(H) = -0,64 ± 0,05, où les incertitudes proviennent uniquement de la procédure d'ajustement. Ces paramètres atmosphériques, particulièrement la valeur de l'abondance d'hélium, placent notre étoile dans une région où les effets des métaux ne sont pas très marqués.
Resumo:
L’hypertension constitue un facteur majeur de risque de maladies cardiovasculaires et touche à un pourcentage important de la population humaine. Il s’agit d’une maladie complexe étant donné son caractère multifactoriel. La régulation de la pression artérielle (PA) est sous contrôle de plusieurs gènes, appelés loci pour traits quantitatifs ou QTL, et elle est le résultat de leur interaction. Étant donné que la PA est un trait quantitatif sous contrôle de plusieurs composantes comme les facteurs génétiques et environnementaux, l’étude de l’hypertension est limitée chez les populations humaines. Ainsi la stratégie principale pour l’étude de cette maladie est l’identification de QTL à PA chez des souches congéniques de rat construites à partir des lignées hyper- et normotendues; à savoir les souches Dahl salt-sensitive [1] et Lewis, respectivement. Des études précédentes dans notre laboratoire ont localisé trois QTL à PA au niveau du chromosome 18 chez le rat. Au cours de ce projet, de nouvelles sous-souches ont été construites afin de raffiner la cartographie de ces QTL. Ainsi, les C18QTL1, C18QTL3 et C18QTL4 ont été définis. Des analyses moléculaires ont été effectuées sur deux gènes candidats pour le C18QTL3; à savoir, Adrb2 et Nedd4l associés précédemment à l’hypertension. La comparaison des résultats de séquençage des régions régulatrices et codantes de ces deux gènes, ainsi que leur analyse d’expression par qRT-PCR chez les souches contrastantes DSS et Lewis, n’ont pas montré de différence significative pouvant expliquer la variation du phénotype observé. Des études plus poussées devront être effectuées sur ces deux gènes et, le cas échéant, l’analyse d’autres gènes contenus dans le C18QTL3 devra être entamée afin d’identifier le gène responsable de ce QTL.
Resumo:
La dérégulation du compartiment B est une conséquence importante de l’infection par le virus de l’immunodéficience humaine (VIH), qui peut mener à des manifestations autoimmunes et ultimement à des lymphomes B. Parmi les premières anomalies détectées, on dénote l’activation polyclonale, reflétée par la présence d’hyperglobulinémie (hyper-Ig) et des titres élevés d’autoanticorps chez les patients. On observe également une altération des dynamiques des populations, notamment une expansion de la population des cellules matures activées. De plus, les patients évoluent vers l’incapacité de générer une réponse humorale efficace, et sont sujets à une perte de la mémoire immunologique en phase chronique, caractérisée par une diminution de la population des cellules mémoires et par l’épuisement cellulaire. Toutefois, on connaît très peu les mécanismes impliqués dans de telles altérations. Les cellules dendritiques (DC) sont parmi les premières populations cellulaires à rencontrer et à propager le VIH lors d’une infection, et s’en trouvent affectées directement et indirectement, par le virus et ses composantes. On retrouve en effet une diminution des fréquences de DC dans le sang, les muqueuses et les organes lymphoïdes de patients infectés par le VIH, ainsi qu’un blocage au niveau de la maturation cellulaire. Toutefois, un débat perdure quant à l’apparition de ces altérations durant la phase aigüe de l’infection, et à la restauration des fréquences et des fonctions des DC chez les patients sous traitement. Cette controverse est due à la rareté des études longitudinales incluant des suivis qui s’échelonnent de la phase aigüe à la phase chronique de l’infection. Les DC jouent un rôle important dans le développement, la survie et l’activation des lymphocytes B, de façon T-dépendante et T-indépendante, notamment via des facteurs de croissance tel que BLyS (B lymphocyte stimulator). Par conséquent, nous formulons l’hypothèse que dans le cadre d’une infection VIH, les altérations observées au niveau des cellules B sont modulées par les DC. L’objectif majeur de cette étude est donc d’évaluer l’implication potentielle des DC dans les altérations des cellules B au cours de l’infection par le VIH. Pour ce faire, nous avons d’abord caractérisé de façon longitudinale le statut des populations de DC du sang périphérique de patients infectés au VIH et présentant différents types de progression de la maladie. Cela nous a permis d’évaluer la présence d’une corrélation entre les dynamiques de DC et le type de progression. Par la suite, nous avons évalué la capacité des DC à exprimer BLyS, puis mesuré sa concentration ainsi que celles d’autres facteurs de croissance des cellules B dans le plasma des patients. Enfin, nous avons caractérisé le statut des lymphocytes B, en fonction du stade de l’infection et du taux de progression clinique des patients. Cette étude démontre une diminution de la fréquence des populations de DC myéloïdes (mDC) dans le sang de patients infectés par le VIH sujets à une progression clinique. Cette diminution est observée dès le stade aigu de l’infection et au-delà du traitement antirétroviral (ART). Des concentrations élevées de MCP-1 (monocyte chemotactic protein), MIP (macrophage inflammatory protein) -3α et MIP-3β suggèrent la possibilité d’un drainage vers des sites périphériques. Nous observons également des niveaux supérieurs à la normale de précurseurs CD11c+CD14+CD16- en phase chronique, possiblement liés à une tendence de régénération des DC. Les patients en phase chronique présentent de hautes concentrations plasmatiques de BLyS, reflétée par un haut taux d’expression de cette cytokine par les mDC et leurs précurseurs. Parallèlement, nous observons une expansion des cellules B matures activées ainsi que des taux élevés d’IgG et IgA dans le sang de ces patients. De plus, nous constatons l’expansion d’une population de cellules B qui présente à la fois des caractéristiques de cellules B immatures transitionnelles (TI, transitional immature), et de cellules B recirculantes activées de la zone marginale (MZ, marginal zone), considérées ici comme des «précurseurs/activées de la MZ». Cette étude démontre aussi, chez les progresseurs lents, une meilleure préservation du compartiment des DC du sang périphérique, accompagnée d’une augmentation de précurseurs des DC de phénotype CD11c+CD14+CD16+, ainsi que des concentrations plasmatiques et niveaux d’expression normaux de BLyS. Conséquemment, nous n’avons pas observé d’augmentation des cellules B matures activées et des cellules B précurseurs/activées de la MZ. Toutefois, la fréquence des cellules B matures de la MZ est diminuée, reflétant possiblement leur recrutement vers des sites périphériques et leur contribution à un mécanisme actif de contrôle de la progression de la maladie. L’ensemble de ce travail suggère que dans le cadre d’une infection au VIH, les altérations observées au niveau des DC modulent les anomalies des cellules B. Par conséquent, le maintien de l’équilibre des fonctions DC, notamment les fonctions noninflammatoires, pourrait avoir un impact important dans la prévention de la progression de maladies associées aux altérations du compartiment des cellules B.
Resumo:
Les livres et programmes sur la petite-enfance se multiplient et, de plus en plus, l’accent est mis autant par les experts que l’État sur les premières années de la vie de l’enfant. Le regard semble davantage posé sur les compétences des parents pour privilégier le développement cognitif et moteur de leur progéniture, avec l’objectif de pouvoir éviter à cette dernière des trajectoires considérées comme « déviantes ». Ce regard atteint cependant différemment les parents d’une même société. Alors qu’il s’adresse à un groupe restreint de parents ne stimulant peut-être pas assez leurs enfants de la manière promulguée par l’État, certains auteurs mettent de l’avant une tendance d’autres parents à surstimuler leur enfant (Corwin, 2006; Guthrie et Matthews, 2002; Duclos, 2006; Proulx, 2004; Elkind, 1983; Honoré, 2008; Rosenfeld et Wise, 2000). Pour d’autres encore, cette injonction de « produire » un enfant « compétent » s’ajoute à des stress déjà présents tels que la pauvreté ou la pression au travail. La tendance à surstimuler, surprogrammer ou surautonomiser les enfants dans le but de « produire » des enfants « compétents » est qualifiée d’hyper-parentage, de parentage excessif ou de surparentage et n’est pas sans rappeler la course à la performance étudiée pour les adultes par Ehrenberg (2001[1991]) ou de Gaulejac (2005). En suivant ce dernier auteur ou Perrenoud (2008), pour qui la tendance à gérer la famille comme une entreprise proviendrait d’une « contagion » du monde du travail, cette recherche porte sur le lien entre la manière dont les parents envisagent le cheminement de leur enfant et leur propre expérience de travail, en comparaison avec les discours des experts et de l’État.
Resumo:
Les méthodes de vaccination actuelles contre l’influenza, axées sur la réponse à anticorps dirigée contre des antigènes hautement variables, nécessitent la production d’un vaccin pour chaque nouvelle souche. Le défi est maintenant de stimuler simultanément une réponse cellulaire pan-spécifique ciblant des antigènes conservés du virus, tel que la protéine de la matrice (M1) ou la nucléoprotéine (NP). Or, la présentation antigénique de ces protéines est peu définie chez l’humain. Nous avons analysé la présentation endogène par les complexes majeurs d’histocompatibilité de classes (CMH)-I et -II de M1 et de NP. Ainsi, les protéines M1 et NP ont été exprimées dans des cellules présentatrices d’antigènes (CPAs). Notamment, des épitopes de M1 et de NP endogènes peuvent être présentées par CMH-I et -II, ce qui résulte en une activation respectivement de lymphocytes T CD8+ et CD4+ précédemment isolés. Étant donné l’importance des lymphocytes T CD4+ dans la réponse cellulaire, nous avons cloné M1 ou NP en fusion avec des séquences de la protéine gp100 permettant la mobilisation vers les compartiments du CMH-II sans affecter la présentation par CMH-I. Des CPAs exprimant de façon endogène ces constructions modifiées ou sauvages ont ensuite été utilisées pour stimuler in vitro des lymphocytes T humains dont la qualité a été évaluée selon la production de cytokines et la présence de molécules de surface (ELISA ou marquage de cytokines intracellulaire). Nous avons observé une expansion de lymphocytes T CD8+ et CD4+ effecteurs spécifiques sécrétant diverses cytokines pro-inflammatoires (IFN-γ, TNF, MIP-1β) dans des proportions comparables avec une présentation par CMH-II basale ou améliorée. Cette qualité indépendante du niveau de présentation endogène par CMH-II de M1 et de NP des lymphocytes T CD4+ et CD8+ suggère que cette présentation est suffisante à court terme. En outre, la présentation endogène de M1 et NP a permis de stimuler des lymphocytes T spécifiques à des épitopes conservés du virus, tel qu’identifié à l’aide une méthode d’identification originale basée sur des segments d’ARNm, « mRNA PCR-based epitope chase (mPEC) ». Ensemble, ces nouvelles connaissances sur la présentation antigénique de M1 et de NP pourraient servir à établir de nouvelles stratégies vaccinales pan-spécifiques contre l’influenza.
Resumo:
L’exploitation sexuelle à des fins commerciales fait de plus en plus de victimes en Inde. Compte tenu de l’ampleur constatée du phénomène et de la gravité de ses multiples conséquences, notre recherche vise à mieux connaître et comprendre l’expérience vécue par les femmes se livrant à des activités sexuelles contre rémunération. Plus précisément, elle a comme objectifs de décrire le cheminement ayant conduit ces femmes à se livrer à de telles pratiques ainsi que leur réalité quotidienne et comment elles perçoivent leur situation pour ensuite être en mesure de formuler des propositions d’interventions préventives ou s’adressant aux femmes se livrant déjà à des activités sexuelles à des fins commerciales. Nous avons choisi de nous intéresser aux femmes vivant et se prostituant à la gare de Varanasi. Une approche qualitative a été privilégiée dans la réalisation de la recherche. Huit entrevues ont été réalisées avec des femmes et fillettes qui se prostituent à la gare, trois avec des intervenants sociaux y travaillant et l’observation in situ a permis d’enrichir le matériel recueilli. Ces prostituées sont souvent issues d’un milieu familial dysfonctionnel. C’est en situation de fuite ou d’abandon familial qu’elles s’installent à la gare. Il s’agit d’un endroit où les femmes sont en situation d’extrême vulnérabilité et où les conditions de vie sont misérables. Exposées aux dangers de la vie à la gare et accessibles aux proxénètes, la prostitution devient une option pour y survivre. Les besoins d’intervention auprès de ces femmes sont multiples et y répondre est complexe. Une approche favorisant la réduction des méfaits et la prévention paraît être les avenues à privilégier.
Resumo:
La technique de clonage par transfert nucléaire de cellules somatiques (SCNT) présente une page importante dans les annales scientifiques, mais son application pratique demeure incertaine dû à son faible taux de succès. Les anomalies placentaires et de développement fœtal se traduisent par des pertes importantes de gestation et des mortalités néonatales. Dans un premier temps, la présente étude a caractérisé les changements morphologiques des membranes fœtales durant la gestation clonée en les comparant à des gestations contrôles obtenues à partir de l’insémination artificielle. Les différentes anomalies morphologiques des placentomes telles que l’œdème chorioallantoique, la présence de zones hyperéchoiques et irrégulières dans la membrane amniotique et la présence de cellules inflammatoires dégénérées compromettent le développement fœtal normal de la gestation clonée. L’examen ultrasonographique représente une technique diagnostique importante pour faire le suivi d’une gestation et de caractériser les changements placentaires dans le cadre d’évaluation globale du bien-être fœtal. Le profil hormonal de trois stéroïdes (progestérone (P4), estrone sulfate (E1S), et œstradiol (E2)) et de la protéine B spécifique de gestation (PSPB) dans le sérum des vaches porteuses de clones SCNT a été déterminé et associé aux anomalies de gestations clonées. Une diminution de la P4 sérique au jour 80, une élévation du niveau de la concentration de la PSPB au jour 150, et une augmentation de la concentration d’E2 sérique durant le deuxième et troisième tiers de la gestation clonée coïncident avec les anomalies de gestation déjà reportées. Ces changements du profil hormonal associés aux anomalies phénotypiques du placenta compromettent le déroulement normal de la gestation clonée et gênent le développement et le bien-être fœtal. Sur la base des observations faites sur le placenta de gestation clonée, le mécanisme moléculaire pouvant expliquer la disparition de l’épithélium du placenta (l’interface entre le tissue maternel et le placenta) a été étudié. L’étude a identifié des changements dans l’expression de deux protéines d’adhérence (E-cadhérin et β-catenin) de cellules épithéliales pouvant être associées aux anomalies du placenta chez les gestations clonées. Le tissu de cotylédons provenant de gestations clonées et contrôles a été analysé par Western blot, RT-PCR quantitatif, et par immunohistochimie. Les résultats présentaient une diminution significative (p<0.05) de l’expression des dites protéines dans les cellules trophoblastiques chez les gestations clonées. Le RT-PCR quantitatif démontrait que les gènes CCND1, CLDN1 et MSX1 ciblés par la voie de signalisation de la Wnt/β-catenin étaient significativement sous exprimés. La diminution de l’expression des protéines E-cadherin et β-catenin avec une réduction de l’activation de la protéine β-catenin durant le période d’attachement de l’embryon peut potentiellement expliquer l’absence totale ou partielle de l’attachement des membranes fœtales au tissu maternel et éventuellement, l’insuffisance placentaire caractéristique des gestations clonées chez la vache. La caractérisation morphologique et fonctionnelle du placenta durant les gestations clonées à haut risque est essentielle pour évaluer le statut de la gestation. Les résultats de la présente étude permettront de prédire le développement et le bien-être fœtal de façon critique à travers un protocole standardisé et permettre des interventions médicales pour améliorer le taux de succès des gestations clonées chez les bovins.
Resumo:
La mesure traditionnelle de la criminalité (taux pour 100 000 habitants) pose problème dans l'analyse des variations de la criminalité dans le temps ou l'espace. Le problème est dû au fait que le taux de criminalité est essentiellement déterminé par des infractions moins graves et très fréquentes. La présente étude a permis de tester l’utilité du nouvel outil développé par Statistique Canada qui procure un index de « gravité de la criminalité » dans lequel chaque crime est pondéré par son score de gravité (basé sur les décisions sentencielles moyennes au Canada de 2002 à 2007 pour chaque forme de crime). Appliquées aux statistiques officielles du Québec de 1977 à 2008, nos analyses montrent que l’indice de gravité s’avère une mesure utile pour dresser un portrait plus juste des tendances des crimes violents d’une année à l’autre. Plus exactement, l’indice de gravité montre que le taux de crimes violents est demeuré stable de 1977 à 1992 contrairement à l'image fournie par le taux traditionnel qui montre plutôt une montée fulgurante durant cette période. L’indice de gravité peut également être utile à l’égard des crimes violents pour comparer plus adéquatement les territoires entre eux afin d’établir ceux qui présentent une criminalité plus grave. Cependant, à l’égard de la criminalité globale et des crimes sans violence, l’indice de gravité n’est d’aucune utilité et présente la même lecture de la criminalité que la mesure traditionnelle. Cela s’explique par le fait que ce sont toujours les mêmes infractions (les vols, les méfaits et les introductions par effraction) qui contribuent majoritairement à chacune des deux mesures de la criminalité.
Resumo:
Cette recherche vise à décrire 1) les erreurs lexicales commises en production écrite par des élèves francophones de 3e secondaire et 2) le rapport à l’erreur lexicale d’enseignants de français (conception de l’erreur lexicale, pratiques d’évaluation du vocabulaire en production écrite, modes de rétroaction aux erreurs lexicales). Le premier volet de la recherche consiste en une analyse d’erreurs à trois niveaux : 1) une description linguistique des erreurs à l’aide d’une typologie, 2) une évaluation de la gravité des erreurs et 3) une explication de leurs sources possibles. Le corpus analysé est constitué de 300 textes rédigés en classe de français par des élèves de 3e secondaire. L’analyse a révélé 1144 erreurs lexicales. Les plus fréquentes sont les problèmes sémantiques (30%), les erreurs liées aux propriétés morphosyntaxiques des unités lexicales (21%) et l’utilisation de termes familiers (17%). Cette répartition démontre que la moitié des erreurs lexicales sont attribuables à une méconnaissance de propriétés des mots autres que le sens et la forme. L’évaluation de la gravité des erreurs repose sur trois critères : leur acceptation linguistique selon les dictionnaires, leur impact sur la compréhension et leur degré d’intégration à l’usage. Les problèmes liés aux registres de langue sont généralement ceux qui sont considérés comme les moins graves et les erreurs sémantiques représentent la quasi-totalité des erreurs graves. Le troisième axe d’analyse concerne la source des erreurs et fait ressortir trois sources principales : l’influence de la langue orale, la proximité sémantique et la parenté formelle entre le mot utilisé et celui visé. Le second volet de la thèse concerne le rapport des enseignants de français à l’erreur lexicale et repose sur l’analyse de 224 rédactions corrigées ainsi que sur une série de huit entrevues menées avec des enseignants de 3e secondaire. Lors de la correction, les enseignants relèvent surtout les erreurs orthographiques ainsi que celles relevant des propriétés morphosyntaxiques des mots (genre, invariabilité, régime), qu’ils classent parmi les erreurs de grammaire. Les erreurs plus purement lexicales, c’est-à-dire les erreurs sémantiques, l’emploi de termes familiers et les erreurs de collocation, demeurent peu relevées, et les annotations des enseignants concernant ces types d’erreurs sont vagues et peu systématiques, donnant peu de pistes aux élèves pour la correction. L’évaluation du vocabulaire en production écrite est toujours soumise à une appréciation qualitative, qui repose sur l’impression générale des enseignants plutôt que sur des critères précis, le seul indicateur clair étant la répétition. Les explications des enseignants concernant les erreurs lexicales reposent beaucoup sur l’intuition, ce qui témoigne de certaines lacunes dans leur formation en lien avec le vocabulaire. Les enseignants admettent enseigner très peu le vocabulaire en classe au secondaire et expliquent ce choix par le manque de temps et d’outils adéquats. L’enseignement du vocabulaire est toujours subordonné à des tâches d’écriture ou de lecture et vise davantage l’acquisition de mots précis que le développement d’une réelle compétence lexicale.
Resumo:
Dans le domaine des neurosciences computationnelles, l'hypothèse a été émise que le système visuel, depuis la rétine et jusqu'au cortex visuel primaire au moins, ajuste continuellement un modèle probabiliste avec des variables latentes, à son flux de perceptions. Ni le modèle exact, ni la méthode exacte utilisée pour l'ajustement ne sont connus, mais les algorithmes existants qui permettent l'ajustement de tels modèles ont besoin de faire une estimation conditionnelle des variables latentes. Cela nous peut nous aider à comprendre pourquoi le système visuel pourrait ajuster un tel modèle; si le modèle est approprié, ces estimé conditionnels peuvent aussi former une excellente représentation, qui permettent d'analyser le contenu sémantique des images perçues. Le travail présenté ici utilise la performance en classification d'images (discrimination entre des types d'objets communs) comme base pour comparer des modèles du système visuel, et des algorithmes pour ajuster ces modèles (vus comme des densités de probabilité) à des images. Cette thèse (a) montre que des modèles basés sur les cellules complexes de l'aire visuelle V1 généralisent mieux à partir d'exemples d'entraînement étiquetés que les réseaux de neurones conventionnels, dont les unités cachées sont plus semblables aux cellules simples de V1; (b) présente une nouvelle interprétation des modèles du système visuels basés sur des cellules complexes, comme distributions de probabilités, ainsi que de nouveaux algorithmes pour les ajuster à des données; et (c) montre que ces modèles forment des représentations qui sont meilleures pour la classification d'images, après avoir été entraînés comme des modèles de probabilités. Deux innovations techniques additionnelles, qui ont rendu ce travail possible, sont également décrites : un algorithme de recherche aléatoire pour sélectionner des hyper-paramètres, et un compilateur pour des expressions mathématiques matricielles, qui peut optimiser ces expressions pour processeur central (CPU) et graphique (GPU).
Resumo:
Le but de cette thèse est de raffiner et de mieux comprendre l'utilisation de la méthode spectroscopique, qui compare des spectres visibles de naines blanches à atmosphère riche en hydrogène (DA) à des spectres synthétiques pour en déterminer les paramètres atmosphériques (température effective et gravité de surface). Notre approche repose principalement sur le développement de modèles de spectres améliorés, qui proviennent eux-mêmes de modèles d'atmosphère de naines blanches de type DA. Nous présentons une nouvelle grille de spectres synthétiques de DA avec la première implémentation cohérente de la théorie du gaz non-idéal de Hummer & Mihalas et de la théorie unifiée de l'élargissement Stark de Vidal, Cooper & Smith. Cela permet un traitement adéquat du chevauchement des raies de la série de Balmer, sans la nécessité d'un paramètre libre. Nous montrons que ces spectres améliorés prédisent des gravités de surface qui sont plus stables en fonction de la température effective. Nous étudions ensuite le problème de longue date des gravités élevées pour les DA froides. L'hypothèse de Bergeron et al., selon laquelle les atmosphères sont contaminées par de l'hélium, est confrontée aux observations. À l'aide de spectres haute résolution récoltés au télescope Keck à Hawaii, nous trouvons des limites supérieures sur la quantité d'hélium dans les atmosphères de près de 10 fois moindres que celles requises par le scénario de Bergeron et al. La grille de spectres conçue dans ces travaux est ensuite appliquée à une nouvelle analyse spectroscopique de l'échantillon de DA du SDSS. Notre approche minutieuse permet de définir un échantillon plus propre et d'identifier un nombre important de naines blanches binaires. Nous déterminons qu'une coupure à un rapport signal-sur-bruit S/N > 15 optimise la grandeur et la qualité de l'échantillon pour calculer la masse moyenne, pour laquelle nous trouvons une valeur de 0.613 masse solaire. Finalement, huit nouveaux modèles 3D de naines blanches utilisant un traitement d'hydrodynamique radiative de la convection sont présentés. Nous avons également calculé des modèles avec la même physique, mais avec une traitement standard 1D de la convection avec la théorie de la longueur de mélange. Un analyse différentielle entre ces deux séries de modèles montre que les modèles 3D prédisent des gravités considérablement plus basses. Nous concluons que le problème des gravités élevées dans les naines blanches DA froides est fort probablement causé par une faiblesse dans la théorie de la longueur de mélange.
Resumo:
Nous avons déjà démontré que les probiotiques réduisaient l'apoptose observée dans le système limbique après un infarctus du myocarde (IM), suggérant un rôle anti-dépresseur potentiel des probiotiques. Cette étude a été conçue pour déterminer si les probiotiques pouvaient atténuer le comportement dépressif observé après un infarctus du myocarde. Un autre objectif visait à démontrer qu’une altération de la barrière intestinale pourrait avoir lieu lors d’un IM et que les probiotiques pourraient empêcher cette altération de la perméabilité intestinale. Méthodes: Des rats mâles Sprague-Dawley ont reçu des probiotiques (1 milliard de cellules bactériennes vivantes de Lactobacillus helveticus R0052 et Bifidobacterium longum R0175) ou le véhicule tous les jours en dilution dans leur eau, débutant 1 semaine avant l'induction d'une ischémie myocardique. Un infarctus a ensuite été induit chez la moitié des rats, par l'occlusion de l'artère coronaire antérieure gauche (40 minutes) suivie d'une reperfusion. Les rats témoins, l'autre moitié de la cohorte, ont été soumis à la même procédure sans occlusion coronarienne. Une semaine après l'infarctus, les animaux ont été resoumis au traitement préalable jusqu'au moment du sacrifice. Le comportement dépressif a été évalué par trois tests soit: l'interaction sociale, le test de nage forcée et le test d'évitement passif. Résultats: Les résultats obtenus indiquent qu'en absence d'infarctus, les probiotiques n'ont pas d'effet significatif. Toutefois, en dépit de taille similaire IM, des rats traités avec des probiotiques, ont démontré davantage d'interactions sociales et une meilleure performance dans le test de nage forcée et d'évitement passif, comparativement à des rats du groupe IM sans probiotique (p<0,05). Conclusion: Les probiotiques atténuent le comportement dépressif observé après infarctus du myocarde par un mécanisme qui pourrait impliquer l'intégrité des intestins.
Resumo:
L’accident thromboembolique veineux, tel que la thrombose veineuse profonde (TVP) ou thrombophlébite des membres inférieurs, est une pathologie vasculaire caractérisée par la formation d’un caillot sanguin causant une obstruction partielle ou totale de la lumière sanguine. Les embolies pulmonaires sont une complication mortelle des TVP qui surviennent lorsque le caillot se détache, circule dans le sang et produit une obstruction de la ramification artérielle irriguant les poumons. La combinaison d’outils et de techniques d’imagerie cliniques tels que les règles de prédiction cliniques (signes et symptômes) et les tests sanguins (D-dimères) complémentés par un examen ultrasonographique veineux (test de compression, écho-Doppler), permet de diagnostiquer les premiers épisodes de TVP. Cependant, la performance de ces outils diagnostiques reste très faible pour la détection de TVP récurrentes. Afin de diriger le patient vers une thérapie optimale, la problématique n’est plus basée sur la détection de la thrombose mais plutôt sur l’évaluation de la maturité et de l’âge du thrombus, paramètres qui sont directement corrélées à ses propriétés mécaniques (e.g. élasticité, viscosité). L’élastographie dynamique (ED) a récemment été proposée comme une nouvelle modalité d’imagerie non-invasive capable de caractériser quantitativement les propriétés mécaniques de tissus. L’ED est basée sur l’analyse des paramètres acoustiques (i.e. vitesse, atténuation, pattern de distribution) d’ondes de cisaillement basses fréquences (10-7000 Hz) se propageant dans le milieu sondé. Ces ondes de cisaillement générées par vibration externe, ou par source interne à l’aide de la focalisation de faisceaux ultrasonores (force de radiation), sont mesurées par imagerie ultrasonore ultra-rapide ou par résonance magnétique. Une méthode basée sur l’ED adaptée à la caractérisation mécanique de thromboses veineuses permettrait de quantifier la sévérité de cette pathologie à des fins d’amélioration diagnostique. Cette thèse présente un ensemble de travaux reliés au développement et à la validation complète et rigoureuse d’une nouvelle technique d’imagerie non-invasive élastographique pour la mesure quantitative des propriétés mécaniques de thromboses veineuses. L’atteinte de cet objectif principal nécessite une première étape visant à améliorer les connaissances sur le comportement mécanique du caillot sanguin (sang coagulé) soumis à une sollicitation dynamique telle qu’en ED. Les modules de conservation (comportement élastique, G’) et de perte (comportement visqueux, G’’) en cisaillement de caillots sanguins porcins sont mesurés par ED lors de la cascade de coagulation (à 70 Hz), et après coagulation complète (entre 50 Hz et 160 Hz). Ces résultats constituent les toutes premières mesures du comportement dynamique de caillots sanguins dans une gamme fréquentielle aussi étendue. L’étape subséquente consiste à mettre en place un instrument innovant de référence (« gold standard »), appelé RheoSpectris, dédié à la mesure de la viscoélasticité hyper-fréquence (entre 10 Hz et 1000 Hz) des matériaux et biomatériaux. Cet outil est indispensable pour valider et calibrer toute nouvelle technique d’élastographie dynamique. Une étude comparative entre RheoSpectris et la rhéométrie classique est réalisée afin de valider des mesures faites sur différents matériaux (silicone, thermoplastique, biomatériaux, gel). L’excellente concordance entre les deux technologies permet de conclure que RheoSpectris est un instrument fiable pour la mesure mécanique à des fréquences difficilement accessibles par les outils actuels. Les bases théoriques d’une nouvelle modalité d’imagerie élastographique, nommée SWIRE (« shear wave induced resonance dynamic elastography »), sont présentées et validées sur des fantômes vasculaires. Cette approche permet de caractériser les propriétés mécaniques d’une inclusion confinée (e.g. caillot sanguin) à partir de sa résonance (amplification du déplacement) produite par la propagation d’ondes de cisaillement judicieusement orientées. SWIRE a également l’avantage d’amplifier l’amplitude de vibration à l’intérieur de l’hétérogénéité afin de faciliter sa détection et sa segmentation. Finalement, la méthode DVT-SWIRE (« Deep venous thrombosis – SWIRE ») est adaptée à la caractérisation de l’élasticité quantitative de thromboses veineuses pour une utilisation en clinique. Cette méthode exploite la première fréquence de résonance mesurée dans la thrombose lors de la propagation d’ondes de cisaillement planes (vibration d’une plaque externe) ou cylindriques (simulation de la force de radiation par génération supersonique). DVT-SWIRE est appliquée sur des fantômes simulant une TVP et les résultats sont comparés à ceux donnés par l’instrument de référence RheoSpectris. Cette méthode est également utilisée avec succès dans une étude ex vivo pour l’évaluation de l’élasticité de thromboses porcines explantées après avoir été induites in vivo par chirurgie.
Resumo:
Cette étude est consacrée à l’université publique marocaine. Elle se situe dans le champ de l’enseignement supérieur public. Les chercheurs du secteur universitaire au Maroc qualifient la gestion de l’enseignement supérieur de centralisée, bureaucratisée, rigide et incapable de trouver des réponses efficaces à la société. L’université publique marocaine vit une crise : elle a fait l’objet de nombreux critiques sur la nature des services universitaires. Sur le plan académique, elle est inappropriée pour faire face à la demande sociale en matière de l’enseignement universitaire. Sur le plan interne, elle est inadaptée à cause de dysfonctionnement pédagogie, organisationnel et administratif. L’université publique n’a pas été apte à s’adapter au secteur privé en créant des débouchés viables pour ses diplômés. Devant la gravité de la situation de l’enseignement supérieur public marocain, une Commission Royale Spéciale a été créée, dont le mandat était de trouver une meilleure façon de rationaliser le système universitaire. C’est ainsi qu’en 1999, la Commission a établi une Charte nationale de l’éducation et de la formation. Les premiers éléments de la nouvelle réforme ont été mis en application dès la rentrée universitaire 2003-2004. Cette nouvelle réforme est perçue comme un moyen d’améliorer le fonctionnement des établissements universitaires publics. Son objectif principal est de réformer d’une manière globale le système universitaire public. Dans les recherches qui se sont intéressées à la réforme de l’université publique marocaine, nous avons constaté qu’il y a une absence de documentation en ce qui trait aux réactions des acteurs universitaires et professionnels face aux orientations de cette réforme. Dans le but d’apporter des éclaircissements, nous nous sommes fixé un double objectif : déterminer, à partir de la perception d’acteurs universitaires, les effets des orientations de la nouvelle réforme et de ses modalités; connaître les changements organisationnels et leurs exigences. La stratégie de recherche répondant le mieux à notre double objectif était la recherche exploratoire. La démarche que nous avons privilégiée fut celle d’une première étude avant l’implantation de la nouvelle réforme et d’une autre après trois semestres de son implantation. Les questions qui ont soutenu notre recherche sont les suivantes : les attitudes des acteurs universitaires ont-elles été modifiées par l’introduction de la nouvelle réforme? Si oui, dans quel sens ont-elles été modifiées? Est-ce que la nouvelle réforme a modifié les pratiques pédagogiques et financières dans le sens indiqué par la charte? Quelles formes de contribution des acteurs universitaires peuvent-ils apporter à une implantation efficace de la nouvelle réforme? Parmi les quatorze universités publiques que compte le Maroc, nous avons choisi l’Université Mohammed V de Rabat-Salé. Cet établissement est l'une des universités les plus anciennes au Maroc. Elle est caractérisée par un nombre significatif de départements qui ont un potentiel de recherche et une réputation nationale. Aucune université ne dispose d’autant de facultés et de différentes disciplines : lettres, sciences, économie, droit, médecine et pharmacie, médecine dentaire, ingénierie, technologie et autres. La démarche méthodologique retenue est axée sur des entrevues auprès des acteurs universitaires et professionnels de trois facultés : 1) faculté des Lettres et Sciences humaines, 2) faculté des Sciences juridiques, économiques et sociales, 3) faculté des Sciences. Celles-ci sont considérées comme des facultés pilotes par rapport à la nouvelle réforme. Nous avons entrepris deux séries d’entrevues : la première en 2001 avant l’implantation de la nouvelle réforme de l’université et la deuxième en 2005 après son implantation. Nous avons mené au total quarante-cinq (45) entrevues qui se sont déroulées en deux périodes : la première a eu lieu entre décembre 2000 et janvier 2001 et la deuxième entre décembre 2004 et janvier 2005. Lors de la première série d’entrevues, notre protocole était composé de questions spécifiques portant sur les initiatives inhérentes à la mise en application d’un système modulaire, sur les procédures pour restructurer la formation universitaire publique, sur le développement de projets spéciaux et de matériel didactique en rapport avec le nouveau système pédagogique et sur les propositions et les procédures pour la participation de l’université au marché du travail. Nous avons aussi posé des questions concernant les aspects financiers. Enfin, pour mieux comprendre le contexte, des questions portaient sur les évaluations et les recommandations de la nouvelle réforme de l’université publique. Au cours de la deuxième période d’entrevues, nous avons recueilli des données sur le soutien du département au pilotage des objectifs de la nouvelle réforme universitaire, le soutien des instances professionnelles à l’avancement de la réforme, la coopération des enseignants au plan de l’avancement des pratiques pédagogiques et les conditions nécessaires à une implantation efficace. Les réponses obtenues auprès des acteurs universitaires et professionnels ont été soumises à une analyse de contenu. Nous avons opté pour le modèle politique comme cadre conceptuel de notre recherche. Ce modèle nous a aidés à montrer l’importance des acteurs universitaires et professionnels dans les démarches pour l’application de la nouvelle réforme. Il nous a aidés également à comprendre comment les caractéristiques de la communauté universitaire peuvent faciliter ou bloquer la réussite de la réforme en cours. Cette recherche montre dans quelle mesure les objectifs de la nouvelle réforme fixés par la Commission Royale Spéciale sont en voie de réalisation. En ce sens, notre recherche pourrait être utile au plan national marocain : elle pourrait aider les responsables politiques et les administrateurs universitaires à prendre des décisions appropriées au processus d’implantation de la nouvelle réforme universitaire.