986 resultados para Taux de bonnes réponses
Resumo:
En salle d’opération, les tâches de l’anesthésiste sont nombreuses. Alors que l’utilisation de nouveaux outils technologiques l’informe plus fidèlement sur ce qui se passe pour son patient, ces outils font que ses tâches deviennent plus exigeantes. En vue de diminuer cette charge de travail, nous avons considérer l’administration automatique d’agents anesthésiques en se servant de contrôle en boucle fermée. À cette fin, nous avons développé un système d’administration d’un agent anesthésique (le propofol) visant à maintenir à un niveau optimal la perte de conscience du patient pendant toute la durée d’une chirurgie. Le système comprend un ordinateur, un moniteur d’anesthésie et une pompe de perfusion. L’ordinateur est doté d’un algorithme de contrôle qui, à partir d’un indice (Bispectral IndexTM ou BIS) fournit par le moniteur d’anesthésie détermine le taux d’infusion de l’agent anesthésiant. Au départ, l’anesthésiste choisit une valeur cible pour la variable de contrôle BIS et l’algorithme, basé sur système expert, calcule les doses de perfusion de propofol de sorte que la valeur mesurée de BIS se rapproche le plus possible de la valeur cible établie. Comme interface-utilisateur pour un nouveau moniteur d’anesthésie, quatre sortes d’affichage ont été considérés: purement numérique, purement graphique, un mélange entre graphique et numérique et un affichage graphique intégré (soit bidimensionnel). À partir de 20 scenarios différents où des paramètres normaux et anormaux en anesthésie étaient présentés à des anesthésistes et des résidents, l’étude des temps de réaction, de l’exactitude des réponses et de la convivialité (évaluée par le NASA-TLX) a montré qu’un affichage qui combine des éléments graphiques et numériques était le meilleur choix comme interface du système. Une étude clinique a été réalisée pour comparer le comportement du système d’administration de propofol en boucle fermée comparativement à une anesthésie contrôlée de façon manuelle et conventionnelle où le BIS était aussi utilisé. Suite à l’approbation du comité d’éthique et le consentement de personnes ayant à subir des chirurgies générales et orthopédiques, 40 patients ont été distribués également et aléatoirement soit dans le Groupe contrôle, soit dans le Groupe boucle fermée. Après l’induction manuelle de propofol (1.5 mg/kg), le contrôle en boucle fermée a été déclenché pour maintenir l’anesthésie à une cible de BIS fixée à 45. Dans l’autre groupe, le propofol a été administré à l’aide d’une pompe de perfusion et l’anesthésiste avait aussi à garder manuellement l’indice BIS le plus proche possible de 45. En fonction du BIS mesuré, la performance du contrôle exercé a été définie comme excellente pendant les moments où la valeur du BIS mesurée se situait à ±10% de la valeur cible, bonne si comprise de ±10% à ±20%, faible si comprise de ±20% à ±30% ou inadéquate lorsque >±30%. Dans le Groupe boucle fermée, le système a montré un contrôle excellent durant 55% du temps total de l’intervention, un bon contrôle durant 29% du temps et faible que pendant 9% du temps. Le temps depuis l’arrêt de la perfusion jusqu’à l’extubation est de 9 ± 3.7 min. Dans le Groupe contrôle, un contrôle excellent, bon, et faible a été enregistré durant 33%, 33% et 15% du temps respectivement et les doses ont été changées manuellement par l’anesthésiste en moyenne 9.5±4 fois par h. L’extubation a été accomplie après 11.9 ± 3.3 min de l’arrêt de la perfusion. Dans le Groupe boucle fermée, un contrôle excellent a été obtenu plus longtemps au cours des interventions (P<0.0001) et un contrôle inadéquat moins longtemps (P=0.001) que dans le Groupe contrôle. Le système en boucle fermée d’administration de propofol permet donc de maintenir plus facilement l’anesthésie au voisinage d’une cible choisie que l’administration manuelle.
Resumo:
Au premier trimestre 2009, le normalisateur mondial de la profession comptable (International Federation of Accountants) a publié deux documents destinés à apporter une aide aux professionnels de la comptabilité et de la finance sur leur prise en compte du développement durable et des parties prenantes d’une entreprise. En premier lieu, l’International Federation of Accountants propose un cadre d’analyse durable. Outil destiné aux comptables et financiers, il vise à faire de ces derniers un maillon essentiel du développement de nouvelles pratiques favorisant une performance économique, sociale et environnementale des entreprises. En second lieu, l’International Federation of Accountants vient de diffuser un guide international des bonnes pratiques en matière de gouvernance d’entreprise complétant les codes de gouvernance existant et ayant pour objectif d’inscrire les entreprises dans une approche stakeholder. A l’heure où la crise financière se fait ressentir et où la finance se trouve décriée pour s’être focalisée sur la valeur actionnariale, la position de l’International Federation of Accountants est révélatrice d’un changement de paradigme non sans conséquence pour la comptabilité, la finance et le droit.
Resumo:
Cette recherche porte sur le financement public de l’enseignement supérieur au Pérou et ses impacts dans une perspective longitudinale couvant la période 1993-2003. Cette période est importante parce qu’elle a été témoin, dans ce pays, de changements majeurs aux plans du financement public et de la configuration du système d’enseignement supérieur. La recherche consiste principalement dans des analyses secondaires de données pertinentes publiées par des organismes nationaux et internationaux. Les analyses sont structurées à partir d’un schéma d’inputs et outputs. On considère comme inputs les ressources financières et les ressources humaines, lesquelles comprennent les professeurs et les étudiants, et comme outputs les taux de diplomation (efficacité interne) et la demande de diplômés par le marché du travail (efficacité externe). La théorie de la dépendance de ressources sert de cadre pour interpréter les rapports entre le financement public et ses incidences sur les réponses institutionnels et ses conséquences. Dans la période retenue, le financement du secteur public a décru de 32% en raison d’un désengagement progressif de l’État. Une conséquence majeure de la diminution du financement public a été la croissance rapide du secteur privé de l’enseignement supérieur. En effet, alors qu’en 1993 il y avait 24 institutions privées d’enseignement supérieur, il y en avait, en 2003, 46 institutions. La baisse du financement public et la croissance du secteur privé d’enseignement supérieur ont eu des incidences sur la sélectivité des étudiants, sur le statut des professeurs, sur l’implication des universités en recherche et sur les taux de diplomation. Le taux de sélectivité dans le secteur public a augmenté entre 1993 et 2003, alors que ce taux a diminué, dans la même période, dans le secteur privé. Ainsi, le secteur public répond à la diminution du financement en restreignant l’accès à l’enseignement supérieur. Le secteur privé, par contre, diminue sa sélectivité compensant ainsi l’augmentation de la sélectivité dans le secteur public et, par le fait même, augmente sa part de marché. Également, tant dans le secteur public que dans le secteur privé, les professeurs sont engagés principalement sur une base temporaire, ce qui se traduit, particulièrement dans le secteur privé, dans un moindre engagement institutionnel. Enfin, les universités publiques et privées du Pérou font peu de recherche, car elles favorisent, pour balancer leurs budgets, la consultation et les contrats au détriment de la recherche fondamentale. Paradoxalement, alors que, dans le secteur privé, les taux de sélectivité des étudiants diminuent, leurs taux de diplomation augmentent plus que dans le secteur public. Enfin, les formations avec plus d’étudiants inscrits, tant dans le secteur public que privé, sont les moins coûteuses en infrastructure et équipements. Dès lors, la pertinence de la production universitaire devient problématique. Cette recherche révèle que les organisations universitaires, face à un environnement où les ressources financières deviennent de plus en plus rares, développent des stratégies de survie qui peuvent avoir des incidences sur la qualité et la pertinence de l’enseignement supérieur.
Resumo:
L’épidémie du VIH-1 dure maintenant depuis plus de 25 ans. La grande diversité génétique de ce virus est un obstacle majeur en vue de l’éradication de cette pandémie. Au cours des années, le VIH-1 a évolué en plus de cinquante sous-types ou formes recombinantes. Cette diversité génétique est influencée par diverses pressions de sélection, incluant les pressions du système immunitaire de l’hôte et les agents antirétroviraux (ARV). En effet, bien que les ARV aient considérablement réduit les taux de morbidité et de mortalité, en plus d’améliorer la qualité et l’espérance de vie des personnes atteintes du VIH-1, ces traitements sont complexes, dispendieux et amènent leur lot de toxicité pouvant mener à des concentrations plasmatiques sous-optimales pour contrôler la réplication virale. Ceci va permettre l’émergence de variantes virales portant des mutations de résistance aux ARV. Ce phénomène est encore plus complexe lorsque l’on prend en considération l’immense diversité génétique des différents sous-types. De plus, le virus du VIH est capable de persister sous forme latente dans diverses populations cellulaires, rendant ainsi son éradication extrêmement difficile. Des stratégies pouvant restreindre la diversité virale ont donc été préconisées dans le but de favoriser les réponses immunes de l’hôte pour le contrôle de l’infection et d’identifier des variantes virales offrant une meilleure cible pour des stratégies vaccinales ou immunothérapeutiques. Dans cet esprit, nous avons donc étudié, chez des sujets infectés récemment par le VIH-1, l’effet du traitement ARV précoce sur la diversité virale de la région C2V5 du gène enveloppe ainsi que sur la taille des réservoirs. En deuxième lieu, nous avons caractérisé la pression de sélection des ARV sur des souches virales de sous types variés non-B, chez des patients du Mali et du Burkina Faso afin d’évaluer les voies d’échappement viral dans un fond génétique différent du sous-type B largement prévalent en Amérique du Nord. Notre étude a démontré la présence d’une population virale très homogène et peu diversifiée dans les premières semaines suivant l’infection, qui évolue pour atteindre une diversification de +0,23% à la fin de la première année. Cette diversification est plus importante chez les sujets n’ayant pas initié de traitement. De plus, ceci s’accompagne d’un plus grand nombre de particules virales infectieuses dans les réservoirs viraux des cellules mononucléées du sang périphérique (PBMC) chez ces sujets. Ces résultats suggèrent que l’initiation précoce du traitement pourrait avoir un effet bénéfique en retardant l’évolution virale ainsi que la taille des réservoirs, ce qui pourrait supporter une réponse immune mieux ciblée et potentiellement des stratégies immunothérapeutiques permettant d’éradiquer le virus. Nous avons également suivi 801 sujets infectés par des sous-types non-B sur le point de débuter un traitement antirétroviral. Bien que la majorité des sujets ait été à un stade avancé de la maladie, plus de 75% des individus ont obtenu une charge virale indétectable après 6 mois d’ARV, témoignant de l’efficacité comparable des ARV sur les sous-types non-B et B. Toutefois, contrairement aux virus de sous-type B, nous avons observé différentes voies moléculaires de résistance chez les sous type non-B, particulièrement chez les sous-types AGK/AK/K pour lesquels les voies de résistances étaient associées de façon prédominante aux TAM2. De plus, bien que la divergence entre les virus retrouvés chez les patients d’une même région soit faible, nos analyses phylogénétiques ont permis de conclure que ces mutations de résistance se sont produites de novo et non à partir d’un ancêtre commun porteur de résistance. Cependant, notre dernière étude au Mali nous a permis d’évaluer la résistance primaire à près de 10% et des études phylogénétiques seront effectuées afin d’évaluer la circulation de ces souches résistantes dans la population. Ces études suggèrent qu’un contrôle de la réplication virale par les ARV peut freiner la diversité du VIH et ainsi ouvrir la voie à un contrôle immunologique ciblé, utilisant de nouvelles stratégies vaccinales ou immunothérapeutiques. Toutefois, une thérapie antirétrovirale sous-optimale (adhérence, toxicité) peut conduire à l’échappement virologique en favorisant l’émergence et la dissémination de souches résistantes.
Resumo:
Les temps de réponse dans une tache de reconnaissance d’objets visuels diminuent de façon significative lorsque les cibles peuvent être distinguées à partir de deux attributs redondants. Le gain de redondance pour deux attributs est un résultat commun dans la littérature, mais un gain causé par trois attributs redondants n’a été observé que lorsque ces trois attributs venaient de trois modalités différentes (tactile, auditive et visuelle). La présente étude démontre que le gain de redondance pour trois attributs de la même modalité est effectivement possible. Elle inclut aussi une investigation plus détaillée des caractéristiques du gain de redondance. Celles-ci incluent, outre la diminution des temps de réponse, une diminution des temps de réponses minimaux particulièrement et une augmentation de la symétrie de la distribution des temps de réponse. Cette étude présente des indices que ni les modèles de course, ni les modèles de coactivation ne sont en mesure d’expliquer l’ensemble des caractéristiques du gain de redondance. Dans ce contexte, nous introduisons une nouvelle méthode pour évaluer le triple gain de redondance basée sur la performance des cibles doublement redondantes. Le modèle de cascade est présenté afin d’expliquer les résultats de cette étude. Ce modèle comporte plusieurs voies de traitement qui sont déclenchées par une cascade d’activations avant de satisfaire un seul critère de décision. Il offre une approche homogène aux recherches antérieures sur le gain de redondance. L’analyse des caractéristiques des distributions de temps de réponse, soit leur moyenne, leur symétrie, leur décalage ou leur étendue, est un outil essentiel pour cette étude. Il était important de trouver un test statistique capable de refléter les différences au niveau de toutes ces caractéristiques. Nous abordons la problématique d’analyser les temps de réponse sans perte d’information, ainsi que l’insuffisance des méthodes d’analyse communes dans ce contexte, comme grouper les temps de réponses de plusieurs participants (e. g. Vincentizing). Les tests de distributions, le plus connu étant le test de Kolmogorov- Smirnoff, constituent une meilleure alternative pour comparer des distributions, celles des temps de réponse en particulier. Un test encore inconnu en psychologie est introduit : le test d’Anderson-Darling à deux échantillons. Les deux tests sont comparés, et puis nous présentons des indices concluants démontrant la puissance du test d’Anderson-Darling : en comparant des distributions qui varient seulement au niveau de (1) leur décalage, (2) leur étendue, (3) leur symétrie, ou (4) leurs extrémités, nous pouvons affirmer que le test d’Anderson-Darling reconnait mieux les différences. De plus, le test d’Anderson-Darling a un taux d’erreur de type I qui correspond exactement à l’alpha tandis que le test de Kolmogorov-Smirnoff est trop conservateur. En conséquence, le test d’Anderson-Darling nécessite moins de données pour atteindre une puissance statistique suffisante.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
L’insuline est une hormone essentielle qui induit des réponses complexes dans l’organisme pour maintenir l’homéostasie du glucose et des lipides. La résistance à son action est un phénomène pathologique observé dans un large éventail de situations, allant de l’obésité et du syndrome métabolique à la stéatose hépatique et au diabète de type 2, qui aboutissent au développement de l’athérosclérose et de la mortalité. Des avancées remarquables ont été réalisées dans notre compréhension des mécanismes moléculaires responsables du développement de la résistance à l’action de l’insuline. En particulier, l’induction d’un stress cellulaire par des taux élevés d’acides gras libres (AGL) et des cytokines, via l’activation des protéines Ser/Thr kinases, qui augmente la phosphorylation sur des résidus sérine, des molécules critiques impliquées dans la signalisation insulinique (p. ex. IR, IRS et p85) et conduit à la diminution de la réponse cellulaire à l’insuline. Cependant, la plupart des chercheurs ont limité leur travail dans l’investigation du rôle des protéines kinases susceptibles de modifier la réponse cellulaire à l’insuline. Donc, peu de données sont disponibles sur le rôle des Protéines Ser/Thr phosphatases (PS/TPs), même si il est bien établi que la phosphorylation de ces protéines est étroitement régulée par un équilibre entre les activités antagonistes des Ser/Thr kinases et des PS/TPs. Parmi les PS/TPS, PPM1A (également connu sous le nom PP2Cα) est une phosphatase particulièrement intéressante puisqu’il a été suggéré qu’elle pourrait jouer un rôle dans la régulation du métabolisme lipidique et du stress cellulaire. Ainsi, en se basant sur des résultats préliminaires de notre laboratoire et des données de la littérature, nous avons émis l’hypothèse selon laquelle PPM1A pourrait améliorer la sensibilité à l’insuline en diminuant l’activité des protéines kinases qui seraient activées par le stress cellulaire induit par l’augmentation des AGL. Ces effets pourraient finalement améliorer le métabolisme glucidique et lipidique dans l’hépatocyte. Ainsi, pour révéler le rôle physiologique de PPM1A à l’échelle d’un animal entier, nous avons généré un modèle animal qui la surexprime spécifiquement dans le foie. Nous décrivons ici notre travail afin de générer ce modèle animal ainsi que les premières analyses pour caractériser le phénotype de celui-ci. Tout d’abord, nous avons remarqué que la surexpression de PPM1A chez les souris C57BL/6J n’a pas d’effets sur le gain de poids sur une longue période. Deuxièmement, nous avons observé que PPM1A a peu d’effets sur l’homéostasie du glucose. Par contre, nous avons montré que sa surexpression a des effets significatifs sur l’homéostasie du glycogène et des triglycérides. En effet, nous avons observé que le foie des souris transgéniques contient moins de glycogène et de triglycérides que le foie de celles de type sauvage. De plus, nos résultats suggèrent que les effets de la surexpression de PPM1A pourraient refléter son impact sur la synthèse et la sécrétion des lipides hépatiques puisque nous avons observé que sa surexpression conduit à l’augmentation la triglycéridémie chez les souris transgéniques. En conclusion, nos résultats prouvent l’importance de PPM1A comme modulateur de l’homéostasie hépatique du glucose et des lipides. Des analyses supplémentaires restent cependant nécessaires pour confirmer ceux-ci et éclaircir l’impact moléculaire de PPM1A et surtout pour identifier ses substrats.
Resumo:
L'application de classifieurs linéaires à l'analyse des données d'imagerie cérébrale (fMRI) a mené à plusieurs percées intéressantes au cours des dernières années. Ces classifieurs combinent linéairement les réponses des voxels pour détecter et catégoriser différents états du cerveau. Ils sont plus agnostics que les méthodes d'analyses conventionnelles qui traitent systématiquement les patterns faibles et distribués comme du bruit. Dans le présent projet, nous utilisons ces classifieurs pour valider une hypothèse portant sur l'encodage des sons dans le cerveau humain. Plus précisément, nous cherchons à localiser des neurones, dans le cortex auditif primaire, qui détecteraient les modulations spectrales et temporelles présentes dans les sons. Nous utilisons les enregistrements fMRI de sujets soumis à 49 modulations spectro-temporelles différentes. L'analyse fMRI au moyen de classifieurs linéaires n'est pas standard, jusqu'à maintenant, dans ce domaine. De plus, à long terme, nous avons aussi pour objectif le développement de nouveaux algorithmes d'apprentissage automatique spécialisés pour les données fMRI. Pour ces raisons, une bonne partie des expériences vise surtout à étudier le comportement des classifieurs. Nous nous intéressons principalement à 3 classifieurs linéaires standards, soient l'algorithme machine à vecteurs de support (linéaire), l'algorithme régression logistique (régularisée) et le modèle bayésien gaussien naïf (variances partagées).
Resumo:
L’infection par le VIH-1 est caractérisée par une déplétion progressive des cellules T CD4+ ainsi que par un dysfonctionnement des cellules T qui, en l’absence de traitements anti-rétroviraux, conduit inéluctablement à la progression de la maladie vers le stade SIDA. Certains des mécanismes impliqués dans ce dysfonctionnement de la réponse cellulaire T ont été élucidés et ont révélé un rôle important de la molécule PD-1 dans l’exhaustion des cellules T en phase chronique de l’infection. En effet, des niveaux élevés de PD-1 ont été associés à une charge virale élevée ainsi qu’à une diminution de la production de cytokines et de la capacité de proliférer des cellules T spécifiques du virus. De plus, bloquer in vitro l’interaction de PD-1 avec son ligand PD-L1 en utilisant un anticorps bloquant rétabli la fonction de ces cellules. De façon intéressante, notre groupe ainsi que d’autres équipes, ont montré que l’expression de PD-1 était non seulement augmentée sur les cellules spécifiques de l’antigène mais aussi sur les cellules T totales. Cependant, peu de choses sont connues quant à l’impact de l’expression de PD-1 sur le renouvellement et la différenciation des cellules T qui expriment PD-1, et ce au cours de l’infection. L’expression de PD-1 n’a notamment pas été étudiée en phase aigue de l’infection. Nous montrons clairement que, aussi bien chez les individus en phase aigue qu’en phase chronique de l’infection, l’expression de PD-1 est augmentée sur toutes les sous-populations T, y compris les cellules naïves. Nous avons également mis en relief une distribution anormale des sous-populations T, ces cellules ayant un phénotype plus différencié, et ce à tous les stades de la maladie. Dans cette thèse, nous discutons le rôle possible de PD-1 dans l’homéostasie des cellules T chez les individus infectés par le VIH-1. En étudiant la transition de la phase aigue à la phase chronique de l’infection, nous avons trouvé que les sous-populations T CD8+ des individus récemment infectés exprimaient moins de PD-1 que celles des individus à un stade plus avancé de la maladie. Ces niveaux plus élevés de PD-1 sur les cellules T CD8+ en phase chronique sont associés à des niveaux réduits de prolifération in vivo – comme mesuré par l’expression de Ki67 – suggérant que l’expression de PD-1 est partiellement impliquée dans cette perte de fonction des cellules T CD8+. De plus, les cellules naïves s’accumulent en fréquence lors de la transition de la phase aigue à la phase chronique de l’infection. Considérant que les cellules naïves expriment déjà des hauts niveaux de PD-1, nous avons émis l’hypothèse que l’activation initiale des cellules T chez les individus chroniquement infectés est affectée. En résumé, nous proposons un modèle où des hauts niveaux d’expression de PD-1 sont associés à (1) un dysfonctionnement de la réponse cellulaire T CD8+ et (2) un défaut d’activation des cellules naïves ce qui contribue non seulement à la progression de la maladie mais aussi ce qui va limiter l’efficacité de potentiels vaccins dans l’infection par le VIH-1 en empêchant toute nouvelle réponse d’être initiée. Afin de mieux disséquer la réponse immunitaire mise en place lors d’une infection comme celle du VIH-1, nous avons développé un outil qui permet de détecter les cellules T CD4+ i.e. des tétramères de CMH de classe II. Ces réactifs ont pour but d’augmenter l’avidité du CMH de classe II pour son ligand et donc de détecter des TCR de faible affinité. Dans cette thèse, nous décrivons une méthode originale et efficace pour produire diverses molécules de HLA-DR liant de façon covalente le peptide antigénique. Mieux déterminer les mécanismes responsables de l’exhaustion des cellules T dans l’infection par le VIH-1 et de la progression de la maladie, ainsi que développer des outils de pointe pour suivre ces réponses T, est central à une meilleure compréhension de l’interaction entre le virus et le système immunitaire de l’hôte, et permettra ainsi le développement de stratégies pertinentes pour lutter contre l’infection par le VIH-1.
Resumo:
L’objectif de cette étude est de déterminer certains paramètres respiratoires et cardiovasculaires chez des sujets de tous âges pour utilisation, à titre d’intrants physiologiques, en modélisation toxicocinétique et en analyse du risque toxique. La base de données utilisée est tirée de la littérature. Il s’agit de mesures portant sur la dépense d’énergie quotidienne de base et la dépense d’énergie quotidienne de totale obtenues, l’une par calorimétrie indirecte, l’autre par double marquage isotopique des molécules d’eau. Selon le type d’unité retenu, les valeurs les plus élevées au 99e centile des taux quotidiens d’inhalation sont obtenues chez des adolescentes et des femmes âgées de 11 à 55 ans souffrant d’embonpoint ou d’obésité, durant leur 36e semaine de grossesse (47,31 m³/jour), ainsi que chez des garçons de poids corporel normal âgés de 2,6 à moins de 6 mois (1,138 m³/kg-jour) et de 10 à moins de 16,5 ans (22,29 m³/m²-jour). Chez les enfants et les adolescents de poids corporel normal âgés de 5 à moins de 16.5 ans, les valeurs pour l’écart entre le 2,5e au 99e centile sont généralement plus élevées que celles obtenues chez les sujets plus âgés : taux de ventilation minute, 0,132 à 0,774 L/kg-min ou 4,42 à 21,69 L/m²-min versus 0,076 à 0,461 L/kg-min ou 2,80 à 16,99 L/m²-min; taux de ventilation alvéolaire, 0,093 à 0,553 L/kg-min ou 3,09 à 15,53 L/m²-min versus 0,047 à 0,312 L/kg-min ou 1,73 à 11,63 L/m²-min; débit cardiaque, 0,065 à 0,330 L/kg-min ou 2,17 à 9,46 L/m²-min versus 0,045 à 0,201 L/kg-min ou 1,63 à 7,24 L/m²-min; ratio de ventilation-perfusion, 1,12 à 2,16 versus 0,78 à 2,40. Il faut conclure que les apports inhalés en polluants, exprimés en ug/kg-min ou ug/m²-min sont plus élevés chez les enfants que chez les sujets plus âgés pour des concentrations d’exposition comparables. D’autres données montrent qu’il en est de même pour les apports inhalés par unité de poids corporel chez les femmes enceintes et les femmes qui allaitent par rapport à des sujets males d’âge comparable. L’ensemble des résultats obtenus suggère notamment que les valeurs des NOAELH de Santé Canada pourraient être abaissées par un facteur de 2,6 par utilisation du 99e centile le plus élevé des taux quotidiens d’inhalation chez les enfants; le taux de ventilation minute de 20,83 L/min approximé pour une journée de travail de 8 heures peut être considéré comme étant conservateur ; par contre, l’utilisation du taux quotidien d’inhalation de 0,286 m³/kg-jour (c.-à-d. 20 m³/jour pour un adulte de poids corporel de 70 kg) est inappropriée en analyse et gestion du risque lorsqu’appliquée à l’ensemble de la population.