992 resultados para Résistance aux médicaments


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lors de l’attribution du prix Nobel de chimie aux docteurs Robert Leftkowitz et Brian Kobika pour leurs travaux essentiels sur les récepteurs couplés à des protéines G (RCPGs), Sven Lindin, membre du comité Nobel, a affirmé que « jusqu'à la moitié » des médicaments « reposent sur une action ciblant les RCPG ». En raison de leurs rôles importants, leurs mécanismes d'activation et l’action de leurs ligands, les RCPG demeurent les cibles potentielles de la majorité des recherches pour le développement de nouveaux médicaments et de leurs applications cliniques. Dans cette optique, nous avons concentré nos recherches à travers cette thèse pour élucider les rôles, les mécanismes d’action et les effets des ligands de trois RCPG : GPR55; GPR91 et GPR99 au cours du développement des axones des cellules ganglionnaires de la rétine (CGRs). Les résultats de nos études confirment l’expression des récepteurs lors du développement embryonnaire, postnatal et adulte des CGRs ainsi qu’au cours de l’établissement de la voie rétinothalamique. In vitro, la modulation pharmacologique et génétique de l’activité de ces RCPGs réorganise la morphologie du cône de croissance des CGRs, celle des neurones corticaux et elle modifie la croissance axonale globale. De plus, les effets de la stimulation avec des ligands des ces trois RCPGs sur le guidage axonal varient d’aucun effet (GPR91 et GPR99) à la répulsion ou l’attraction (GPR55). La voie de signalisation MAPK-ERK1/2 joue un rôle essentiel dans la médiation des effets des ligands de ces récepteurs avec une implication de la voie de RhoA à hautes concentrations pour l’agoniste endogène de GPR55. In vivo, cette recherche démontre également l’implication de GPR55 dans les processus de sélection des cibles thalamiques et de raffinement au cours du développement du système nerveux visuel.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le but de ce projet est de développer une approche biomimétique pour augmenter l'absorption de molécules actives peu perméables. Cette approche réplique le mécanisme d'internalisation de la toxine du choléra par sa liaison au récepteur GM1 à la surface des cellules intestinales. La technologie proposée est de synthétiser des promédicaments composés d'une molécule active, d'un espaceur et d'un peptide ayant de l'affinité pour le GM1. Les hypothèses de ce projet sont que le peptide faisant partie du promédicament augmentera l'absorption intestinale de médicaments peu perméables et que le complexe sera métabolisé rapidement après son absorption. Des prototypes de promédicaments ont été synthétisés et des essais de stabilité, d'affinité et de perméabilité sur les peptides et les promédicaments ont été développés et réalisés. Les résultats de cette étude ont démontré la possibilité de synthétiser des promédicaments à partir d'un peptide liant le GM1 et d'une molécule thérapeutique ayant une faible biodisponibilité. Les essais de stabilité, d'affinité et de perméabilité ont été optimisés et implémentés avec succès. Les études in vitro initiales ont rapporté des résultats prometteurs concernant les propriétés de liaison du peptide utilisé et d'un des promédicaments préparés. Par contre, les résultats des essais de stabilité ont montré un métabolisme partiel des promédicament dans le plasma ainsi qu'une instabilité des solutions mères. De plus, les essais de perméabilité se sont avérés non concluants. Les prochaines études porteront sur la préparation de nouveaux promédicaments par une approche similaire ainsi que sur l'investigation du mécanisme d'internalisation du peptide.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Les changements climatiques observés depuis les dernières années semblent avoir un impact sur la distribution et l’abondance des espèces dans plusieurs régions du monde. Cette évolution du climat peut représenter un risque pour la survie de certaines espèces car elle peut impliquer leur migration vers une niche écologique leur étant plus favorable. Ce déplacement est possible si l’espèce possède une forte capacité de dispersion et si le territoire sur lequel elle se déplace n’est pas fragmenté. La modélisation de la distribution d’espèces et de niches écologiques, prenant en compte l’évolution des variables environnementales, permet de connaître la distribution potentielle des espèces à la période actuelle et à des périodes futures selon différents scénarios. Au Québec, ces modélisations de distributions de niches écologiques potentielles constituent une source d’information très utile pour les gestionnaires du territoire, en particulier des aires protégées. Ces données permettent notamment d’anticiper la migration des espèces, influencée par les changements climatiques, afin d’identifier les défis de conservation à venir et de poser une réflexion sur le rôle des aires protégées dans ce contexte. L’objectif général de cet essai vise à étudier la migration potentielle des niches écologiques liée aux changements climatiques sur le territoire des parcs nationaux de Frontenac, du Mont-Mégantic et de leur périphérie. Les changements de répartition et de richesse spécifique de plus de 600 niches écologiques dans ce secteur ont été étudiés ainsi que leur implication en lien avec la fragmentation du territoire. Deux échelles de travail (locale et régionale) ont été considérées et des indices spatiaux de changement de répartition et de diversité des niches écologiques ont été calculés pour ces deux échelles de travail, selon deux modes de dispersion (absence de dispersion et dispersion illimitée) et deux horizons futurs (2050 et 2080). Ces indices ont révélé majoritairement une augmentation des niches écologiques apparaissant sur le territoire et une hausse de la diversité de niches écologiques sur l’ensemble du territoire en cas de dispersion illimitée, phénomène accentué à l’horizon 2080. Par contre, en cas d’absence de dispersion, une disparition importante de niches écologiques ainsi qu’une perte de diversité sont à anticiper sur le territoire, phénomène également accentué à l’horizon 2080. L’étude de la fragmentation révèle un territoire relativement fragmenté par les routes, mais présentant majoritairement une faible résistance au déplacement des espèces, malgré la présence de quelques pôles urbains de moyenne importance. Cette étude se base sur des résultats de modélisation de niches écologiques déjà effectués pour l’ensemble du Québec et pourrait ainsi être appliquée à d’autres territoires. Les résultats montrent d’importants changements à venir et les gestionnaires et scientifiques travaillant sur ce territoire pourront utiliser les résultats obtenus pour réfléchir à la mise en place de mesures adaptées aux déplacements potentiels.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La dégradation du béton associée à l’exposition en ambiance hivernale rigoureuse est une problématique connue en Amérique du Nord en raison de la sévérité du climat en période hivernale. Un des types de dégradation, la fissuration interne, se manifeste par l'apparition d'une intense microfissuration du béton en surface, mais aussi à l'intérieur de la masse. Celle-ci peut conduire à une perte de cohésion du matériau, réduisant ses caractéristiques mécaniques et sa perméabilité. Dans un souci de développement durable et de recherche performancielle, des liants ternaires, comprenant des ajouts minéraux autre que la fumée de silice ont été développés. Les études scientifiques portant sur l’influence du facteur d’espacement à ce type de dégradation sont peu nombreuses, voire inexistantes. Il est par conséquent important de vérifier si les spécifications actuelles permettent d’assurer la confection d’un matériau durable au gel. Dans ce mémoire, nous avons étudié l’influence du facteur d’espacement, du paramètre E/L, de l’influence du type de superplastifiant et d’un granulat marginal sur la résistance à la fissuration interne des bétons en utilisant l’essai accéléré normalisé ASTM C666, procédure A lors de l’utilisation de liants ternaires. Une grande partie de cette recherche a porté sur l’étude de la relation entre le facteur d’espacement et la tenue aux cycles gel-dégel des bétons. Le projet s’est divisé en 4 phases, la première a permis de déterminer un intervalle contenant le facteur d’espacement critique pour chacun des liants étudiés. Il est ainsi établi qu’il est nécessaire d’avoir un facteur d’espacement inférieur à 340 µm pour assurer la durabilité des bétons V-S formulés à partir de liants ternaires. La deuxième phase a montré que le type de superplastifiant n’influe pas sur le facteur d’espacement critique, mais change les caractéristiques du réseau d’air à l’état frais. La troisième phase a porté sur l’analyse de l’influence d’une variation du rapport E/L sur la durabilité au gel-dégel. Il en résulte qu’une variation dans les limites permises n’a pas d’incidence sur le facteur d’espacement critique tant que les hypothèses restent dans l’intervalle prescrit par le tome VII de la norme 3101. La dernière et quatrième phase a permis de montrer que le granulat marginal sélectionné n’a pas d’incidence particulière sur la résistance au gel-dégel en fissuration interne.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Le but de ce projet est de développer une approche biomimétique pour augmenter l'absorption de molécules actives peu perméables. Cette approche réplique le mécanisme d'internalisation de la toxine du choléra par sa liaison au récepteur GM1 à la surface des cellules intestinales. La technologie proposée est de synthétiser des promédicaments composés d'une molécule active, d'un espaceur et d'un peptide ayant de l'affinité pour le GM1. Les hypothèses de ce projet sont que le peptide faisant partie du promédicament augmentera l'absorption intestinale de médicaments peu perméables et que le complexe sera métabolisé rapidement après son absorption. Des prototypes de promédicaments ont été synthétisés et des essais de stabilité, d'affinité et de perméabilité sur les peptides et les promédicaments ont été développés et réalisés. Les résultats de cette étude ont démontré la possibilité de synthétiser des promédicaments à partir d'un peptide liant le GM1 et d'une molécule thérapeutique ayant une faible biodisponibilité. Les essais de stabilité, d'affinité et de perméabilité ont été optimisés et implémentés avec succès. Les études in vitro initiales ont rapporté des résultats prometteurs concernant les propriétés de liaison du peptide utilisé et d'un des promédicaments préparés. Par contre, les résultats des essais de stabilité ont montré un métabolisme partiel des promédicament dans le plasma ainsi qu'une instabilité des solutions mères. De plus, les essais de perméabilité se sont avérés non concluants. Les prochaines études porteront sur la préparation de nouveaux promédicaments par une approche similaire ainsi que sur l'investigation du mécanisme d'internalisation du peptide.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’insuffisance rénale chronique (IRC) est caractérisée par de multiples déséquilibres homéostatiques tels que la résistance à l’insuline. Peu d’études se sont intéressées aux mécanismes sous-jacents à cette résistance à l’insuline en IRC. De plus, il est méconnu si cette résistance à l’insuline peut mener au développement d’un diabète de type II chez des patients prédisposés. Dans un modèle d’IRC, le rat Sprague-Dawley (CD) néphrectomisé 5/6e, on observe une corrélation entre la gravité de l’atteinte rénale, évaluée par la créatinine sérique, et l’hyperglycémie, évaluée par la fructosamine sérique (R2 = 0.6982, p < 0.0001). Cependant, cet état hyperglycémique n’est pas observable lors d’une glycémie à jeun. Lors d’un test de tolérance au glucose, on observe une plus grande élévation de la glycémie (AUC 1.25 fois, p < 0.0001) chez le rat atteint d’IRC. Par contre, la sécrétion d’insuline au cours de ce même test n’augmente pas significativement (AUC ≈ 1.30 fois, N.S.) en comparaison aux rats témoins. Malgré une élévation des taux d’insuline en IRC suivant un bolus de glucose, les tissus périphériques ne montrent pas d’augmentation de la captation du glucose sanguin suggérant un défaut d’expression et/ou de fonction des transporteurs de glucose chez ces rats. En effet, on observe une diminution de ces transporteurs dans divers tissus impliqués dans le métabolisme du glucose tel que le foie (≈ 0.60 fois, p < 0.01) et le muscle (GLUT1 0.73 fois, p < 0.05; GLUT4 0.69 fois, p < 0.01). En conséquence, une diminution significative du transport insulinodépendant du glucose est observable dans le muscle des rats atteint d’IRC (≈ 0.63 fois, p < 0.0001). Puisque les muscles sont responsables de la majorité de la captation insulinodépendante du glucose, la diminution de l’expression du GLUT4 pourrait être associée à la résistance à l’insuline observée en IRC. La modulation de l’expression des transporteurs de glucose pourrait être à l’origine de la résistance à l’insuline en IRC. Cela dit, d’autres mécanismes peuvent aussi être impliqués. En dépit de cette importante perturbation du transport du glucose, nous n’avons pas observé de cas de diabète de type II chez le rat CD atteint d’IRC. Dans un modèle de rat atteint d’un syndrome métabolique, le rat Zucker Leprfa/fa, l’IRC provoque une forte hyperglycémie à jeun (1.5 fois, p < 0.0001). De plus, l’IRC chez le rat Zucker provoque une réponse glycémique (AUC 1.80 fois, p < 0.0001) exagérée lors d’un test de tolérance au glucose. Une forte résistance à l’insuline est mesurée au niveau des muscles puisque la dose usuelle d’insuline (2mU/mL) n’est pas suffisante pour stimuler la captation du glucose chez le rat Zucker atteint d’IRC. De plus, une modulation similaire des transporteurs de glucose peut être observée chez ces deux espèces. Par contre, environ 30% (p < 0.001) des rats Zucker atteints d’IRC avaient une glycosurie. L’IRC en soi ne mènerait donc pas au développement d’un diabète de type II. Par contre, lorsqu’une résistance à l’insuline est présente antérieurement au développement d’une IRC, cela pourrait précipiter l’apparition d’un diabète de type II chez ces patients prédisposés.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’insuffisance rénale chronique (IRC) est caractérisée par de multiples déséquilibres homéostatiques tels que la résistance à l’insuline. Peu d’études se sont intéressées aux mécanismes sous-jacents à cette résistance à l’insuline en IRC. De plus, il est méconnu si cette résistance à l’insuline peut mener au développement d’un diabète de type II chez des patients prédisposés. Dans un modèle d’IRC, le rat Sprague-Dawley (CD) néphrectomisé 5/6e, on observe une corrélation entre la gravité de l’atteinte rénale, évaluée par la créatinine sérique, et l’hyperglycémie, évaluée par la fructosamine sérique (R2 = 0.6982, p < 0.0001). Cependant, cet état hyperglycémique n’est pas observable lors d’une glycémie à jeun. Lors d’un test de tolérance au glucose, on observe une plus grande élévation de la glycémie (AUC 1.25 fois, p < 0.0001) chez le rat atteint d’IRC. Par contre, la sécrétion d’insuline au cours de ce même test n’augmente pas significativement (AUC ≈ 1.30 fois, N.S.) en comparaison aux rats témoins. Malgré une élévation des taux d’insuline en IRC suivant un bolus de glucose, les tissus périphériques ne montrent pas d’augmentation de la captation du glucose sanguin suggérant un défaut d’expression et/ou de fonction des transporteurs de glucose chez ces rats. En effet, on observe une diminution de ces transporteurs dans divers tissus impliqués dans le métabolisme du glucose tel que le foie (≈ 0.60 fois, p < 0.01) et le muscle (GLUT1 0.73 fois, p < 0.05; GLUT4 0.69 fois, p < 0.01). En conséquence, une diminution significative du transport insulinodépendant du glucose est observable dans le muscle des rats atteint d’IRC (≈ 0.63 fois, p < 0.0001). Puisque les muscles sont responsables de la majorité de la captation insulinodépendante du glucose, la diminution de l’expression du GLUT4 pourrait être associée à la résistance à l’insuline observée en IRC. La modulation de l’expression des transporteurs de glucose pourrait être à l’origine de la résistance à l’insuline en IRC. Cela dit, d’autres mécanismes peuvent aussi être impliqués. En dépit de cette importante perturbation du transport du glucose, nous n’avons pas observé de cas de diabète de type II chez le rat CD atteint d’IRC. Dans un modèle de rat atteint d’un syndrome métabolique, le rat Zucker Leprfa/fa, l’IRC provoque une forte hyperglycémie à jeun (1.5 fois, p < 0.0001). De plus, l’IRC chez le rat Zucker provoque une réponse glycémique (AUC 1.80 fois, p < 0.0001) exagérée lors d’un test de tolérance au glucose. Une forte résistance à l’insuline est mesurée au niveau des muscles puisque la dose usuelle d’insuline (2mU/mL) n’est pas suffisante pour stimuler la captation du glucose chez le rat Zucker atteint d’IRC. De plus, une modulation similaire des transporteurs de glucose peut être observée chez ces deux espèces. Par contre, environ 30% (p < 0.001) des rats Zucker atteints d’IRC avaient une glycosurie. L’IRC en soi ne mènerait donc pas au développement d’un diabète de type II. Par contre, lorsqu’une résistance à l’insuline est présente antérieurement au développement d’une IRC, cela pourrait précipiter l’apparition d’un diabète de type II chez ces patients prédisposés.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Résumé : Cette étude examine l'impact de la taille et de la gradation de particules sur les corrélations théoriques et empiriques existantes les plus connues entre la résistance au cisaillement et le comportement dilatatant des matériaux granulaires en condition de déformation plane et en compression triaxiale drainée. À cette fin, 276 tests de cisaillements symétriques directs et 35 tests de compressions triaxiales drainées ont été menés sur des échantillons composés de billes de basalte (particules rondes), et de sables constitués de particules angulaires (sable de Péribonka et sable d'Eastmain) sur une échelle de 63 µm à 2000 µm afin d'évaluer leur résistance au cisaillement et leur comportement de dilatance sur une vaste échelle de pressions normales et de densités relatives initiales. Premièrement, la fiabilité et l'applicabilité des limites de mesure à l’aide de tests physiques de cisaillements symétriques directs dans l'interprétation de la résistance au cisaillement frictionnel en déformation plane des matériaux granulaires ont été discutées et confirmées par l'usage du code informatique DEM, SiGran. L'accent a été particulièrement mis sur la validation du modèle DEM au moyen de comparaison des résultats des simulations DEM avec leurs équivalents physiques à une échelle macro. Les résultats virtuels DSA sont abordés du point de vue de la coaxialité entre les principales tensions et les principales directions des paliers de pression ainsi que de la déviation de la direction d'extension nulle à partir de la direction horizontale. Les résultats numériques fournissent également des données quantitatives sur les différentes formes d'énergie consommées durant le cisaillement confirmées par d'autres résultats physiques et numériques publiés. Sur la base des postulats précédents, un examen minutieux des résultats des essais de cisaillements directs et de données issues de la littérature a été accompli afin d'évaluer la fiabilité des formules empiriques bien connues de Bolton et Collins et al. avec leurs constantes couramment employées en condition de déformation plane. L'étude montre qu'une application des relations empiriques de force-dilatation de cisaillement avec les constantes proposées par Bolton (1986) et Collins et al. (1992) aux sables ayant une distribution de taille de particules différente peut conduire à surestimer leurs valeurs en terme de force de cisaillement. Dans cette étude, les coefficients des équations de Bolton et Collins et al. ont donc été ajustée afin de prendre en compte les caractéristiques des particules, en particulier le diamètre médian, D50. De manière analogue, les effets microstructuraux imposés par la géométrie interne des particules (par exemple la taille, la forme et la gradation des particules) sur la relation tension-dilatation très connue, celle de Rowe (1962), et son ajustement empirique en condition triaxiale drainée ont été examinés dans cette étude. Une comparaison des prédictions des formules proposées avec les données de force de cisaillement issues de la littérature fournit de nombreuses preuves en faveur des contraintes mises en place au sein des relations existantes de force-dilatation de cisaillement en condition de déformation plane et triaxiale. Ces comparaisons prouvent également que la prise en compte de la taille des grains conduit à des résultats plus tangibles que lorsque la taille de la particule n'est pas considérée. Les formules de force-dilatation ajustées peuvent se révéler avantageuses pour évaluer indépendamment la cohérence des forces de cisaillement déterminées expérimentalement et pour introduire des lois d’écoulement plus précises dans les analyses géotechniques analytiques et numériques.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RÉSUMÉ. La prise en compte des troubles de la communication dans l’utilisation des systèmes de recherche d’information tels qu’on peut en trouver sur le Web est généralement réalisée par des interfaces utilisant des modalités n’impliquant pas la lecture et l’écriture. Peu d’applications existent pour aider l’utilisateur en difficulté dans la modalité textuelle. Nous proposons la prise en compte de la conscience phonologique pour assister l’utilisateur en difficulté d’écriture de requêtes (dysorthographie) ou de lecture de documents (dyslexie). En premier lieu un système de réécriture et d’interprétation des requêtes entrées au clavier par l’utilisateur est proposé : en s’appuyant sur les causes de la dysorthographie et sur les exemples à notre disposition, il est apparu qu’un système combinant une approche éditoriale (type correcteur orthographique) et une approche orale (système de transcription automatique) était plus approprié. En second lieu une méthode d’apprentissage automatique utilise des critères spécifiques , tels que la cohésion grapho-phonémique, pour estimer la lisibilité d’une phrase, puis d’un texte. ABSTRACT. Most applications intend to help disabled users in the information retrieval process by proposing non-textual modalities. This paper introduces specific parameters linked to phonological awareness in the textual modality. This will enhance the ability of systems to deal with orthographic issues and with the adaptation of results to the reader when for example the reader is dyslexic. We propose a phonology based sentence level rewriting system that combines spelling correction, speech synthesis and automatic speech recognition. This has been evaluated on a corpus of questions we get from dyslexic children. We propose a specific sentence readability measure that involves phonetic parameters such as grapho-phonemic cohesion. This has been learned on a corpus of reading time of sentences read by dyslexic children.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Providing a positive user experience (UX) has become the key differentiator for products to win a competition in mature markets. To ensure that a product will support enjoyable experiences for its users, assessment of UX should be conducted early during the design and development process. However, most UX frameworks and evaluation techniques focus on understanding and assessing user’s experience with functional prototypes or existing products. This situation delays UX assessment until the late phases of product development which may result in costly design modifications and less desirable products. A qualitative study was conducted to investigate anticipated user experience (AUX) to address this issue. Twenty pairs of participants were asked to imagine an interactive product, draw their product concept, and anticipate their interactions and experiences with it. The data was analyzed to identify general characteristics of AUX. We found that while positive AUX was mostly related to an imagined/desired product, negative AUX was mainly associated with existing products. It was evident that the pragmatic quality of product was fundamental, and significantly influenced user’s anticipated experiences. Furthermore, the hedonic quality of product received more focus in positive than negative AUX. The results also showed that context, user profile, experiential knowledge, and anticipated emotion could be reflected in AUX. The understanding of AUX will help product designers to better foresee the users’ underlying needs and to focus on the most important aspects of their positive experiences, which in turn facilitates the designers to ensure pleasurable UX from the start of the design process.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Positive user experience (UX) has become a key factor in designing interactive products. It acts as a differentiator which can determine a product’s success on the mature market. However, current UX frameworks and methods do not fully support the early stages of product design and development. During these phases, assessment of UX is challenging as no actual user-product interaction can be tested. This qualitative study investigated anticipated user experience (AUX) to address this problem. Using the co-discovery method, participants were asked to imagine a desired product, anticipate experiences with it, and discuss their views with another participant. Fourteen sub-categories emerged from the data, and relationships among them were defined through co-occurrence analysis. These data formed the basis of the AUX framework which consists of two networks which elucidate 1) how users imagine a desired product and 2) how they anticipate positive experiences with that product. Through this AUX framework, important factors in the process of imagining future products and experiences were learnt, including the way in which these factors interrelate. Focusing on and exploring each component of the two networks in the framework will allow designers to obtain a deeper understanding of the required pragmatic and hedonic qualities of product, intended uses of product, user characteristics, potential contexts of experience, and anticipated emotions embedded within the experience. This understanding, in turn, will help designers to better foresee users’ underlying needs and to focus on the most important aspects of their positive experience. Therefore, the use of the AUX framework in the early stages of product development will contribute to the design for pleasurable UX.